Knowledge Base
閱讀站
首頁而家只顯示最近 50 篇文章,避免文章量愈大愈拖慢首頁載入。
為什麼SVG能在AI時代走紅
SVG係AI時代嘅圖文解答——佢係文本,可以版本管理,仲可以直接俾AI生成同修改
完成Claude design和Claude+Figma MCP的區別,用哪個好?
Claude Design 同 Claude + Figma MCP 各有優勢,追求快狠準就選前者,追求穩陣團隊流就選後者,最緊要視項目需求揀工具。
完成從零手把手教你寫一個簡易版 Claude Code:基礎篇
Claude Code 核心就係一個 ReAct 循環,用 100 行 Python 手搓出嚟,讓 AI Agent 自己思考、行動、驗證,完成複雜任務如寫貪食蛇或總結網頁。呢個內核簡單到爆,讀完即跑即改,唔使啃十幾萬行源碼。
完成比 Claude Design 更值錢的,是泄露的 422 行設計哲學
Anthropic 將設計審美寫入系統提示詞,令 422 行泄漏提示詞比 Claude Design 本身更有價值
完成提示詞救命神器!拯救所有不會寫提示詞的人!!!
一個登上 GitHub 熱門榜、斬獲 26k star 嘅提示詞優化工具,完全開源免費幫你將模糊提示詞秒變專業版本
完成我們能從Claude Design提示詞中學到什麼
Claude Design嘅系統提示詞揭示咗點樣將通用AI模型塑造成專業設計師,重點係角色定位、工作流程同負面清單。
完成Google剛剛總結5種Agent設計模式:讓AI連續工作7天不崩
Google提出五種設計模式,確保AI Agent能連續運行多日而不崩潰
完成4千萬token實測 DeepSeek V4,不簡單。。。
DeepSeek V4 預覽版實測:長上下文能力顯著提升,但複雜工程場景下仍有不足,國產化決心值得肯定。
完成花叔不公開的寫作 Skill,我逆向出來了
逆向拆解花叔嘅橙皮書寫作系統,將佢嘅高質素技術寫作方法開源,仲用嚟寫咗本 DeerFlow 實戰書
完成DeepSeek V4是怎麼訓練出來的?58頁論文深入解讀
勸退提醒: 1、這是一篇很長很長的文章,會深入到DeepSeek V4論文中涉及到的各種細節,如果你不感興趣,只是想知道模型跑分的話,沒必要讀 2、我也沒那麼好的技術能力,這是花了2000萬Opus4.7 tokens讀完內容,並做了73頁PPT之後形成的理解 3、我多少對DeepSeek有些濾鏡,我很喜歡這個公司的做派和風格,所以表達未必客觀中立如果這種情況下,你還願意一起往下探的話,那我們開始吧!在我看來,DeepSeek不是一個衝破天花板的SOTA模型。它真正的價值是把百萬上下文、Agent原生能力、能接受的價格這三件事第一次綁在了一起。而且這次從發佈時間和節奏來說也挺有趣的,其實本來按照大家的預期,V4應當在春節前後發的,實際看來也差不多是那會兒完工。他們論文中對標的也是2月那會的Claude Opus 4.6和GPT-5.4。但它實際發佈卡到了現在,中間又出了Opus 4.7和GPT-5.5。等它正式亮相,對標對象已經換人了。DeepSeek自己解釋說是為了更好地適配國產芯片。害,行吧,也希望國產芯片好好適配下DeepSeek。其實今年1月份時,我已經連着寫了三篇DeepSeek論文解讀:mHC、Engram、OCR 2。當時我的判斷是這些技術大概率都會進V4。現在V4論文打開,mHC進來了,其他一些思路也能看出端倪。這篇文章我會順着這條線講,讓之前讀過那幾篇的朋友能看到完整的故事線。再說結論我們需要重複下開頭的核心結論,以這個視角的話,我們會對DeepSeek V4會有個更合理的預期,那就是👇這不是一個衝破AGI天花板的世界最佳模型,但屬於是一個讓普通開發者第一次能夠放心地用上100萬上下文Agent模型的發佈。這兩者的差別非常大。前者是衝頂峯的敍事,需要在各個benchmark上全面擊敗Opus 4.7、GPT-5.5、Gemini 3.1 Pro。V4還做不到。後者是抬地板的敍事。100萬token上下文這件事,之前不是沒有模型能做到,但要麼極貴(Opus、DeepSeek那檔),要麼效果會顯著衰減(很多國產模型128K以上就明顯掉分)。V4做的事情是把「100萬長上下文」+「Agent多步調用能力」+「能接受的價格」這三件事第一次組合到一起。對閉源旗艦來說,V4不構成威脅。對一個想在產品裏塞入長上下文的獨立開發者來說,V4意味着幾乎所有的上下文節省工作都可以先不做了(對的,RAG和很多別的AI敍事一樣,只要你不學,等着等着你就可以不必學了)業內有個說法:閉源模型卷能力天花板,開源模型卷地板,地板抬高的速度決定AI應用爆發的規模。V4把這個地板往上抬了抬。V4-Pro 和 V4-Flash:兩個定位不一樣的模型這次DeepSeek發的是兩個模型。V4-Pro的總參數量比V3的671B翻了2.4倍。激活參數從37B漲到49B,只多了三成左右。走的是「稀疏度再提高」的路線。這裏要稍微解釋一下MoE模型的工作方式。V4-Pro一共有300多個專家(routed experts)加上1個共享專家。每次處理一個token的時候,它不是把所有專家都調動起來,而是隻激活其中6個+共享專家,一共7個專家參與回答。這有點像一個有384位專家的公司,每個決策只召集7個人開會,不搞全員表決。激活的參數量少,推理速度就快,成本也能壓下來。V4-Pro的定位是「開源陣營裏能跟閉源旗艦掰手腕的那個」。但DeepSeek自己在論文裏也誠實地說了一件事:因為現在高端算力受限,Pro的服務吞吐很有限,所以Pro版本的API價格目前不算便宜,預計下半年才能降下來。V4-Flash是真正符合DeepSeek一貫風格的那個模型。它的參數規模是V4-Pro的約六分之一,但在很多基礎能力上已經反超了V3.2。這意味着架構改進和數據質量的收益,足夠抵消參數規模的差距。Flash的價格相比同類快速模型,大概是他們的1/7到1/18。如果你是獨立開發者,我的建議很明確:AI編程、寫作、複雜任務、關鍵決策場景用Opus 4.7這類;批量任務、Agent後台、數據處理用V4-Flash。架構動了哪些刀V4沒有推倒V3重來。MoE框架沿用的還是DeepSeekMoE,MTP模塊沒動,訓練細節也大多延續V3。真正大改的地方只有三處:殘差連接升級成mHC注意力拆成CSA+HCA的混合架構優化器從AdamW換成Muon這三處改動各自解決一個具體痛點。殘差連接在堆深時數值不穩定,限制了把模型做大;傳統注意力在百萬token長上下文下KV cache爆炸,算力根本扛不住;AdamW在超大規模MoE訓練上收斂慢、偏科嚴重。V4相當於把V3的三個瓶頸逐一拆掉。mHC:給殘差連接加一道只准收縮不準放大的護欄mHC我在1月那篇mHC論文解讀裏已經完整講過了,這裏長話短說。殘差連接是深度學習用了整整十年的基礎設計。2015年何愷明的ResNet開始,到現在的每一個大模型都離不開它。它做的事情,用一句話說就是給信號開了一條「快車道」:不管中間那些層學到了什麼,原始信號都能直接順着這條高速公路原封不動傳到後面。這就是所謂的「恆等映射」。這個設計本身沒問題。問題出在對它的第一次升級上。2024年底,字節Seed團隊發了一篇叫Hyper-Connections(HC)的論文,後來中了ICLR 2025。HC把單通道的殘差流擴展成多通道,讓模型自己學習最優的連接方式。DeepSeek一開始也是沿着這條路線往下走的,但踩到了HC的一個致命缺陷:訓練不穩定。不穩定到什麼程度?DeepSeek在1月那篇mHC論文裏給過一個很震撼的數字:在27B模型上,HC的信號放大倍數峯值達到3000倍。也就是說,信號在網絡裏傳着傳着,被放大了3000倍,梯度也隨之被放大3000倍。訓練到某一步突然崩掉是家常便飯。mHC解決這個問題的思路,我覺得最形象的說法還是1月文章裏那句:給殘差連接加了一道「只准收縮不準放大」的數學護欄。用一個畫面講清楚。信號在網絡裏一層層往下傳,可以想象成把一杯水倒進下一個杯子。HC的做法是把一根水管變成四根,每根流量讓模型自己學。靈活是靈活了,但沒人管總量。倒着倒着水越倒越多,到第60層的時候已經是原來的3000倍,杯子直接爆了。mHC的做法是強制每一層倒水都守恆。不管四根水管怎麼分配、怎麼混合,進多少水就出多少水,一滴不多一滴不少。這個約束的數學工具叫「雙隨機矩陣」,名字嚇人,本質就是一張分配表:每一行加起來等於1,每一列加起來也等於1。這兩個條件加起來,天然保證了水不會憑空變多。更舒服的是,兩張雙隨機矩陣乘在一起還是雙隨機矩陣,所以不管你堆多少層,守恆這件事都不會失效。代價是模型不能自由學這張表,每一層都要用一個叫Sinkhorn-Knopp的算法迭代20次,把學出來的東西壓回守恆的形狀。相比訓練崩掉的損失,這個代價不算什麼。mHC帶來的直接結果是:V4能把模型從V3的671B推到1.6T,參數量2.4倍增長,訓練穩定性反而比V3更好。這是理解V4能「做大」的第一把鑰匙。CSA + HCA:讀一本800頁的書,先翻目錄再精讀這是整篇論文我覺得工程含量最高的地方,也是V4百萬上下文能落地的核心。先說清楚一件事:為什麼100萬上下文這麼難做?標準的注意力機制,每個新來的token都要和前面所有token算一次內積。如果把4K上下文換成100萬上下文,需要算的內積數量是4000倍,顯存佔用也是4000倍。粗略估算下來,100萬上下文的單次推理成本比4K高約6萬倍。這堵「算力牆」和「顯存牆」加起來,是大多數模型在128K-200K就停住的原因。V4的解法是把注意力機制拆成兩種,在Transformer不同的層裏交替使用。CSA(Compressed Sparse Attention)走精細路線。它把每m個token壓縮成1個塊,然後用一個叫Lightning Indexer的小模塊算每個query和每個壓縮塊的相關性分數,只挑分數最高的top-k個塊去做真正的注意力計算。HCA(Heavily Compressed Attention)走粗略路線。它的壓縮率m'遠比m大(通常是幾十倍),但不做稀疏篩選,query會dense地把所有壓縮塊都掃一遍。犧牲細粒度,換極致的KV cache壓縮。我覺得這兩種注意力最好的比喻就是讀一本800頁的書。你不會逐字讀完。大概率是這樣:先翻目錄,定位到有用的那幾章;翻到那一章後掃一下小標題,定位到第幾頁;最後才精讀那幾頁。這是一個先粗後細的過程。V4把這個動作拆成了兩種獨立的機制,交替安排在不同的層裏:CSA做的是「掃小標題定位」:先把每64個token揉成一塊,給每塊打分,挑出最相關的幾塊去精讀HCA做的是「翻目錄看大意」:直接把1024個token壓成一塊,一本800頁的書可能只剩幾十塊大摘要,每個新來的token都把這幾十塊全掃一遍兩者加起來,V4在100萬上下文下的單次推理成本,只有V3.2的約1/4。KV cache佔用只有傳統BF16 GQA8 baseline的約2%。把50份壓成1份,這是百萬上下文真正能跑起來的數學原因。論文裏還有一堆工程細節,比如兩種注意力都用Shared KV MQA進一步省cache,都加了sliding window分支保證局部細節不丟,都用了attention sink讓query可以「棄權」。這些工程活不好解釋,但每一個都在扣效率。這是理解V4能「讀長」的第二把鑰匙。Muon:別每個旋鈕單獨調,整組一起掰Muon是V4用來替代AdamW的優化器。改動的技術深度很足,但可以用畫面感拆開說。先說優化器是幹嘛的。模型訓練就一句話:猜一個答案,對照正確答案,根據錯的方向調整自己。優化器決定的就是「具體怎麼調」。AdamW是過去十年行業默認的優化器。它的邏輯是:模型內部有幾十億個旋鈕要調,每個旋鈕單獨看它過去抖得厲害不厲害,抖得厲害就調慢一點,抖得少就調猛一點。聽起來挺合理。問題是這些旋鈕不獨立。它們是同一台機器上的幾十億個零件,彼此聯動。AdamW單獨看每個旋鈕的歷史做判斷,結果就是模型在參數空間裏走出來的軌跡是個極度扁的橢圓:少數幾個「熱門方向」步子邁得特別大,推到病態的程度;其他方向幾乎沒動過,等於沒學。說得更直白點,AdamW訓出來的模型會偏科。Muon反過來想。它不看單個旋鈕,而是看這一整組旋鈕合起來在往哪個方向走,然後把這個方向的更新強行「拉平」:原本邁得特別大的方向壓一壓,幾乎沒動的方向拉一拉,讓每個方向都走一樣遠。數學上這個操作叫「正交化」,畫面感上就是把原本歪扁的橢圓硬掰成一個正圓。好處是什麼?原本被AdamW淹沒的冷門方向,現在能和熱門方向拿一樣的步長。模型探索範圍更廣,收斂更穩。Muon天生有個成本問題:每一步都要把橢圓掰成正圓,直接算要做矩陣分解,太貴。V4用了一個近似辦法(Newton-Schulz迭代),10步搞定一次掰正,前8步用激進係數快速逼近,後2步切換温和係數做精修。工程上剛好不貴。一個細節:V4沒把所有參數都交給Muon。embedding、prediction head、RMSNorm這些本來就不是矩陣、沒有「方向」概念的參數,還是AdamW管。Muon和AdamW各管一攤。這是理解V4能「訓深」的第三把鑰匙。1.6T怎麼訓穩的:兩個他們自己也不懂的trick把模型從671B推到1.6T,光有mHC還不夠。訓練1.6T的MoE時,V4團隊遇到了loss spike(訓練損失突然飆升,前幾輪學的東西都被噪聲污染),簡單的回滾保存點也救不回來,剛回滾完沒多久又崩。他們最終用了兩個辦法把訓練救回來。一個叫Anticipatory Routing(預判式路由)。MoE模型裏有個「路由器」負責每一步挑哪幾個專家上場,這個路由器本身也是學出來的。訓練崩潰的惡性循環是這樣:某一步某個專家輸出了一個異常大的數,這個異常讓路由器誤以為「這個專家真強」,下一步派給它更多任務,它輸出更離譜的數,路由器越挑越偏,訓練崩了。解法特別巧:讓路由器用「昨天的腦子」做「今天的決定」。主幹網絡的更新和路由器解耦,主幹用當前參數算,但路由器挑專家時查的是前幾步的歷史參數。今天網絡再怎麼抽風,路由器用的是沒被污染的舊腦子,惡性循環就斷了。另一個叫SwiGLU Clamping。SwiGLU是模型裏的激活函數,可以理解為每個神經元的「水龍頭」。正常情況水龍頭開多大都行,但在1.6T這個規模上,某些神經元會突然爆出極大的數值,把整個訓練帶崩。DeepSeek的做法簡單粗暴:給SwiGLU內部的幾個關鍵數值強行加一個上下限(-10到10之間),哪怕某個神經元想輸出一萬,也只能給你10。這兩個trick為什麼有效?DeepSeek自己在論文裏說,他們也不完全清楚。原話是「the underlying principles of these mechanisms remain insufficiently understood」。他們只知道:用了,有效,就這麼用。至於為什麼,希望社區一起探索。我覺得這個細節值得單獨拎出來講。過去我們看到的很多技術報告,總是在事後給方法找一套漂亮的理論解釋,好像研究者從一開始就想得很清楚。但實際工程裏,很多時候是先做出來再理解。DeepSeek不藏這個,白紙黑字寫進論文裏。這種坦誠在國內團隊裏並不多見。今年1月我寫R1論文更新那篇時說過,DeepSeek的「Open」不是做到行業平均水平就夠了,而是包括那些失敗的嘗試、沒搞懂的trick、踩過的坑都一併開出來。V4這篇報告延續了這個風格。訓練數據:32T tokens,反AI生成、加Agent、加多語言V4的預訓練數據比V3更大(33T vs V3的14.8T),也更講究。幾個關鍵動作:反模型坍縮。互聯網語料裏現在充斥着大量AI生成的文本。如果不做過濾,訓練出來的模型會出現「模型坍縮」(model collapse):每一代都在上一代的AI輸出上訓練,能力會越來越差。DeepSeek專門做了一套過濾,把批量自動生成和套模板的內容攔掉。中期訓練引入Agent數據。工具調用軌跡、多步推理、搜索片段這些,不能靠後訓練硬掰,必須在預訓練中期就喂進去。這是V4-Flash的Agent能力躍升的關鍵原料。多語言擴容。擴充了除中英外的長尾語言,覆蓋不同文化的知識。所以你用V4做翻譯、或者查一些非英文語言的長尾知識,效果會比V3好不少。精選長文檔。科學論文、技術報告這類「學術價值獨特」的材料被重點收錄。訓練數據規模上,Pro版本是33T tokens,Flash版本是32T tokens。分詞沿用V3的128K詞表。序列長度是分階段擴展的:從4K起步,逐步擴到16K、64K、1M。稀疏注意力也是分階段引入:前1T tokens先用dense attention熱身,到64K序列長度時切到sparse attention。這種漸進式訓練在超長上下文模型裏已經是事實標準,但V4的階段切換時機設計比較精細。後訓練:Specialist + OPD,一個被低估的範式變化如果說架構改動是V4最顯眼的變化,那後訓練範式的變化其實是這篇報告最深刻的變化。V4在後訓練章節的第一句話就很有趣:the mixed Reinforcement Learning (RL) stage was entirely replaced by On-Policy Distillation (OPD).翻譯過來就是:混合RL階段被徹底替換成在策略蒸餾。這句話我覺得像是範式級別的轉變了。為什麼要替換傳統後訓練是「SFT+RLHF混煉」的路子:一個大雜燴數據集,SFT打底,再用一個reward model做RL。問題是什麼?數學、代碼、Agent、對話這些能力在RL階段會互相打架。你調數學的reward權重,代碼能力可能就掉了;你加Agent數據,對話又變笨。多任務聯合優化的「負遷移」問題,幾乎每個做過後訓練的團隊都踩過坑。DeepSeek的解法是把「聯合優化」拆成「分治+合併」:Stage 1 Specialist訓練:每個領域(推理、數學、代碼、Agent、通用對話)單獨訓練一個專家模型。先SFT,再用GRPO做RL。每個專家只管自己那塊,reward signal清晰,不用跟其他領域折中。Stage 2 On-Policy Distillation:把十多個專家模型當老師,通過反向KL loss蒸餾出一個統一的學生模型。這個拆分的妙處在於:RL只在專家階段做,最終的學生模型不做RL,只做蒸餾。RL的訓練不穩定性被隔離在專家模型內部,學生模型通過更穩定的蒸餾loss拿到所有專家的能力。反向KL是關鍵OPD的技術細節裏,有一個點特別值得講:為什麼用反向KL而不是正向KL?正向KL是讓學生去cover老師的所有模式,結果往往學成四不像。反向KL是讓學生集中在老師分佈的高概率區域,學生會自動「選老師」:數學任務時對齊數學專家,代碼任務時對齊代碼專家。這個「自動路由」的特性,是多老師蒸餾能跑通的關鍵。為什麼這個範式重要講到這裏可能有朋友要問:這個東西對獨立開發者有什麼意義?我的判斷是,這可能是比MoE更深刻的範式變化。MoE是推理時混合(runtime mixture),OPD蒸餾是訓練時混合(training time mixture)。後者的組合空間大得多。這個範式天然適合幾類場景:小團隊:沒錢一開始就訓大模型,但可以訓多個小specialist,最後蒸餾融合垂直應用:法律/醫療/代碼各訓一個專家,最後合併持續學習:要增加新能力時,訓一個新專家加入蒸餾池就行,不破壞老模型只要你能訓出專家,就能通過OPD合進來。未來想加新能力(比如「寫毛筆字」「解幾何題」),路徑很清晰:訓專家→加入蒸餾池。這比RLHF要改reward、要重跑全流程友好得多。這個範式會不會成為新的行業標準,目前還不好說。但V4已經用了十多個專家模型做OPD,證明在萬億參數級別它是可行的。評測結果:強在哪,弱在哪評測是V4論文裏最重要的部分之一,也是最容易被誤讀的部分。我直接把我的判斷列出來。數學推理:反超閉源旗艦V4-Pro在幾個數學類benchmark上拿到了開源陣營前所未有的高分:BenchmarkV4-Pro-Max對比Putnam-2025(形式化證明)120/120 滿分超過Axiom和Seed-ProverApex Shortlist90.2全場第一,超過Gemini 3.1 ProIMOAnswerBench89.8接近GPT-5.4的91.4HMMT 2026 Feb95.2僅次於GPT-5.4Codeforces的競賽評分V4-Pro能達到3206分,對應人類選手第23名。這是非常離譜的水平。編程:LiveCodeBench和Codeforces雙第一V4-Pro在LiveCodeBench拿到93.5分,Codeforces Rating 3206。DeepSeek論文裏明確寫了,這是第一次開源模型在這兩項任務上追平閉源。但注意一個細節:SWE系列(真實工程代碼任務)就沒那麼亮眼了。SWE Verified 80.6分接近Opus 4.6的80.8但沒超過,SWE Multilingual也略輸。這就對應上了DeepSeek論文裏自己的總結:V4模型非常擅長做題,但品味上還差一些火候。競賽類任務有明確答案,RL能反覆打磨;工程類任務要綜合考慮代碼風格、架構、可維護性,這些品味層面的東西現在的RL訓練還吃不透。Agent:全方位落後閉源這是V4最弱的一塊。BenchmarkV4-Pro-Max最強Terminal Bench 2.067.9GPT-5.4: 75.1BrowseComp83.4Gemini 3.1: 85.9HLE w/ tools48.2Opus 4.6: 53.1(甚至輸給K2.6)GDPval-AA (Elo)1554GPT-5.4: 1674Terminal Bench 2.0落後GPT-5.4整整7分,HLE w/ tools落後Opus 4.6整整5分。DeepSeek論文裏非常誠實地寫了:「所有開源模型仍落後閉源對手」。唯一的亮點是MCPAtlas Public(73.6),僅次於Opus的73.8。說明V4在通用工具調用和MCP服務上泛化能力不錯,不是隻在內部框架裏打雞血。真實編程任務:接近Opus 4.5,差Opus 4.6 Thinking 13分DeepSeek自己拿200多個真實的內部R&D編程任務做了測試,來自50多位工程師日常工作中提的真實需求,覆蓋PyTorch、CUDA、Rust、C++:模型R&D編程通過率Claude Haiku 4.513%Claude Sonnet 4.547%DeepSeek V4-Pro-Max67%Claude Opus 4.570%Claude Opus 4.5 Thinking73%Claude Opus 4.6 Thinking80%V4-Pro的67%已經超過Sonnet 4.5(47%),接近Opus 4.5(70%),但距離Opus 4.6 Thinking(80%)還差13個百分點。這組數據是DeepSeek論文發佈時跑的,當時Claude最新是4.6 Thinking。現在Opus 4.7 Thinking已經發布,V4和當前最強閉源的真實差距大概是6個月到1年的研發時間。談不上「完全追平」,也算不上「落後一代」。中文場景:真正的第一梯隊中文寫作是V4-Pro少數能對Opus 4.5掰手腕的地方:意思就是日常中文寫作對Gemini是碾壓級,複雜指令跟隨對Opus 4.5仍然有差距。論文裏吐槽Gemini經常「讓自己的風格偏好壓過用戶的明確需求」(擅自加戲),這個描述我讀完忍不住笑了一下。長上下文:128K內穩如狗,1M勉強能用BenchmarkV4-ProOpus 4.6Gemini 3.1MRCR 1M83.592.976.3CorpusQA 1M62.071.753.8V4在1M長上下文的檢索任務上超過Gemini,但落後Claude Opus 4.6。MRCR 8-needle測試顯示128K以內性能穩定在0.9以上,256K後開始掉到0.82,到1024K降至0.59。128K以內基本沒有性能衰減,1M勉強能用。這是CSA+HCA混合架構帶來的實際收益。對大多數Agent和代碼場景,128K已經足夠。一個特點:為什麼V4這麼偏科?讀完整份報告,加上這些benchmark結果,有一個很鮮明的模式浮出來:V4特別擅長做題,但在品味型任務上差一檔。數學競賽Putnam滿分,Codeforces拿到人類選手第23名,LiveCodeBench全場第一。但創意寫作輸給Opus 4.5,Agent任務落後GPT-5.4,HLE通用知識被Gemini壓制。我自己的理解是:這和DeepSeek招的人有關。DeepSeek的招聘以競賽獲獎選手為主。這些人擅長什麼?擅長在給定規則下把單點做到極致,擅長解有明確答案的題。模型訓練的偏好會受數據團隊、訓練團隊、評估團隊的品味影響,這些品味又受團隊成員的背景影響。所以V4在有明確答案的任務上表現頂尖(數學、競賽編程),在需要綜合品味的任務上(創意寫作、長鏈Agent、通用工程編程)就會相對偏弱。這只是一個觀察,談不上批評。模型的性格映射着團隊的性格,這件事很多時候比人們想象的更直接。DeepSeek還是那個DeepSeek嗎?寫到這裏不得不問一個問題:V4時代的DeepSeek,和V3時代比,變了嗎?我的回答是:變了,但沒變味。V3時代的DeepSeek是「小團隊、極致工程、帶來驚喜」。V4時代的DeepSeek打開論文附錄,研究工程作者名單已經超過300人,加上商業和合規接近350人。這不再是那個幾十人的實驗室。但有幾個東西沒變。一個是工程至上。V4的創新重點不在高層架構設計,而在「信號怎麼流動」和「梯度怎麼更新」這兩個底層問題上。mHC解決深度scale的數值穩定性,CSA+HCA解決上下文scale的算力和內存,Muon解決參數scale的訓練效率。每一項都是回答「為什麼V3做不大」的問題。我在1月那篇mHC解讀裏寫過一句話:DeepSeek的技術哲學是去質疑那些所有人都覺得沒必要改的東西。V4這篇論文把這句話又紮紮實實兑現了一次。殘差連接改了,注意力機制改了,優化器也改了。每一處都是行業裏默認不動的底座。另一個是誠實。承認架構「太複雜」(原文:retained many preliminarily validated components which made the architecture relatively complex),承認訓練穩定性機制「不理解」(原文:underlying principles remain insufficiently understood),承認sparse還不夠極致,承認Agent能力落後閉源。這些話寫進一篇技術報告裏,放到國內同行裏幾乎找不到第二家。還有一條是Open是真Open。R1的86頁更新補全了訓練賬單和數據配方,V4的58頁繼續補全基礎設施的每個縫隙。不是「開源權重就完了」的Open,是一份讓別人真的能復現的Open。DeepSeek在發佈V4的時候引用了一句話:不誘於譽,不恐於誹,率道而行,端然正己。不被讚譽誘惑,不被誹謗嚇退,按自己的道走,端正自己。這句話可能比58頁的論文技術細節更能解釋這家公司。最後回到開頭那條線。1月那三篇解讀,mHC確實進V4了。Engram和OCR 2呢?1月Engram那篇我用的比喻是「給大模型發一本字典」:靜態知識直接查表,不浪費網絡深度現場推理。V4這次沒把這本字典裝進來,但論文明確把「沿新維度繼續稀疏化」列進了未來路線圖,參考文獻正是Engram那篇論文。OCR 2的視覺因果流也沒進V4,但多模態被明確寫進V5的方向(原文:incorporating multimodal capabilities)。所以下一代DeepSeek大概率會是這樣的輪廓:原生多模態(OCR 2這一脈的延伸)、引入某種可擴展的查找式記憶(Engram這一脈的延伸)、進一步降低延遲(為Agent交互做準備)、更長的long-horizon multi-round agentic能力。V5什麼時候發我不好預測。但DeepSeek的節奏已經固定下來:論文先鋪路,模型後亮相。V4論文裏寫了未來方向,剩下的就是時間。V4顯然談不上對Opus 4.7或GPT-5.5的超越,它是開源陣營的一次基礎設施級更新。把百萬token上下文、Agent原生支持、成本優勢打包成一個可複用的底座。真正的價值不在V4-Pro能不能打贏最強閉源,而在V4-Flash讓每一個獨立開發者都能在自己的產品裏塞進百萬上下文。閉源卷天花板,開源卷地板。更有意思的故事,會在V5身上。參考資料:DeepSeek V4技術報告:見DeepSeek官方GitHub(deepseek-ai/DeepSeek-V4)DeepSeek R1論文v2(86頁):arxiv.org/abs/2501.12948我做的73頁PPT:https://github.com/alchaincyf/deepseek-v4-deep-dive我之前寫的DeepSeek論文解讀系列(mHC、Engram、OCR 2、R1更新)可以在公眾號歷史文章裏搜到
完成我開源了復刻網站設計為 DESIGN.md 的 Skill,讓你的 Agent 完美復刻所有網站!
我開源了任意網站品牌 -> DESIGN.md 的 SkillGoogle 開放標準 DEISGN.md 後,讓咱們這種非專業設計師也能復刻頂級設計品味的網站產品了!咱們之前使用 Apple DESIGN.md 復刻過 Apple 官網,效果不理想,這回我想用自己的 Skill 復刻,朋友們可以對比看看。之前復刻版本咱們的 Skill 復刻版本 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏AI 啓蒙小夥伴已關注分享視頻,時長00:120/000:00/00:12 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1200:12倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 我開源了復刻網站設計為 DESIGN.md 的 Skill,讓你的 Agent 完美復刻所有網站! 觀看更多原創,我開源了復刻網站設計為 DESIGN.md 的 Skill,讓你的 Agent 完美復刻所有網站!AI 啓蒙小夥伴已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 今天和我的 Codex 一起整理了復刻網站設計風格的步驟,測試下來效果還真得不錯,我也把它沉澱成了 Skill 分享給大家。安裝方法:npx skills add https://github.com/shaom/brand-to-design-md-skill --skill brand-to-design-md使用方法:Use brand-to-design-md to extract https://example.com into a DESIGN.md and demo HTML.開源地址:Brand to DESIGN.md Skillhttps://github.com/shaom/brand-to-design-md-skill[1]歡迎朋友們 ⭐️ 和 PR 👏🏻一起看看復刻思路步驟1. 對齊標準先參考 Google Labs 開源的 DESIGN.md 標準,明確目標不是寫品牌介紹,而是把品牌視覺系統轉成 agent 可執行的設計上下文:token、組件規則、佈局規則、圖像規則、Logo 使用邊界和 Do / Don’t。2. 收集證據優先看官方官網、品牌頁、press kit、newsroom、公開 CSS、SVG、圖片資產。設計機構案例可以作為品牌理念和視覺語言的補充。第三方資料只作輔助,不作為主要依據。3. 提取設計 token不只是記錄顏色值,而是給每個 token 定義角色:主色用在哪裏,強調色什麼時候出現,字體如何分工,圓角、間距、組件如何服務品牌氣質。4. 寫成 DESIGN.md文件結構包括 frontmatter token 和正文說明。正文重點寫清楚顏色、字體、佈局、組件、圖像、Logo 使用邊界,以及 agent 應該避免的偏差。5. 生成演示網頁用這個 DESIGN.md 做一個真實可看的單文件 HTML。首屏要體現品牌,不做說明頁。頁面至少覆蓋按鈕、卡片、表單、數據或代碼區、品牌視覺母題。6. 瀏覽器驗證用 Chrome 檢查桌面和移動端:背景圖是否加載、是否有橫向溢出、控制枱是否報錯、文字是否可讀、品牌感是否成立。7. 交付結果輸出 DESIGN.md、demo HTML、截圖、來源說明,以及哪些是直接證據、哪些是合理推斷。相關文章推薦谷歌正式開源 DESIGN.md 為開放標準,屬於 AI Design 的 CLAUDE.md 來了,Design 優質資源站也來了!Claude Design 系統提示詞泄露,如果把它做成 Skill,能復刻 Claude Design 嗎?
完成這個 SKILL 專注把你的文檔和內容變得更好看和專業
這兩天看到一個我很喜歡的開源 SKILL:Kami (紙, かみ),才發佈 1 天已經有 3K Star⭐,可見其質量。它解決的是文檔排版和視覺設計的問題,內容重要,但內容的呈現,同樣重要。簡單的說,和其他 DESIGN.md 區別是: 它專門為文檔排版能力定製了一套主題規範,並且把文檔、文稿中的許多格式和細節都考量到了,保證給到你一份盡善盡美的視覺排版方案。還有更多排版規範,可以去網站上查看。它提供的是一套 AI 原生的文檔排版能力,適用於單頁文檔、簡歷、作品集、信函、長文檔、幻燈片等場景。比如說你需要產出一頁紙的報告,你需要寫一個白皮書、需要產出一個精緻的PPT、需要弄一個作品集的 PDF 發給別人等等,也就是任何排版的打印場景都可以使用,自動生成精緻PDF,裏面還具備自動繪製清晰圖的能力。從實際工作中的視角來看:當文案已經寫完,結構已經清楚,但為了交付,還要花大量時間調整字體、間距、分頁、封面、圖表清晰度、PDF 導出效果。尤其是做簡歷、作品集、提案 PPT、白皮書時,這些細節很耗時間。Kami 把這些工作前置成系統能力。你不需要從零開始搭版式,也不需要反覆微調導出設置,而是直接獲得一份有秩序、有審美、適合傳播的文檔結果。這種體驗,對內容創作者、設計師、產品經理、獨立開發者都會很有價值。我尤其喜歡它的幾個點,不同於通用性的 DESIGN.md第一,是定位非常清楚。它沒有試圖做一個什麼都能裝進去的平台,而是專注 Paper 排版場景:所有需要輸出成正式文檔的場景,都可以交給它。這種剋制感很難得。第二,是審美在線。作者提到自己喜歡簡潔、清晰、美觀的設計方案,但不喜歡現在千篇一律的 AI Design 風格。所以 Kami 的氣質不是模板感很重的“生成器產品”,而更像認真設計過的出版工具。這個差別,設計師會很容易感受到。第三,是它很符合 AI 時代的工作流。AI 負責生成內容,Kami 負責讓內容變得專業。這種分工很自然,也很高效。未來很多工具都會如此:不是替代思考,而是優化表達。如果你經常需要輸出 PDF、作品集、簡歷、報告、演示文稿,我建議你去看看 Kami。地址在這裏:網站:kami.tw93.fun倉庫:github.com/tw93/kami安裝與使用直接告訴 Claude 你要什麼,比如「幫我排版一份白皮書」「做一份簡歷」「幫我做一份作品集」,skill 會自動觸發,無需斜槓命令。# Claude Codenpx skills add tw93/kami -a claude-code -g -y# Codexnpx skills add tw93/kami -a codex -g -y另外附上作者 Tw93 的開源全家福最後不要說覺得不喜歡這套視覺、或者擔心千篇一律的設計,重點在於,它不只是單純的一個排版主題 Skill,它已經把所有細節細琢好了,端上桌了,給了你一把鏟子了,任何人都可以拿這份規範,定製自己的主題規範,應用到實際工作流中。 千人千面,不同的想法和審美,得到的結果自然是不同的。我是 Rico,感謝閲讀!
完成Obsidian NewLife 功能升級:筆記帶天氣!
ℹ️Obsidian NewLife:數字化人生管理系統專為 Obsidian 打造的極簡、美觀且功能完備的筆記系統。#讓筆記更有序 #讓目標更明確 #讓習慣自然成 #讓生活更美好NewLife 1.1 更新概覽發佈日期:2026-04-24🚀 新增功能日記系統升級: 集成實時天氣模塊,在每日筆記中自動獲取氣象信息。🛠️ 細節優化交互效率: 默認開啓“顯示標籤頁標題欄”,大幅提升多筆記切換速度。界面精簡: 重新梳理側邊功能區圖標,隱藏低頻入口,聚焦核心操作。預覽體驗: 優化浮窗預覽邏輯,默認關閉預覽狀態下的橫幅顯示,呈現更多核心內容。核心功能解析1. 每日筆記:氣象信息自動化集成現在,當你創建“每日筆記”時,系統將自動抓取並嵌入當天的天氣狀況。設計初衷:在季節交替、氣温多變的季節,希望 Obsidian 不僅僅是一個冷冰冰的記事本,而是一個帶有温度的生活伴侶。一份隨筆記自動生成的提醒,旨在提示你關注環境變化,更好地照顧自己。細節打磨與優化1. 標籤頁標題欄:美感與效率的平衡在之前的版本中,為了極致的視覺純淨,默認隱藏了標籤頁標題欄。但在實際的多任務處理場景下,快速定位和切換筆記至關重要。優化邏輯:1.1 版本選擇默認開啓此項功能。左上角的導航按鈕與標籤頁標題,將顯著提升你在多篇筆記間穿梭的效率。我們認為,為了生產力的躍遷,犧牲極小比例的留白是完全值得的。💡自定義設置若你仍偏愛極致純淨的視覺效果,可通過以下路徑關閉:設置 -> 外觀 -> 界面 -> 顯示標籤頁標題欄 -> 關閉2. 功能區佈局重構:減少視覺干擾對側邊功能區(Ribbon)的圖標進行了優先級重排,並將部分低頻功能移出視線。調整細節:高頻優先: 將“主頁”與“日記”等核心入口置於頂部最易觸達區域。深度精簡: 默認隱藏了 BRAT 和 Pixel Banner Menu 圖標。說明:BRAT: 仍可通過插件設置界面使用 Add beta plugin 功能添加新插件。Banner 設置: 在筆記頁面左上角點擊“小紅旗”圖標即可進行橫幅配置。💡自由配置若需恢復顯示或自定義圖標順序,請前往:設置 -> 外觀 -> 功能區 -> 點擊 管理 按鈕。3. 浮窗預覽優化:內容展示最大化在筆記預覽(Pop-over Previews)狀態下,默認關閉頂部橫幅顯示。改進點:去除佔位較大的橫幅圖片後,浮窗能夠在有限的屏幕空間內展示更豐富的正文信息,減少滾動操作。💡恢復顯示若希望在預覽時保留橫幅,請前往:設置 -> 第三方插件:Pixel Banner -> 開啓 Show Banner in Popover Previews。開啓你的 NewLifeObsidian NewLife 不僅僅是一套筆記模板,更是對“數字化人生管理”的深度思考與實踐。如果你也追求極致的筆記美學與高效的行動系統,歡迎加入我們。📄即刻獲取 NewLife探索詳情: 點擊下方連結,預覽 NewLife 全套設計哲學與功能模塊。專屬獲取: 限時特惠下單即可獲取最新版本,開啓高效人生!讓每一條筆記都成為通往更好生活的階梯。Obsidian NewLife 人生數字系統
完成【保姆教程】我用 Obsidian +hermes搭了一個會自己整理的知識庫
先關注後閲讀,嬌姐怕失去上進的你文末嬌姐整理openclaw或者hermes所有文章連結想了解嬌姐點擊文末連結你手機備忘錄裏有多少條筆記?飛書文檔裏存了多少篇?瀏覽器書籤欄收藏了多少"以後再看"的文章?我猜你的回答是:不少。但如果我問你:上個月學到的最有價值的一個方法論是什麼,你能在 30 秒內找到它嗎?大概率不能。這就是大多數人的現狀:筆記記了一大堆,但知識沒有沉澱。 記了等於沒記,因為你根本找不到、用不上。問題出在哪?不是你不夠勤快,而是你缺一個系統。今天這篇文章,我把自己從 0 到 1 搭建個人知識庫的完整過程寫出來。不是那種"推薦你用 XX 工具"的水文,而是一篇你照着做就能跑起來的實操教程。重點:這個知識庫有一個特別的能力——它會自己整理。你只管往裏扔東西,AI 幫你分類、整理、歸檔。一、工具選型:為什麼我選了 Obsidian市面上筆記工具太多了。我幾乎都用過一遍,最後留下了 Obsidian。先說結論,再說原因。主流工具對比Obsidian ★ 推薦數據存儲本地 MD 文件AI對接極低(AI 直接讀寫文件)費用完全免費適合個人知識庫、長期積累Notion數據存儲雲端數據庫AI對接高(需要 API)適合團隊協作、項目管理飛書文檔 / 語雀數據存儲雲端AI對接高(需開放平台 / API 受限)適合企業辦公、團隊知識庫Logseq數據存儲本地 MD 文件AI對接低,但大綱格式 AI 解析較麻煩適合大綱式筆記、日記我選 Obsidian 只有一個核心原因:所有筆記都是本地的純文本 Markdown 文件。這意味着三件事:第一,數據永遠是你的。 不依賴任何雲服務,不怕產品倒閉、不怕漲價、不怕被封號。你的筆記就是電腦上的一堆 .md 文件,用記事本都能打開。第二,AI 可以直接讀寫。 這是最關鍵的。Notion 的數據鎖在數據庫裏,AI 要操作它得走 API,配置複雜。但 Obsidian 的筆記就是文件,AI Agent 直接讀文件、寫文件就行,零門檻。第三,文件夾就是目錄結構。 不需要學什麼"數據庫視圖""關聯屬性",文件夾怎麼建,知識庫就怎麼組織,所見即所得。提示:Obsidian 是目前 AI Agent 最容易操作的筆記工具,沒有之一。二、從 0 搭建:手把手教你第 1 步:下載安裝去 Obsidian 官網(obsidian.md)下載,Windows / Mac / Linux 都支持。安裝後它會讓你創建一個"倉庫"(Vault)。倉庫本質上就是一個文件夾。 Obsidian 會把這個文件夾裏所有的 .md 文件當作筆記來管理。建議放在非系統盤,方便備份。第 2 步:設計目錄結構這是整個知識庫最重要的一步。 很多人裝了 Obsidian 就直接開始記筆記,三個月後又亂成一團。目錄結構是地基,地基不對,後面全白搭。我用的是 PARA 方法的變體,在四個基礎分類上加了收件箱、內容生產區和系統控制層:目錄結構D:\zhishiku\├── 00_Inbox\ ← 收件箱,新內容先扔這裏├── 01_Areas\ ← 持續維護的領域(無截止日期) ├── AI學習\ ├── 自媒體運營\ └── 個人成長\├── 02_Projects\ ← 有截止日期的項目├── 03_Resources\ ← 參考資料庫(AI 檢索主區域) ├── AI工具\ ├── 工作流\ ├── 行業資訊\ └── 書籍課程\├── 04_Content\ ← 內容生產流水線 ├── 選題庫\ ├── 草稿\ ├── 已發佈\ └── 素材庫\├── 05_Archive\ ← 已完結歸檔└── 00_System\ ← 系統文件(AI Agent 專用) ├── _INDEX.md └── _TEMPLATES\每個區域的核心邏輯:① 00_Inbox 收件箱整個系統的入口。任何新東西全部先扔這裏,不用想分類、不用整理格式。"分類"這個動作會產生摩擦,收件箱消除了這個摩擦。② 01_Areas 領域你持續關注的方向,沒有截止日期,長期維護。比如"AI 學習"是一個你會一直關注的領域,不是做完就結束的。③ 03_Resources 資料庫知識庫的核心區域,也是後續 AI Agent 主要檢索的地方。工具教程、工作流方法論、行業資訊、讀書筆記都在這裏。④ 04_Content 內容生產如果你做自媒體,這個區域就是你的內容流水線。選題 → 草稿 → 已發佈,三段式管理。不做自媒體可以不建。⑤ 00_System 系統層專門為 AI Agent 設計。裏面有 _INDEX.md——AI 進入知識庫的"說明書",後面詳細講。提示:文件夾名前面加數字(00、01、02...)是為了控制排序。Obsidian 默認按字母排序,加數字後目錄順序固定,不會亂跑。第 3 步:給每篇筆記定一個標準格式(Frontmatter)在 Obsidian 裏,每篇筆記頂部可以寫一段叫 frontmatter 的信息,它讓每篇筆記變成一條"數據庫記錄",AI Agent 可以按條件過濾筆記。YAML Frontmatter 示例---title: YouTube 長視頻工作流date: 2026-04-23tags: [YouTube, 工作流, 自媒體]area: 自媒體運營status: donesource: 本地文件遷移---status 的流轉邏輯:draft(剛寫的草稿)→ done(整理完畢)→ archived(不再活躍)。你不需要記住這些,後面用模板自動生成。第 4 步:創建筆記模板在 00_System/_TEMPLATES 文件夾裏創建三個模板文件:筆記模板.md(用於 01_Areas、03_Resources)---title:date: {{date}}tags: []area:status: draft---## 這篇解決什麼問題## 核心內容## 行動/參考正文結構用的是"問題 → 核心內容 → 行動"三段式,這個結構會自然導向"這條信息解決什麼問題、對我下一步有什麼用",而不只是摘錄。在obsidian配置模版:第 5 步:安裝三個必備插件安裝路徑:設置 → 第三方插件 → 關閉安全模式 → 瀏覽 → 搜索 → 安裝 → 啓用。插件① Templater(模板引擎)作用:新建筆記時自動套用模板,frontmatter 日期自動填寫當天。配置:在 Folder Templates 裏為每個文件夾配置對應模板,之後新建文件自動套用。插件② Dataview(數據查詢)作用:像數據庫一樣查詢你的筆記。裝好即用,無需額外配置。示例:在筆記裏寫查詢語句,可列出所有 status=done 的完成筆記,或按日期排序全部資料。插件③ Smart Connections(AI 語義搜索)作用:用自然語言對着知識庫提問,AI 找到最相關的筆記並回答,不是簡單的關鍵詞匹配。配置:安裝後選擇 embedding 模型(推薦 Claude API 或本地 Ollama),首次運行掃描倉庫建立向量索引。第 6 步:寫一個 AI 能讀懂的索引文件(_INDEX.md)這是整套系統最關鍵的設計。 這個文件是 AI Agent 進入你知識庫的"說明書",寫清楚每個目錄是幹什麼的、命名規範、分類判斷邏輯。最核心的部分是一棵分類判斷樹,AI Agent 拿到一篇內容後,按順序走:_INDEX.md 分類判斷樹1. 有截止日期、有明確目標的事? → 是 → 02_Projects2. 要發佈的自媒體內容? → 是 → 04_Content/對應子目錄3. AI 工具的教程、測評、使用心得? → 是 → 03_Resources/AI工具4. 可複用的工作流程或方法論? → 是 → 03_Resources/工作流5. 行業資訊、趨勢、新聞? → 是 → 03_Resources/行業資訊6-8. 讀書筆記 / 運營策略 / AI學習... → 對應 Resources 或 Areas 子目錄9. 以上都不確定? → 先放 00_Inbox,備註原因AI Agent 讀完這個文件,就知道把內容放到哪裏、用什麼格式、怎麼命名。三、日常使用:只有三個動作搭完之後,日常用起來非常簡單:① 有任何新東西 → 扔 00_Inbox看到好文章、學到新方法、突然冒出的想法,全部先扔進 Inbox。不用想分類,不用整理格式,甚至可以只寫一句話。先存進來,這是最重要的。② 每週清理一次 Inbox這個動作後面會交給 AI 自動完成。即使手動做,也很簡單:打開 Inbox 裏的文件,按分類判斷樹決定放哪裏,移過去就行。③ 要寫內容 → 去 04_Content/草稿 新建模板自動套上,frontmatter 自動填好,直接開始寫。重點:系統的價值在於把"整理"這個最費時間的環節,從你身上拿走了。四、舊內容怎麼遷移原則:不要追求一次遷移完。先把新內容的流程跑通,舊內容慢慢遷。飛書筆記:文檔 → 右上角"..." → 導出 → Word → 下載,用 Pandoc 轉成 .md 文件,全部扔進 Inbox,後續讓 AI 批量整理。本地文件:.md 文件直接複製進對應文件夾;Word、PDF 等先扔 Inbox,後續手動或 AI 整理。手機備忘錄:複製內容 → 在 Obsidian 手機端新建筆記 → 粘貼進 Inbox(iOS/Android 客戶端均有,可用 iCloud 或 Syncthing 同步)。瀏覽器收藏夾:大部分你再也不會看了。建議只遷移你確定有價值的,不要全量導入。五、接入 AI Agent:讓知識庫自己整理前面四個部分,你已經有了一個結構清晰的知識庫。但"整理"這個動作還是需要你手動做。接下來是這套系統的核心升級:讓 AI 幫你整理。我把 AI 對接分成三個階段,從最簡單到最高級,你可以根據自己的情況選擇從哪裏開始。階段一:手動指令模式(零配置,現在就能用)不需要任何技術基礎。在任意 AI 工具(ChatGPT、Claude、豆包、Kimi 都行),把內容粘貼給它,發送這段提示詞:整理筆記提示詞請幫我把以下內容整理成結構化筆記。要求:1. 頂部加上 frontmatter(title/date/tags/area/status/source)2. 正文結構: - 這篇解決什麼問題(一兩句話) - 核心內容(保留所有細節) - 行動/參考(下一步可以做什麼)3. 保留所有步驟、示例、數據,不要刪減以下是原始內容:[粘貼你的內容]AI 返回整理好的筆記後,複製到 Obsidian 對應目錄的新文件裏。優點是零門檻,缺點是需要手動複製粘貼。階段二:AI 直接讀寫知識庫(半自動)讓 AI Agent 直接訪問你電腦上的文件,自己讀取 _INDEX.md 瞭解規則,自己判斷分類,自己創建文件寫入。推薦 方案 A:用 Claude CodeAnthropic 出的命令行工具,可直接操作本地文件。安裝好後在終端輸入一句話:"讀 _INDEX.md,幫我清理 00_Inbox,把裏面的文件分類整理到對應目錄"。全程只需說一句話。 Claude Code 會自動讀規則、掃描文件、判斷分類、寫入目錄、更新索引。進階 方案 C:用 Hermes AgentNous Research 出品的開源 AI Agent 框架,通過 MCP filesystem 掛載知識庫路徑。你可以在飛書、釘釘、Telegram 裏說"整理到知識庫",它自動執行完整流程。特別優勢:支持定時任務(每天自動清理 Inbox),跨平台觸發,不需要打開電腦。階段三:LLM Wiki 模式(最高級)Andrej Karpathy(OpenAI 聯合創始人)提出了一個更激進的想法:不是讓 AI 在你查詢時檢索筆記,而是讓 AI 主動整理筆記,生成結構化的 wiki 頁面,頁面之間自動交叉連結。舉個例子:你往知識庫裏扔了 10 篇關於"公眾號運營"的筆記。普通模式:10 篇筆記靜靜地躺在那裏,你需要的時候自己去翻。LLM Wiki 模式:AI 自動提取關鍵概念(選題方法、標題公式、數據指標),為每個概念生成獨立 wiki 頁面,頁面之間自動雙向連結。再扔進來新筆記,AI 自動合併進已有頁面。重點:知識庫越用越乾淨,而不是越堆越亂。這就是 LLM Wiki 和普通筆記的本質區別。LLM Wiki vs RAG 對比RAG(檢索增強)AI做什麼你問才找,從筆記裏檢索相關片段筆記狀態原始筆記堆積,靠檢索找內容適合快速查找已有內容LLM Wiki(主動整理)AI做什麼主動整理,生成概念頁面,自動連結筆記狀態知識持續精煉,自動交叉連結適合長期知識積累,產生複利效應理想的最終形態:① 原始輸入 → 00_Inbox所有新內容統一入口,不管格式② Agent 自動分類整理(階段二)讀 _INDEX.md → 走判斷樹 → 寫入對應目錄③ LLM Wiki 提煉概念、生成雙鏈(階段三)概念自動提煉,知識網絡自動生長④ 圖譜視圖 + 語義檢索知識網絡可視化 + 自然語言提問,知識庫從"存儲工具"變成"思考夥伴"六、這套系統到底解決了什麼之前筆記散落在飛書、本地、手機,找不到現在統一在 Obsidian,結構清晰之前記了就忘,用不上現在結構化存儲 + 語義檢索,隨時可查之前整理筆記太費時間現在AI 自動分類整理,我只負責扔之前知識是孤島,無法關聯現在LLM Wiki 自動生成雙鏈,知識網絡可視化之前擔心數據安全、產品倒閉現在全部本地存儲,不依賴任何雲服務總結這套系統的核心邏輯只有一句話:重點:降低存入門檻,提高取用效率,讓 AI 負責中間的整理。你不需要是技術大佬。Obsidian 免費,插件免費,AI 工具越來越便宜。整套系統的啓動成本幾乎為零。唯一需要你做的,是養成一個習慣:有東西就扔 Inbox。剩下的,交給 AI。hermes系列文章持續更新,建議每篇認真閲讀【不推薦用官方命令】Windows 環境下安裝Hermes及遷移Openclaw的實操分享借鑑劉小排的 BuilderPulse :我用 Hermes 發現值得看的github項目Hermes 入門到實操中文文檔【Hermes整理】OpenClaw 變現項目地圖:6 大賽道Hermes 裝好之後,我最建議先做的 8 個實操動作我把 OpenClaw 的 Agent 無縫遷移到了 Hermes——就靠這一份 Skill借鑑 Hermes 優化 OpenClaw:讓你的 AI 學會記、會覆盤、會巡檢openclaw系列文章持續更新,建議每篇認真閲讀配置與理解徹底搞懂 OpenClaw 配置體系:這才是 AI Agent 的正確打開方式【不推薦用官方命令】Windows 環境下安裝Hermes及遷移Openclaw的實操分享我的個人成長助手Agent罷工了,Claude max定位總結的這幾點分享給大家【今天不聊STBI測試】我用OpenClaw搭了一個自動抓多公眾號、AI整理、發飛書的Agent,核心就這四步OpenClaw openclaw.json 全量小白教程:一篇講清每個配置項的作用你在飛書或者微信發了句"你好",OpenClaw 到底花了多少 Token?詳細指南 微信插件支持OpenClawOpenClaw龍蝦如何自我糾錯 5步自我迭代法【網友都說賊好看】我讓openclaw開發了一個自己的交互式說明書別被騙,OpenClaw 可以 24 小時幹活——但你得先做對這 6 件事火了三個月的"龍蝦",普通人裝了真的有用嗎?用 OpenClaw 把 AI 失憶治好:開關、精簡、外掛三步走OpenClaw 命令完整手冊OpenClaw 到底怎麼跑?部署方式與玩法全景如何申請 Brave Search API 密鑰並配置 OpenClaw大白話講清楚OpenClaw的記憶術OpenClaw 長任務必讀:用 Sub-Agent 隔離上下文,token 消耗降 85%OpenClaw 省 Token 實操手冊:八個維度,節省 60–90%OpenClaw 曲線救國:通過 CLI 後端使用 Claude 模型飛書跟openclaw集成實操教程【該文為openclaw輸出】OpenClaw超簡單且免費的安裝實操教程多 Agent 與協作OpenClaw 多 Agent 協作實戰完全教程OpenClaw 多代理配置指南:讓 AI 團隊幫你同時幹多件事技能與工具OpenClaw 官方 53 個技能完整指南:功能詳解 + 風險評估 + 安裝建議【GitHub Skill 】 OpenClaw多Agent交付給客戶的流程Skill這個 Skill 太適合“小白摸魚式”情報蒐集了:不用 API Key,直接把 Reddit 變成你的選題庫【免費領取】7套不同賽道風格公眾號排版Skill(有效果圖)12類人羣必裝的OpenClaw Skills不寫代碼,如何讓 OpenClaw Agent 學會新技能實戰與案例本地部署 OpenClaw 自動發佈公眾號:小白完整教程本地部署 OpenClaw 自動發佈小紅書:小白完整教程我用 OpenClaw,把孩子學習情況整理成能長期追蹤的學情檔案【實操分享】OpenClaw多文檔多輸入源筆記整理Agent搭建【保姆教程】OpenClaw作業錯題分析師,每個家長都可以學起來OpenClaw 完全指南:從零搭建你的 AI 員工團隊看看這個龍蝦速度,就知道這OpenClaw有多火,速度跟上OpenClaw 完全指南:從零搭建你的 AI 員工團隊OpenClaw 實戰:從0到1搭建你的雲端AI工作流我的OpenClaw 多Agent 會主動發來 “上班打卡”OpenClaw 實戰操作指南:12大熱門應用案例詳細教程我的openclaw龍蝦開始自己賺錢了用上了openclaw,跟telegram能雙向通信了排錯與安全OpenClaw 排錯指南OpenClaw 龍蝦玩家的安全指南關於嬌姐40+ IT 從業者,前榮耀員工,現專注 AI 效率工具研究與實踐。持續輸出 OpenClaw 及 AI 工具的乾貨教程與落地案例,偶爾分享職場思考與生活感悟。高考的堅持與感恩:我心中的那座橋,跨越了命運40 + IT女從榮耀離職:找工作碰壁、陪娃焦慮的日子裏,我靠 AI 公眾號找到了自我提示:覺得有用,點贊、關注、轉發,是我持續創作的動力。
完成image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!
大家好,這裏是K姐。一個幫助你把AI真正用起來的女子。最近Image2出圈了,網上梗圖滿天飛。蘋果CEO庫克前腳剛代言了華為。後腳就當上了小米集團副總裁,還兼任了小米汽車CEO,微博官方截圖都搞出來了。搞得小米高管緊急闢謠。上面的梗圖都是Image 2生成的,這波生圖能力確實夯爆了。Lovart 也準時更新了Image 2,會員無限免費30天。趁着這波會員免費,我趕緊跑了5個真實 case,從專業設計師到品牌營銷人到普通AI玩家,覆蓋多種需求場景,360度無死角地摸一摸 Lovart Image 2 的底。實測Lovart Image 2Case1:咖啡品牌方案先測一個專業設計師經常遇到的場景,給一個精品咖啡店“山野咖啡”做品牌海報。客戶啥都沒有,就給了個名字和三天時間。這種情況設計師小夥伴是不是太熟了,擱以前,得先翻三天 Pinterest 找參考,再做 moodboard,再出主視覺,再選字體,再調延展……現在,打開Lovart,扔一句話進去:為精品咖啡品牌“山野咖啡”生成品牌主視覺海報。畫面規格:4:5豎版,3000×3750像素,印刷級300dpi。-構圖要求:中心偏下三分之一處放置手衝咖啡特寫,杯口徑8cm比例呈現,咖啡表面有細膩油脂紋理;-背景:為日式町屋木質格柵窗景,窗外虛化綠植伸入畫面左上象限,形成前景-中景-背景三層景深(f/2.8等效淺景深)。-光線:上午10時側窗自然光,色温5200K,在咖啡表面形成柔和高光點,木質桌面投射15°角陰影。文字規範:主標題“山野咖啡”須以真實毛筆行書呈現,墨色濃淡變化符合運筆邏輯,起筆處略枯、收筆處自然飛白;-標題位置:於畫面上三分之一留白區,與綠植形成對角線呼應。文字須與畫面產生物理交互——“野”字末筆須似有咖啡熱氣氤氲而上,墨色與蒸汽暖調形成微量暈染,證明文字是“生長”於場景中而非後期疊加。-色彩管理:基底暖米白#F5F0E8,深焙棕#3E2723用於文字與桌面暗部,綠植僅作點綴。全局去飽和處理,模擬富士膠片Provia 100F色彩科學。-輸出要求:零AI文字邊緣鋸齒,零浮空感,零數字鋭化痕跡,印刷廠可直接出菲林。▲上下滑動查看全文Image 2 果然懂了什麼叫氤氲而上,光影和氛圍感都處理的很棒。放大300%看“山野咖啡”四字邊緣,看到真實毛筆纖維紋理與木質桌面纖維的咬合,而不是矢量描邊。起筆處的枯墨、收筆處的飛白,跟背景5200K側光形成的陰影方向完全一致。但這還沒完。我順手點開字體生成器,把剛才生成的照片上傳進去。三分鐘,一套“山野咖啡”專屬字庫出來了。這個手寫體生成後,是可用於品牌商標註冊的真實書寫資產,別處買不到的。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏K姐研究社已關注分享視頻,時長00:370/000:00/00:37 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:3700:37倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計! 觀看更多原創,image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!K姐研究社已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 然後Brand Kit一建,Logo、色板#F5F0E8/#3E2723、專屬字體全鎖進去。後續菜單、杯套、包裝袋往這個項目一掛,出來的圖自動帶品牌規範,跨批次色彩誤差<ΔE 1.5,達到Pantone色彩管理標準,風格漂移?不存在的。最後Multi-Angles一拖,3:4(小紅書)、9:16(抖音)構圖一鍵切換。客戶說要個朋友圈封面,十秒搞定,不用重新跑圖。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏K姐研究社已關注分享視頻,時長00:180/000:00/00:18 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1800:18倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計! 觀看更多原創,image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!K姐研究社已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 以前三天的工作量,現在一個下午。而且交付的不是零散幾張圖,是一套有規範、能延展、色彩可溯源的品牌系統。Case2 :咖啡品牌抖音直播帶貨切片直接給我們case1的山野咖啡,安排上直播帶貨切片圖。以前這種切片流程一般是拍視頻,剪片段,加字幕,調特效,一條片子搞半天。現在直接給Lovart甩提示詞:生成抖音直播帶貨切片動態海報,畫面規格:9:16豎版,1080×1920像素,視頻截幀質感。產品:掛耳咖啡包。構圖:上下分割敍事——上60%為產品英雄鏡頭,左側主播手持產品特寫,右側直播間UI覆蓋層;下40%為抖音原生直播界面,含實時銷量計數器"已售1,000,000+杯"(等寬字體確保數字跳動對齊)、限時倒計時"23:59:59"(冒號垂直居中)、彈幕區滾動真實用戶評論("終於搶到了""這味道上頭")、底部"立即搶購"按鈕(圓角8px,陰影0 4px 12px rgba(0,0,0,0.15))。UI精度要求:所有元素嚴格匹配抖音直播8.2.0版本原生規範——銷量徽章圓角4px、角標紅色#FF2442、用戶頭像40px圓角、時間戳格式"2分鐘前"。主播表情自然,像真實直播間截圖,去AI味。畫面有輕微動態模糊,像視頻截幀。文字層須支持後期動態跟蹤,各UI層獨立分離。▲上下滑動查看全文Image 2大約3分鐘直接出圖,一眼看過去,這誰分得清真假。我們再來抓抓細節,逐像素檢查一下,“已售”數字是等寬字體、倒計時冒號是垂直居中、彈幕滾動速度感匹配抖音60fps流暢度,都沒毛病。價格標籤的字體、秒殺倒計時的數字樣式、商品櫥窗的佈局,跟真實抖音直播幾乎一致。看起來像,細節也對得上,可以的。然後重點來了,我在Lovart畫布內,可以直接文字描述,給女主播換衣服。先給主播換套新中式服裝。再把銷量提升提升,直接從100萬杯,幹到900萬杯。不管是速度,還是質量都是抗打的。還能在 Lovart一站式生成直播視頻,直接選擇seedance2。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏K姐研究社已關注分享視頻,時長00:050/000:00/00:05 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:0500:05倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計! 觀看更多轉載,image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!K姐研究社已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 Case3:咖啡品牌素人小紅書種草圖直播搞定了,再給咱們山野咖啡安排一下小紅書種草。做品牌的朋友都懂,現在種草圖最怕什麼?怕假。怕AI味兒。皮膚磨得像瓷娃娃,光線打得像舞台燈,這種一眼假,是抓取不到用戶注意力的。那如果拿到這種需求你怎麼辦:要六張素人咖啡種草圖,六個場景、要求像朋友隨手拍的,別讓人看出是AI。提示詞我是這麼寫的:生成6張真實用戶生成內容(UGC)風格咖啡種草照片,畫面規格:1080×1440像素(4:5),72dpi模擬手機原生壓縮質感。場景設定:1)卧室梳妝枱,背景雜亂化妝品收納,鏡面反光帶指紋油漬,主光源右側枱燈+左側窗户混合光,色温不一致;2)地鐵車廂,手持咖啡杯,背景動態模糊,頭頂熒光燈頻閃感,膚色受車廂壁反光影響;3)辦公室工位,鍵盤咖啡杯便利貼入鏡,頂光+屏幕反光造成面部明暗分割;4)户外咖啡館露台,午後3點自然光,樹影斑駁投射於面部,iPhone過曝特徵;5)大學圖書館,頂光熒光燈+桌面枱燈混合,書堆形成背景景深,素顏感底妝;6)陽台曬太陽,午後側光,衣物褶皺自然,背景虛化含城市天際線。核心技術要求:iPhone 14 Pro原生相機美學——高光輕微過曝、陰影 lifted blacks、自然皮膚紋理含可見毛孔與細紋、無美顏磨皮、真實黑眼圈紋理、碎髮飄散。光線須為有機混合:室內熒光+窗光、正午硬光+長影、黃金時段暖調。色彩模擬iPhone攝影風格,標準處理,輕微去飽和。產品整合:咖啡杯須為自然手持狀態,非居中構圖,杯壁含真實指紋油漬與冷凝水珠。禁止影棚布光、禁止模特擺拍僵硬感、禁止構圖完美對稱。瑕疵為強制要求。輸出:平台算法不可識別為AI生成,評論區用戶詢問"用的什麼濾鏡"為合格標準。▲上下滑動查看全文Image 2 生成的圖,這誰看得出來是 AI 生成的!放大一張給夥伴們看看這光影、這皮膚質感,連頭髮絲都那麼真實。我發羣裏讓朋友猜,一半人說看不出是AI生成的。但這單活兒還沒完。客戶說,“加個小紅書界面上去,要像真的截圖”,直接在對話框輸入客戶訴求,3分鐘搞定。看看整體效果。當然你也可以換成Instagram界面,同樣操作。反正我是分不出真假了。Case4:90年代復古這個case純屬我自己想玩。最近復古風很火,我想做套90年代年鑑照片,九張不同造型,統一色調,發朋友圈。擱以前,我得一張一張生成,調風格,拼九宮格,風格還容易跑偏。Lovart的無限畫布一次性出九張,我先扔提示詞:生成9張90年代風格年鑑照片,統一復古暖色調,畫面規格:1080×1080像素(1:1),模擬富士Superia 400膠片色彩科學, lifted blacks + 輕微褪色。每張為不同亞洲年輕人,穿搭涵蓋:牛仔外套、格子襯衫、運動套裝、揹帶褲、花裙子、皮夾克、衞衣、條紋T、工裝褲。技術要求:每張照片有真實膠片顆粒(ISO 400噪點特徵)、邊緣暗角(鏡頭漸暈)、日期戳"1997.03.15"等寬字體模擬底片打印。部分照片含手寫字標註,如"高三二班""春遊",須以真實圓珠筆/鋼筆筆跡呈現,墨色滲透入相紙纖維,與膠片褪色質感統一。人物表情自然,像同學錄照片,去AI味。九張風格統一,像同一個人的相冊系列,禁止單張色彩偏移超過ΔE 5。▲上下滑動查看全文這次先看手寫體,放大看“高三二班”四字,這也太真了吧。手寫字不是浮在畫面上,真的像寫在照片上的,還有這醜萌醜萌的字體,簡直跟我同桌的一模一樣了。直接拿這九張圖去發小紅書,配文:爸媽早年逆天顏值。猜猜能有多少贊?Lovart還可以用無限畫布加上Text Edit,批量出圖,靈活改字,秒變社媒內容量產的神器。 就比如,把王磊,改成李國強。手寫字體都保持不變,牛的。Case5 :亞馬遜多語言電商方案最後一個case,跨境電商的朋友找我,要四國語言版本的產品圖,英文日文韓文中文,還要適配亞馬遜,最後交PSD。我一段提示詞扔進去:為便攜式咖啡機生成亞馬遜A+內容主圖,-畫面規格:3000×3000像素,純白背景#FFFFFF,產品投影角度135°、模糊半徑8px、不透明度25%。-佈局規範:嚴格遵循亞馬遜A+模塊標準——產品主體佔畫面左60%,右側40%為三層信息層級區。-多語言並行生成:同步輸出英/日/韓/德四版本,每版本須採用文化適配字體——英文用San Francisco Bold,日文用遊明朝體(Yu Mincho)且允許豎排標題,韓文用Nanum Gothic並優化字間距至1.2倍行高,中文用思源黑體Heavy。各版本文字不得僅為翻譯替換,須為本地化排版重構。-畫面元素層次清晰:前景產品層/中景信息層/背景純淨層分明,便於後期拆分。使用Amazon Skill規範尺寸和佈局。▲上下滑動查看全文Image 2的多語言渲染,我先做排版驗貨。日文版本用了正確的遊明朝體W6字重,字間距沒有擠在一起;韓文版本字間距1.2倍行高,符合韓國電商視覺規範;英文標題San Francisco Bold的粗細對比有設計感;中文思源黑體Heavy的字面率92%,與英文基線對齊。 不是那種把中文硬套上去的違和感。Text Edit改字的時候,我把日文“充電式”改成“急速充電”,遊明朝體的字重、行距、字面率全部保留。文字替換真的是很方便了。然後Mockup一鍵貼進亞馬遜PC端/移動端/App三端預覽,驗證信息層級可讀性,產品主體60%佔比未侵入文字安全區,三層信息層級符合亞馬遜A+視覺動線,可以說是相當省心了。以前AI出圖最大的尷尬是沒有PSD,客戶一問你就傻眼。現在Lovart一鍵導出分層PSD,每層獨立命名,位置和畫布上完全一致,印刷廠可直接出CTP製版。Lovart確實是懂設計師的痛點的。一些分享我測了這麼多AI設計工具,說實話,單論生成一張好看的圖,很多工具都能做到。但設計工作不是到生成就結束了,你要改字、調排版、出多語言版本、貼樣機、拆圖層、交源文件,還要保持品牌一致性。每一個環節卡住,前面的創意都白搭。Image 2解決的“生成”,而Lovart解決的是“交付”。現在Lovart的Pro會員可以無限量免費使用Image 2。我的建議是:別光看,去用。跑幾個你自己的case,感受下,就都懂了。一張圖是消耗品,一套能交付的系統才是資產。AI終於開始幫設計師積累資產,而不是製造垃圾。🔗 官網:https://www.lovart.ai/作者:洛洛&K姐投稿郵箱:tougao@kseek.ai
完成剪映Agent終於來了!AI自動剪輯~【小白必備】
雷猴啊朋友們!!說話就能剪輯你敢信?剪映出Agent了!一鍵成片、AI轉場、AI剪口播、AI旁白、AI生圖生視頻... 等等很多很嚇人的功能 ~ 真的,剪映已經不能說是一個純粹的剪輯軟件了,它現在是一個集AI生成和剪輯為一體,還能用AI操作這一切的新物種!好吧,點好收藏關注贊, 一起了解創作新範式!介紹其實剪輯,原來真的是一門專門的高級技術。光是會用那些複雜的剪輯軟件,就是一個門檻,再想做一點酷炫的效果,這是真的要學兩年~而剪映,其實一直在致力於降低這個門檻。只是沒想到他有這麼大的野心,把剪輯的操作門檻,降到了一個“點”,這是一個AI對話框!這個框背後,是一個可以調用剪映成千上萬的模版、功能,並且可以理解你的素材、理解你語義的多模態Agent! 接下來一起來看看! 實測2.1 批量操作:把重複活兒丟給 AI對用戶來說,Agent 最基礎的能力,就是幫你解放那些重複性動作:剪口播、調音量、改畫幅、加字幕...這些不難但很費時的事,現在都可以交給 AI。2.1.1 剪口播比如這條帶髒話的視頻,一句話剪掉所有髒話~ 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:150/000:00/00:15 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1500:15倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多原創,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 我直接說了一句提示詞,十幾秒就剪好了~ 把所有說了god damn的地方剪掉 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:140/000:00/00:14 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1400:14倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 想象一下一條几小時的採訪,或者批量出幾十條切片視頻,這能省多少事~當然,電影那種細緻到幀的剪切感,它現在應該還做不到,但在粗剪階段的批量操作上,它真的已經很能打了~2.1.2 調節音量素材音量忽大忽小,一句「把所有片段音量調到一致」就搞定。這簡直就是 Vibe Cutting(氛圍剪輯)啊~2.1.3 字幕翻譯以前追美劇、追日本番劇,大家都得苦哈哈等字幕組出熟肉。那現在這個剪映Agent就是你的字幕組~比如說我節選了一段喬布斯的英文演講,也是一句提示詞, 識別字幕並生成中文 它一口氣做完了轉寫、翻譯、雙語字幕排版,準確度還不錯。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長04:090/000:00/04:09 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/04:0904:09倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.1.4 添加效果找工具的活兒也能交出去。 剪輯師除了剪,還有很大一部分時間花在找東西上:找工具、找功能、找模板,現在可以讓 AI 幫你找了~比如這段原始的視頻, 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:100/000:00/00:10 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1000:10倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 一句話提示詞, 給這一段視頻添加酷炫的反轉片效果 它自己就找到了並應用到片段上,最後微調一下參數就成了。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:100/000:00/00:10 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1000:10倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.2 模糊指令有的朋友是剪輯小白,甚至不知道什麼叫反轉效果。沒關係,模糊的指令也能處理。2.2.1 一鍵包裝比如你拍的東西本身很有意思,但不會剪輯。你直接說, 幫我做一個合適的包裝 音效、動畫、大字一整套東西,都在正確的時間、正確的畫面位置上編輯好了。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:250/000:00/00:25 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:2500:25倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 不算多精緻,但那個味兒屬實是出來了~2.2.2 一鍵旁白就算素材沒台詞也沒關係,可以讓它根據視頻內容生成旁白。 幫我製作一條視頻文案 它會自己識別畫面,用 AI 寫出對應的文案。文案確認後,你再挑個音色,旁白就好了。2.2.3 一鍵Vlog更誇張的,十幾條沒什麼邏輯的素材丟給它,只說一句「剪個 vlog」。出來的效果真的有剪輯線索:先出發、再上路、然後遊覽,字幕、音樂、轉場也都是它自己配的。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:580/000:00/00:58 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:5800:58倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 還有一個關鍵點:這個 Agent 是基於大量工程文件訓練出來的,生成的也是可編輯的工程文件,所以如果不滿意,你可以直接上手改~2.3 AI結合:一站式邊生成邊剪輯不過上面這些,還沒真正展露這個 Agent 的魔力,也就是 AI 調用 AI。它現在能在剪映裏直接使用豆包系的圖片、視頻模型,所以AI 視頻也能一站式地邊生成邊剪輯。2.3.1 生成視頻比如剛才那段旅拍素材,想補一個極光鏡頭,不用找素材,一句話就讓 AI 生成,直接接在後面。2.3.2 生成圖片你也可以給自己生成一個片尾 logo,選一張圖片、生成視頻片尾。整個 AI 創作的過程不用再換軟件,很絲滑。2.3.3 AI一鏡到底轉場那這一系列是單獨的 AI 功能,Agent雖然也能調用,但手點其實也很快~比如我有這一組照片,在轉場的地方選AI 轉場效果,就能做成那種很火的AI首尾幀視頻,提示詞都不用寫。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:200/000:00/00:20 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:2000:20倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多原創,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.3.4 改詞翻唱還有這個, 選中音樂直接點改詞翻唱,你可以自己輸入歌詞,也可以讓 AI 寫詞,這樣就有翻唱版本的歌曲了~ 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:080/000:00/00:08 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:0800:08倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.3.5 文字成片壓軸的是另一類朋友:什麼素材都沒有,光有一腦袋想法。介紹給你這個功能:文字成片~選一個畫風,把想法或文案發過去,片子就出來了。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:180/000:00/00:18 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1800:18倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多原創,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 精緻程度肯定還差點意思,但勝在快。哪怕只是跑個 demo 找靈感、準備素材,這個效率都很可怕~好啦,剪映的 Agent 現在才第一版,還停留在適合粗剪的階段。但可以看到,它在解決創作中真正需要被解決的問題。從現在的範式往前推一步:素材可以在這個“點”去生成,剪映又有成千上萬個原子化的精細工具,而這一切都可以交給 Agent 來操作。視頻創作真的要 All in one 了~未來的創作過程,可能就像導演盯片一樣,人在旁邊動動嘴,只管要求和調度。適合做這件事的,我一時間還真就只能想到剪映。徹底到那一天還需要多久,我不知道。但我確定的是,它會讓更多人的才華,不用卡在「不會軟件」這道坎上。最後,歡迎大家轉給有剪輯需要的朋友!我們下次見啦~點擊圖片,查看招聘詳情 ⬇️郵箱:join@qiuzhi2046.com郵件主題:應聘[崗位]-姓名-渠道線下全職:深圳感謝鐵鐵們也幫忙轉發推薦呀 ~
完成開源一個 PPT Skill|壓進了我 10 年的設計經驗
上週被李繼剛老師邀請去做了場私享會,關於 AI 和組織的訪談。散場之後,發現大家問得最多的一句話是:"那個 PPT 是什麼做的,能不能開源一下?"沒想到副產品成了主產品。索性就把它開源了,叫 guizang-ppt-skill(github.com/op7418/guizang-ppt-skill)。今天這篇文章聊聊這個 Skill 長什麼樣,以及作為一個做了十年設計的人,我為什麼會覺得它好看。它長什麼樣打開 Skill 生成的 PPT,第一眼的感覺大概是:這不太像 AI 做的。幾個直觀特徵:•封面:墨色底 + 襯線大標題,背後一層若隱若現的 WebGL 流體在緩緩流動•正文:底色切回紙白,墨字壓在上面,像一本攤開的印刷雜誌•翻頁:橫向左右滑動,鍵盤、滾輪、觸屏手勢都行,不是 PowerPoint 的下一頁•元數據:每頁四個角落有小號等寬字,寫着 "Act II · 15 / 25" 這類報刊頁碼我給這套視覺基調起了個名字,叫"電子雜誌 × 電子墨水"。靈感來源是《Monocle》《衞報》《NYT》這類印刷雜誌的版式傳統,疊加 Kindle 電子紙的閲讀美學,再用當代 Web 的交互語法串起來。它能做什麼Skill 目前提供 10 種頁面佈局、5 套主題色預設,和一套完整的翻頁交互。10 種佈局覆蓋了一場 15-30 頁分享會用到的幾乎所有頁面類型:開場封面、章節幕封、數據大字報、左文右圖、圖片網格、Pipeline 流程、懸念問題、大引用、Before/After 對比、圖文混排。每種都是一段可以直接粘貼的 HTML 骨架,改掉文字和圖片就能用。5 套主題分別對應不同場景:墨水經典 — 商業發佈、通用默認靛藍瓷 — 科技、研究、AI 發佈會森林墨 — 自然、可持續、人文牛皮紙 — 懷舊、文學、獨立雜誌沙丘 — 藝術、設計、創意每套主題只是 6 個 CSS 變量的不同取值,切換主題只要替換 :root 裏那 6 行代碼。用戶不允許自定義 hex,後面會說原因。翻頁交互支持鍵盤左右箭頭、鼠標滾輪、觸屏滑動、底部圓點跳轉、ESC 鍵打開縮略圖索引。儘量接近在瀏覽器裏翻一本真實雜誌的體驗。產物是一個單文件 HTML,雙擊瀏覽器就能看,發給別人也只是一個文件,不用擔心字體和動畫在別人電腦上亂掉。怎麼用其實這份 Skill 真正的價值不在模板本身,而在它定義了一套人 × AI 協作做 PPT 的接口。下面三件事,是我自己用了一週後,覺得最值得告訴別人的。先跟 AI 說清這 6 件事Skill 裝好之後,你只需要說一句"幫我做一份雜誌風 PPT",Claude 會反過來主動問你 6 個問題:1.受眾是誰、什麼場景?(行業內部 / 商業發佈 / 私享會)2.分享時長多久?(15 分鐘 ≈ 10 頁,30 分鐘 ≈ 20 頁)3.有沒有原始素材?(文檔、數據、舊 PPT、文章連結)4.有沒有圖片、放在哪?5.想要哪套主題色?(5 套預設裏選)6.有沒有硬約束?(必須包含 XX 數據 / 不能出現 YY)你不用一次說完,它會一條條問。答完之後,它會先給你一份大綱和主題節奏表,對齊之後再開始寫代碼——這一步攔截了我 80% 的返工。以前用 AI 做 PPT 最痛的是什麼?是它直接開始寫,等你看到第 10 頁才發現整體方向就是錯的。這套澄清流程把"對齊"前置到了開頭。圖片這樣塞圖片放在和 index.html 同級的 images/ 文件夾,文件名有規則:ppt/ ├── index.html └── images/ ├── 01-cover.jpg ├── 03-figma.png └── 05-dashboard.png•頁號補零 + 英文語義——01 不是 1,cover 不是 fengmian。方便按順序排,AI 引用也清晰•照片用 JPG,截圖用 PNG——截圖帶文字,PNG 保真不糊•單張 ≥ 1600px 寬——大屏投影才不糊你只需要告訴 Claude"第 3 頁是 Figma 界面截圖",它會自動寫成 images/03-figma.png,你把同名文件丟進文件夾就行。無損換圖的秘訣:同名覆蓋文案改完想換張圖,結果要全局搜替換路徑,一不小心就把 HTML 改壞了。正確做法只有一句話:新圖用同名覆蓋舊圖,HTML 一個字不改。為什麼長成這樣聊完怎麼用,聊聊它為什麼是這個樣子。好看不是玄學,是一套可以拆解的決策。我做的事,本質上是把雜誌行業一百年沉澱下來的排版語言,搬到了 HTML 裏。字體的三級分工•襯線 → "觀點"。大標題用襯線,讀者一眼就覺得"這是一句該被重視的話"。•非襯線 → "信息"。正文密度高、閲讀不累。•等寬 → "元數據"。頁眉頁腳的章節號、日期、頁碼,像雜誌頁腳,也像終端裏的代碼。讀者不用費勁想,眼睛自己就知道這句話是正文還是附註。色彩的紀律紙白、墨色,加一個重點色,就夠了。純白刺眼、純黑暴力,印刷行業從來不這麼幹,Kindle 也是。Skill 的 5 套主題,底色沒有一個是 #FFFFFF,字色沒有一個是 #000000。每套只暴露 6 個 CSS 變量,SKILL.md 裏寫明:不允許用戶自定義 hex,只能五選一。約束越嚴,風格越穩。 保護美學,比給用戶自由更重要。網格與節奏7:5、6:6、8:4 幾套固定網格保證單頁秩序。hero 頁和 non-hero 頁必須交替,保證整本的節奏。一頁密、一頁疏,就是翻雜誌時那種呼吸感。Skill 裏寫了條硬規則:連續三頁以上相同主題會被判為 P0 錯誤。沒有節奏的 PPT 就是一沓 slide 堆成的 PDF。寫在最後上面這些規則,沒有一條是我發明的。我做了十年設計,UI、交互、AI 特效都幹過,這些其實都是行業常識。我只是把它們一條條寫進了 SKILL.md 和 checklist.md,讓 AI 能替我逐條執行而已。換句話說,這個 Skill 就是我這十年審美的一個壓縮包。以前做一份像樣的 PPT,我得花兩天手動調網格、選字號、摳色值。現在把素材丟給 AI,它按照這些規則直接拼出來,我只需要檢查一下。也正因為這樣,我才敢把它開源。規則本來就不是我的獨家,《Monocle》的設計師比我早用了幾十年,我只是把它 copy 到了 2026 年的 HTML 裏。Skill 已經放在 GitHub 上:github.com/op7418/guizang-ppt-skillREADME 裏有一段"給 AI 的安裝 prompt",複製粘貼給你的 Claude Code或其他 AI Agent,它會自動完成安裝。裝好之後對它說一句"幫我做一份雜誌風 PPT"就會觸發。也可以在 Bloome 這個 Agent 裏面用,目前是免費的:https://bloome.im/agent/join/iKXCLtkD?ref=wNL9Ew2G如果覺得內容對你有幫助的話,可以幫我點個贊,或者分享給你需要的朋友。也可以在評論區分享一下你拿這個 Skill 做的 PPT。✦
完成用了這個 GPT-5.5,Codex 額度一下午就燒完了
GPT-5.5 實測:性能登頂但額度消耗驚人,Agent 能力進化至「自動驗收」新階段。
完成GPT-5.5 今日發佈
GPT-5.5 正式登場:由「答題機器」進化成「執行 Agent」,編程與科研能力有質的飛躍。
完成深扒 Nano Banana 2 超多趣味玩法,速度快還要效果好!
Google Nano Banana 2 (Gemini 3.1 Flash Image) 實測:主打快、準、平,係批量出圖同埋長圖設計嘅性價比之選。
完成我做了個萬能生圖 Skill,人人都可以定製設計 Agent
Skill 正在拆解 SaaS 軟件功能,一個 Markdown 文件就能手搓出萬能生圖 Agent。
完成今年看到的最有意思的 AI 產品
Loopit 開闢 AI 互動內容新賽道,將 VibeCoding 轉化為「人人皆可創作」的互動版抖音。
完成我分析了 1000 個 skills,這是最推薦的 30 個
Skill 正在重新定義 AI 時代嘅 App Store,透過 30 個頂尖 Skill 睇清 Agent 點樣由「吹水」進化到「做實事」。
完成贈7天會員!字節AnyGen多項功能實測分享。
字節跳動海外 AI 工作平台 AnyGen 實測:語音驅動協作,主打深度文檔編輯與多功能調研。
完成Coze Skills最新實測:我的分鏡一條龍+PPT克隆,在技能商店免費用
Coze 2.0 實測:將個人經驗打包成「技能」賺錢,再用「長期計劃」等 AI 幫你主動追進度。
完成視頻分鏡提示詞Skill,詳細製作過程分享!
將劇本自動化轉化為 AI 影片分鏡提示詞的 Skill 製作全攻略,教你點樣用結構化思維拆解複雜任務。
完成邪修方法論,用星流玩轉AI生圖九宮格!
利用星流 Agent 嘅「九宮格延展法」,可以喺 AI 生圖時完美解決角色一致性痛點,一次過產出高質量嘅系列視覺資產。
完成被 Seedance 2.0 的強者光芒亮得睡不着覺了。
Seedance 2.0 震撼登場,憑藉強大嘅多模態輸入同語義理解能力,令 AI 影片生成進入「全能參考」新時代。
完成一覺醒來Kimi的Vibe Coding已經是鈕祜祿版本了,7個case上手實測!
Kimi K2.5 升級後 Vibe Coding 實力大爆發,靠視覺理解同 Agent 集羣,用口語就整到高質量網頁同遊戲。
完成只用一天Opus4.6+Agent Teams做了個ClaudeCode桌面端:已開源
作者利用 Opus 4.6 配合 Agent Teams 模式,僅用一日就開發出功能完備且開源的 Claude Code 桌面客戶端 CodePilot。
完成手撕Sora,腳踢Veo!13個行業實戰案例,Seedance 2.0玩法大全
Seedance 2.0 唔止係畫質提升,而係具備「導演思維」嘅影片生成革命,一句話就能夠將行業知識轉化為專業級短片。
完成過了個年,AI 圈變天了?但沒人告訴你為什麼
AI 已經由「你問佢答」進化成「幫你做嘢」嘅 Agent 時代,核心競爭力由執行力轉向判斷力。
完成讓你的 ClaudeCode 秒變 Openclaw(龍蝦),連接飛書、Discord 遠程控制
透過 Claude-to-IM 工具,將 Claude Code 遠端接入飛書或 Discord,實現隨時隨地 Vibe Coding。
完成”為什麼我開始反對 Vibe Coding?“
Vibe Coding 的代價:當你將判斷力外包給 Agent,你失去的是對系統的掌控權與成長機會。
完成當Karpathy的LLM Wiki遇上本體論:一場知識表示的終極融合
將 Karpathy 的 LLM Wiki 理念與傳統本體論結合,構建一套「既不幻覺、又不僵化」的企業級知識架構。
完成分享一個我用了2年的深度研究Prompt,半小時幫你搞懂任何陌生領域。
利用「橫縱分析法」結合 AI 深度研究功能,半小時內即可建立陌生領域的完整認知框架。
完成AI Coding 給我的不是效率,是重構自由
AI Coding 的核心價值不在於提升開發速度,而是賦予開發者「推倒重來」的重構自由。
完成我做了一個持續更新的 GPT-Image-2 提示詞網站
GPT-Image-2 已進入商業落地階段,透過結構化提示詞公式與實戰資料庫,可將「抽卡式」繪圖轉化為穩定產出的專業工具。
完成Image 2能批量生圖了,23個真實場景和提示語一口氣學會!
Image 2 結合 Lovart 實現批量生圖與精準編輯,重新定義 AI 資訊圖表與 UI 設計工作流。
完成Claude Design 只是開始:AI 實驗室正在一個一個地吃掉 SaaS 公司
AI 實驗室正以「結構性優勢」吞噬 SaaS 市場,Claude Design 的出現標誌著從功能競爭轉向用戶羣替代的「SaaS 末日」。
完成用AI Agent建個日程卻花了十多分鐘,還不如自己來?先別急着卸載
AI Agent 第一次用覺得慢係正常「入職期」,要分清係產品問題定係初始化成本。
完成Claude Design 實戰篇 —— 5 個能直接抄的提示詞,外加一套別想偷懶的地基
Claude Design 實戰指南:拒絕 AI Slop 的「地基」法則與 5 大高頻場景提示詞。
完成我把 Hermes 裏的模型幾乎測了一遍,得出一個很扎心的結論:越貴的,往往越強
模型價格往往與生產力成正比,GLM-5.1 在真實 Agent 任務中的執行力已超越 GPT-4o 級別模型。
完成Google Gemini團隊開源Agent Skills:讓Claude Code、Antigravity等“按規矩寫代碼”
Google 總監開源 Agent Skills,將 Google 頂尖工程紀律轉化為 AI 可執行的 20 個標準化工作流。
完成實測GPT Images 2營銷玩法,完美文字渲染,生圖逆天強
ChatGPT Images 2.0 實現「文字渲染」與「複雜排版」的質變,讓 AI 生圖從草稿階段正式跨入「直接交付」的商業營銷水平。
完成別再把AI當玩具了:Anthropic這場分享,講透了未來3年最狠的生產力革命
AI 革命已從「對話工具」進化為「生產力系統」,未來核心競爭力在於「組織 AI」而非單純使用 AI。
完成離譜,我用 GitHub 倉庫養了個 AI 龍蝦!
將 GitHub 倉庫轉化為 AI 智能體「小龍蝦」,實現無需 IDE 的全自動化開發與運維流程。
完成OpenAI Workspace Agents上線:Codex 驅動的AI員工
OpenAI 推出由 Codex 驅動的 Workspace Agents,將 GPTs 從「聊天機器人」進化為能跨工具、自動執行長流程的「AI 員工」。
完成深度解讀:Cloudflare 一週砸了 25 個產品,AI 的水電氣被一次通齊了...
Cloudflare 一週連發 25 款產品,為 AI Agent 鋪設「水電煤」基礎設施,將 AI 從聊天機器人轉化為能辦事的正式員工。
完成新手入局AI編程,90%的人方向完全錯了
新手入局 AI 編程的致命誤區:不要先找市場需求,要先解決自己的「真痛點」。