Knowledge Base

閱讀站

首頁而家只顯示最近 50 篇文章,避免文章量愈大愈拖慢首頁載入。

共 63 篇文章
完成

花叔不公開的寫作 Skill,我逆向出來了

全文約4000字 | 閲讀大約需要8分鐘花叔不公開的寫作 Skill,我逆向出來了從花叔的四本橙皮書和開源倉庫出發,逆向拆解他的寫作框架。方法、發現、架構、案例,全部公開。作者 | Zerox在探索編輯 | Zerox在探索花叔出了三本技術橙皮書。Claude Code、OpenClaw、Harness Engineering、Hermes Agent。都是那種你打開就能用的類型。速度很快,結構很穩,風格高度一致。但你知道他最厲害的不是寫了什麼書,是他寫書的方法沒開源。我記得他自己也在公眾號評論區說過,這個技能短期內不打算開源。出於好奇和學習的態度,所以我就打算自己幹了。從他已經開源的 skills 和這四本書本身的結構、風格出發,一點一點拆。看他的寫作框架到底長什麼樣。拆完之後我做了一個事:把這個逆向出來的創作 Skill 開源了,還用它寫了一本完整的 DeerFlow 橙皮書。今天這篇文章,把整個逆向過程、發現、架構和用法都講清楚。文末有 GitHub 連結,你可以直接拿去用。花叔的橙皮書好在哪我第一次讀花叔的書,最大的感受是:這不是那種你看了開頭就知道結尾的技術文檔。他的書有幾個很明顯的特徵。結構非常清晰。Part 1 起步,Part 2 核心能力,Part 3 進階實戰。讀者讀完一章能做一件事,不是看完了還在原地。風格高度統一。幾本書讀下來,你會感覺是同一個人寫的。短句。第一人稱。先結論後展開。每章開頭有具體時間線。不是"在當今這個 AI 時代"那種水開頭。寫作的規則很明確。單句不超過 25 字。有具體數字。有禁用詞表。寫完了還要過 12 項章節 QC 和 10 項全書 QC。這種一致性絕對不是靠靈感維持的,它背後一定靠的是一套系統。而這套系統,花叔還沒有開源。我為什麼要逆向有幾個原因。一個是我真的想學。花叔這套方法論很強。從他的書裏能看出他對技術寫作的理解比我深很多。作為一個在 AI 領域折騰的人,我覺得搞清楚他的方法,比單純讀他的一本書有價值得多。另一個是好奇。他的 skill 開源了很多個,最近的一次是我非常喜歡的nuwa-skill,女媧技能,讓你體驗造人的快樂(bushi。但橙皮書寫作的 skill 沒放出來,而且這也是花生老師的短期的內容輸出護城河,不開源是很有必要的。但我也想用怎麼辦,所以我就在想,能不能從他開源的倉庫和橙皮書中挖一挖,反推出那套方法論。思路其實不復雜。已開源的 skills 是工具,已出版的書是產物。拿着產物倒推工具,再跟已有的工具交叉驗證,應該能還原出大概。我發現了什麼這個過程比我想的有意思。拆開之後我發現了五層東西。第一層:漸進式信任建立花叔每本書、每章的開頭都有時間線錨點。不是泛泛而談的"我用了很久",是具體的"用了 3 個月 Cursor 之後切換到 Claude Code"。這個設計的核心是建立可信度。讀者看到開頭就知道,這個人真的用過這個東西,他不是拿文檔在編。逆向出來的 Skill 裏保留了這個規則:每章前 2-3 段必須有具體時間線錨點或場景還原。沒體驗就誠實標註,不編造。第二層:結構化的知識傳遞路徑幾本書都遵循同一個遞進邏輯:Part 1 從零到第一次跑通,Part 2 深入核心能力,Part 3 多場景實戰。這不是隨便分的。每章解決一個具體問題,讀者讀完一章能做一件事。章節之間有向前橋接,不讓讀者停在某處不知道接下來該看什麼。第三層:風格 DNA這是我拆解過程中最有收穫的部分。花叔的寫作不是"寫得好看",是寫得精確。有幾條規則我直接抄過來:單句不超過 25 字,用句號斷句第一人稱高頻出現,每千字至少 3 次具體數字,不用模糊量詞禁用詞表:不用"綜上所述"、"值得注意的是"、"接下來我們將"有體驗就斷言,沒體驗就誠實標註最讓我驚訝的是禁用詞表。是明確的禁用詞和替代詞的對照表。比如"進行操作"換成"點擊"或"輸入","實現功能"換成"做到"或"搞定"。風格一致性不靠天賦,是靠規則。第四層:TDD 式質量鐵律這個最狠。每章寫完後要過 12 項 QC 檢查:結構、風格、內容三塊。全書寫完再過 10 項全局 QC。不通過就重寫。不妥協。更絕的是有個叫 Rationalization Table 的東西——專門對付 Agent 找藉口跳過規則的。比如 Agent 會說"開頭不重要,內容才是關鍵",表裏直接回:"花叔風格的核心就是開頭。沒有錨點的章節不可信。"這個設計太聰明瞭。不讓AI隨意發揮,那就要給 AI 畫線。第五層:Agent Protocol寫作前必須先研究確認事實。版本信息、API 是否存在、社區反饋。不憑訓練數據編造。這一步保證了內容不是訓練數據的幻覺,是真正經過驗證的事實。架構設計我把逆向出來的系統拆成了2個子技能。為什麼要拆成兩個 Skill原始的花叔方法論裏,內容創作和格式轉換是混在一起的。但我做的時候發現一個問題——創作 Skill 本身已經很複雜了,8 個參考文件、3 個腳本、2 個模板、2 套測試。如果再把 PDF/HTML 導出的邏輯塞進去,這個 Skill 就太重了。所以我做了一個架構決策:創作 Skill 只管內容生成,格式轉換單獨做成一個叫md2book的 Skill。創作 Skill 把書的內容變成一個 Markdown 文件。md2book 負責把這個 Markdown 轉成 PDF 或 HTML。兩個 Skill 各司其職,用的人也清楚自己該裝哪個。項目結構SKILL.md— 主入口:心智模型、工作流、表達 DNAreferences/— 8 個參考文件:書籍藍圖、章節模板、風格 DNA、開頭技巧、內容塊模式、QC 清單、Agent 協作流程、調研來源assets/— 封面模板、目錄模板、大綱 Schemascripts/— PDF 導出、結構驗證、Agent 調度tests/— 基線檢查 + 壓力測試質量檢查機制這個部分我單獨拎出來說,因為它是整個系統最不像 AI 工具的部分。一般的 AI 工具生成完就結束了。但這個 Skill 要求生成後必須過 QC。12 項章節檢查加 10 項全書檢查,每項都是 checkbox,必須逐項過。還有前面提到的 Rationalization Table,不只是檢查內容質量,還是一個嚴格檢查執行紀律的規範。Agent 想偷懶?不行。表裏寫好了每個藉口的反駁。輸出不能"差不多就行",必須"通過了才放行"。實踐驗證:DeerFlow 橙皮書光逆向沒用。得驗證這套方法能不能真正產出一本書。所以我選了字節剛開源的 DeerFlow 2.0 做實驗。DeerFlow 是字節的 Super Agent Harness,2026 年 2 月發佈,當天就上了 GitHub Trending 第一名。技術含量夠,社區討論夠,用來測試逆向 Skill 的實戰能力剛好。用這個逆向 Skill 寫出來的 DeerFlow 橙皮書,結構是這樣的:5 個 Part,10+ 節,從"DeerFlow 是什麼"一路講到架構、部署、核心功能、進階擴展。DeerFlow 的定位就是這樣:它是一個套在 Agent 身上的裝備,讓 Agent 能幹活、能完成任務的完整系統。短句。第一人稱。類比解釋。時間線錨點。禁用詞零出現。還原度我自己評估在 80% 以上。結構完全還原,風格細節有幾處還差一點,畢竟我沒見過花叔的原始 Skill,全靠逆向。但作為一個能跑通的系統,我覺得及格了。DeerFlow 橙皮書的完整 Markdown 和 PDF 版本,我也把它們都跟着一起公開。有興趣的大家品味一下。怎麼用兩個倉庫,都很簡單。橙皮書創作 Skillgit clone https://github.com/ZeroxZhang/huashu-bookwritercp -r huashu-bookwriter ~/.claude/skills/md2book Skill(Markdown 轉 PDF/HTML)git clone https://github.com/ZeroxZhang/md2book# 按 README 安裝 pandoc + XeLaTeX 依賴裝好之後對 Claude Code 說"幫我寫一本 XX 從入門到精通"或者"做個橙皮書",Skill 就會自動觸發。這個事我用業餘的時間做了3天,其實工作量還好,但我也有幾個感受。第一,創作者的技能是要被尊重的,所以,我這次只是致敬和學習,@花叔 如果有不當或者冒犯。我會隨時下掉並公開致歉。第二,逆向的過程中我最大的收穫是:好的寫作輸出系統,是個非常龐大精密的體系,它太難一蹴而就了。風格一致性、質量把控、讀者體驗,每一條都有明確的執行標準和驗收規範,我們要對行業專家保持敬畏。第三,我知道這個 Skill 還原得還不完美。花叔的原始版本肯定有更多我沒拆解到的細節。如果你用了之後有改進建議,歡迎在 GitHub 提 issue,或者直接評論。開源地址:橙皮書創作 Skill:https://github.com/ZeroxZhang/huashu-bookwritermd2book Skill:https://github.com/ZeroxZhang/md2book互動話題你用 AI 寫過技術文檔嗎?踩過哪些坑?或者你覺得我逆向花叔的寫作方法有什麼值得改進的?歡迎在評論區聊聊。本文為原創內容,版權歸「你的公眾號名稱」所有歡迎關注、點贊、在看、轉發到朋友圈

完成

Google剛剛總結5種Agent設計模式:讓AI連續工作7天不崩

昨天,Google 發佈了一篇關於 Agent Runtime 的長文,給出了5個面向生產環境的 Agent 設計模式,目的只有一個: 如何讓一個 Agent,連續運行幾天甚至一週,還不出問題。原文:《5 Agent Design patterns for Long-running AI Agents》作者:@addyosmani and @Saboo_Shubham下面是整理的這篇文章的譯文,如果你正在做 Agent 或考慮落地,這一篇值得細看。開發者們花了幾周時間打磨Prompt、優化工具調用、壓低響應延遲——但當你的Agent需要連續工作五天時,這些努力統統白費。真正有價值的自動化任務從來不在一次對話裏完成。處理幾千份保險理賠、執行長達一週的銷售觸達序列、在多個系統之間完成財務對賬——這些任務的時間單位是天,不是秒。一旦你真的去搭這種長駐Agent,就會撞上一個根本性的問題:現有的Agent架構天生是無狀態的。每次交互都要從數據庫重建上下文,上一輪推理過程中那些隱性判斷、置信度的起伏、中間形成的軟性結論——全部丟失。Google在Cloud Next 26上宣佈,Agent Runtime現在支持狀態持久化長達七天的長駐Agent。下面是在這個架構上真正能用的五個設計模式。模式一:Checkpoint-and-Resume----存檔與續跑多日任務最常見的死法:上下文丟失。Agent跑了四個小時、處理了200份文檔,第201份出錯了。沒有存檔機制,就只能從頭再來。長駐Agent的做法是把自己當成一個長期運行的服務進程,而不是一個一次性的請求處理器——就像數據管道處理百萬條記錄那樣:定期存檔進度、允許局部失敗、保證操作可重複執行。存檔粒度的選擇很關鍵。每處理一條就存檔,開銷太大;只在最後存檔,風險太高。每50條存一次,是在可靠性和性能之間取得平衡——具體數字取決於每個處理單元的代價。模式二:Human-in-the-Loop----人工介入每個框架都說自己支持"人工介入"。但實際落地時,大多數實現是這樣的:把狀態序列化成JSON,發一個Webhook,然後祈禱有人去看它。問題接踵而來:JSON序列化會丟失隱性推理上下文;通知淹沒在幾十條告警裏沒人理;人幾小時後才回來,Agent還得重新反序列化、重建上下文,再祈禱這段時間裏什麼都沒變。長駐Agent的處理方式不同:當Agent到達一個需要審批的節點,它就原地暫停——完整的執行狀態保留在那裏,推理鏈、工作記憶、工具調用記錄、待執行的動作,一樣不丟。暫停期間零計算消耗,等人批完了,冷啓動幾乎沒有延遲。這8到32小時的等待時間,對Agent來說是"休眠",對人來說是"正常審批流程"。兩邊的節奏終於對上了。模式三:Memory-Layered Context----分層記憶一個要活七天的Agent,光靠會話狀態遠遠不夠。它需要記住幾天前的用戶偏好、跨會話積累的判斷,以及任何單次對話都裝不下的組織背景知識。但大多數開發者直到上線才意識到一個問題:記憶會漂移。Agent的行為不只由代碼和Prompt決定,也被它積累的"經驗"塑造。如果它從幾次非典型交互裏學到了某個捷徑是可以走的,它可能會開始到處走這個捷徑。多個Agent共享記憶池,還會帶來數據互串的風險。解決方案是像治理微服務一樣治理Agent的記憶:Agent身份(Identity):相當於IAM,決定這個Agent能訪問哪些記憶庫和工具Agent註冊表(Registry):相當於服務發現,追蹤所有活躍Agent的版本和執行狀態Agent網關(Gateway):相當於API網關,攔截不合規的記憶寫入——比如Agent試圖把用戶的個人敏感信息寫進長期記憶,直接在這一層擋住從第一天就把審計機制建進記憶層。要問的不只是我的Agent在做什麼,還有它在記住什麼,這些記憶又在怎樣改變它的行為。模式四:Ambient Processing----後台解耦不是所有長駐Agent都需要跟人對話。有些是純後台的:監聽事件、處理數據流、在沒有任何人觸發的情況下自主行動。一個內容審核Agent可以這樣工作:持續消費用戶生成內容的消息隊列,維護自己對趨勢和模式的判斷,只在必要時上報升級。它運行幾天,沒人叫它,它也在跑。這裏有一個關鍵的架構決策:不要把內容策略硬編碼進Agent。把策略定義在Agent網關裏,讓Agent在運行時執行它。策略變了,只更新網關,所有後台Agent自動適用新規則——而不是每次改策略都要重新部署一遍所有Agent。對於長時間無人監管的後台Agent來說,這種解耦至關重要。模式五:Fleet Orchestration----Agent集羣調度真實生產環境裏,你很少只有一個Agent在孤軍奮戰。更常見的結構是:一個協調者Agent把任務分發給多個專家Agent,每個專家獨立運行、各有自己的生命週期。以銷售拓客流程為例,可以拆成:情報收集Agent、潛客評分Agent、觸達執行Agent——各自獨立,互不干擾。協調者維護全局狀態,負責銜接各專家之間的交接。每個專家Agent有自己的身份(限制它只能訪問自己該用的工具和記憶),有自己的權限邊界(評分Agent看不到只有觸達Agent才需要的數據),有自己在註冊表裏的記錄(方便追蹤版本和狀態)。獨立部署的好處是可以獨立迭代:評分邏輯需要優化,就只更新評分Agent,觀察效果,確認穩定了再推廣。一個Agent出問題,不會拖垮整個集羣。怎麼選?這五個模式可以自由組合。一個合規審查系統可能同時用到:存檔續跑(處理文檔)、(人工介入)審核、分層記憶(跨會話知識積累)、集羣調度(多專家協作)。判斷自己是否需要長駐Agent的核心問題只有一個:你的Agent完成一次完整任務,需要多長時間?如果是幾分鐘,可能不需要。如果是幾小時到幾天,這五個模式就是你應該從哪裏開始想的起點。謝謝你看到這裏,如果覺得喜歡,點個關注,不迷路~

完成

我開源了復刻網站設計為 DESIGN.md 的 Skill,讓你的 Agent 完美復刻所有網站!

我開源了任意網站品牌 -> DESIGN.md 的 SkillGoogle 開放標準 DEISGN.md 後,讓咱們這種非專業設計師也能復刻頂級設計品味的網站產品了!咱們之前使用 Apple DESIGN.md 復刻過 Apple 官網,效果不理想,這回我想用自己的 Skill 復刻,朋友們可以對比看看。之前復刻版本咱們的 Skill 復刻版本 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏AI 啓蒙小夥伴已關注分享視頻,時長00:120/000:00/00:12 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1200:12倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 我開源了復刻網站設計為 DESIGN.md 的 Skill,讓你的 Agent 完美復刻所有網站! 觀看更多原創,我開源了復刻網站設計為 DESIGN.md 的 Skill,讓你的 Agent 完美復刻所有網站!AI 啓蒙小夥伴已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 今天和我的 Codex 一起整理了復刻網站設計風格的步驟,測試下來效果還真得不錯,我也把它沉澱成了 Skill 分享給大家。安裝方法:npx skills add https://github.com/shaom/brand-to-design-md-skill --skill brand-to-design-md使用方法:Use brand-to-design-md to extract https://example.com into a DESIGN.md and demo HTML.開源地址:Brand to DESIGN.md Skillhttps://github.com/shaom/brand-to-design-md-skill[1]歡迎朋友們 ⭐️ 和 PR 👏🏻一起看看復刻思路步驟1. 對齊標準先參考 Google Labs 開源的 DESIGN.md 標準,明確目標不是寫品牌介紹,而是把品牌視覺系統轉成 agent 可執行的設計上下文:token、組件規則、佈局規則、圖像規則、Logo 使用邊界和 Do / Don’t。2. 收集證據優先看官方官網、品牌頁、press kit、newsroom、公開 CSS、SVG、圖片資產。設計機構案例可以作為品牌理念和視覺語言的補充。第三方資料只作輔助,不作為主要依據。3. 提取設計 token不只是記錄顏色值,而是給每個 token 定義角色:主色用在哪裏,強調色什麼時候出現,字體如何分工,圓角、間距、組件如何服務品牌氣質。4. 寫成 DESIGN.md文件結構包括 frontmatter token 和正文說明。正文重點寫清楚顏色、字體、佈局、組件、圖像、Logo 使用邊界,以及 agent 應該避免的偏差。5. 生成演示網頁用這個 DESIGN.md 做一個真實可看的單文件 HTML。首屏要體現品牌,不做說明頁。頁面至少覆蓋按鈕、卡片、表單、數據或代碼區、品牌視覺母題。6. 瀏覽器驗證用 Chrome 檢查桌面和移動端:背景圖是否加載、是否有橫向溢出、控制枱是否報錯、文字是否可讀、品牌感是否成立。7. 交付結果輸出 DESIGN.md、demo HTML、截圖、來源說明,以及哪些是直接證據、哪些是合理推斷。相關文章推薦谷歌正式開源 DESIGN.md 為開放標準,屬於 AI Design 的 CLAUDE.md 來了,Design 優質資源站也來了!Claude Design 系統提示詞泄露,如果把它做成 Skill,能復刻 Claude Design 嗎?

完成

從零手把手教你寫一個簡易版 Claude Code:基礎篇

前言: 最近 Claude Code 源代碼泄露,全網都在扒它的代碼設計思想。但直接啃源碼對初學者不友好,十幾萬行、近兩千個文件,一上來被各種設計模式淹死,看完只記得幾個名詞。其實 Claude Code 的內核極其簡單,簡單到可以濃縮成一句話——不過這句話我放文章最後講。本文的目標:用 100 行 Python 復刻出這個內核,讓你看完就能跑起來、改得動。至於編輯文件、搜索、子 Agent 這些外圍功能,會在我的 my-claude-code 倉庫裏給到完整實現,有興趣自己翻。今天只是開篇,後續我還會寫系列文章,來解讀 Claude Code 的設計細節,和它是怎麼實現各種功能的。一、先看效果Claude Code 效果圖讓我寫的 my-claude-code 寫了一個的貪吃蛇:用 my-claude-code 搓貪吃蛇就一句「幫我寫一個貪吃蛇網頁版小遊戲」,它自己決定建哪些文件、每個文件寫什麼、跑起來報錯了自己回頭改。全程我一行代碼都沒碰過。後面的章節會告訴你——讓它跑成這樣的核心,到底是什麼。再來一張讓它總結指定網頁內容的效果圖:總結網頁內容當然,還有很多功能。子 Agent、Memory、Hooks、edit_file / grep / web_fetch 等完整工具箱,以及 /compact、/resume、/clear 這些 slash 命令——整體架構和 Claude Code 已經很接近了,實現細節當然有出入,但思路一脈相承。但這些不是今天的重點。完整功能實現會在後續文章中詳細介紹。今天我們先把核心的循環跑起來,這個循環才是 Agent 的真正內核。二、什麼是 Agent?假設我們需要完成這樣一個任務:任務: 幫我搜索今天 Hacker News 的熱點新聞。如果我們直接把這個任務交給一個語言模型,可能會得到這樣的回答:回答: 抱歉,我無法直接訪問互聯網來搜索最新的 Hacker News 熱點新聞。為什麼會這樣呢?因為語言模型本身沒有訪問互聯網的能力。而且,它也不知道今天是什麼日期,它只能根據訓練數據來生成回答,而不能執行實際的操作。這時候,我們就需要一箇中間層,來幫助語言模型執行實際的操作。這個中間層就是 Agent。你可以把 Agent 想象成一個智能的指揮官,它負責協調各種工具來完成用戶的任務。它會根據用戶的輸入,選擇合適的工具,並且把工具的輸出結果返回給用戶。在上面的例子中,我們看看 Agent 是怎麼工作的:當你向 Agent 輸入指令:“幫我搜索今天 Hacker News 的熱點新聞” 時,Agent 並沒有立刻把這句話發給大模型,而是先在後台做了一次拼上下文。它會在後台構建一個龐大的上下文環境(Context),你可以把它理解為給大模型的輸入數據。這個上下文環境裏包含了系統設定、工具箱、用戶指令等等信息。發給大模型的完整數據大概長這樣:[系統設定]你是一個智能的指揮官,負責協調各種工具來完成用戶的任務。你會根據用戶的輸入,選擇合適的工具,並且把工具的輸出結果返回給用戶。[工具箱]1. 搜索工具(search_web):可以用來搜索互聯網內容。2. 日期工具(get_current_date):可以用來獲取當前日期。[用戶指令]幫我搜索今天 Hacker News 的熱點新聞大模型在接收到這個上下文環境後,會根據系統設定和工具箱的信息,來理解用戶的指令,並且選擇合適的工具來執行。在這個例子中:第一輪大模型會先推理(Think)分析用戶的指令,發現了一個變量——“今天”。它心想:“作為語言模型,我沒有內置時間,但我看到了我的工具箱裏有一個叫 get_current_date() 的工具,我正好需要它!”下達行動指令 (Act): 於是,大模型暫停了文本回復,而是向 Agent 返回了一段標準的 JSON 格式指令,要求執行工具調用:{ "tool": "get_current_date", "args": {}}框架執行 (Verify/Observe):Agent 接收到這個指令後,會解析出工具名稱和參數,然後調用對應的工具函數來執行操作。比如,它會調用 get_current_date() 函數來獲取當前日期。工具執行完成後,會把結果返回給 Agent。比如,get_current_date() 可能返回了“2026-04-20”。Agent 默默把這個結果加到了對話歷史記錄中,準備發回給大模型。這時,發回給大模型的上下文環境就變成了:[系統設定]你是一個智能的指揮官,負責協調各種工具來完成用戶的任務。你會根據用戶的輸入,選擇合適的工具,並且把工具的輸出結果返回給用戶。[工具箱]1. 搜索工具(search_web):可以用來搜索互聯網內容。2. 日期工具(get_current_date):可以用來獲取當前日期。[用戶指令]幫我搜索今天 Hacker News 的熱點新聞[工具調用記錄]get_current_date() → 2026-04-20第二輪大模型再次推理(Think)分析用戶的指令,這次它已經知道了“今天”的具體日期了。大模型結合新的上下文,確認了目標:“好,現在我知道要找 2026 年 4 月 20 日的 HN 新聞了。下一步,我需要調用搜索(search_web)工具下達行動指令 (Act):於是,大模型再次向 Agent 框架返回了一段標準的 JSON 格式指令,要求執行工具調用:{ "tool": "search_web", "args": { "query": "2026-04-20 Hacker News 熱點新聞" }}框架執行 (Verify/Observe):Agent 接收到這個指令後,會解析出工具名稱和參數,然後調用對應的工具函數來執行操作。比如,它會調用 search_web("2026-04-20 Hacker News 熱點新聞") 函數來搜索互聯網內容。工具執行完成後,會把結果返回給 Agent。比如,search_web() 可能返回了一個包含熱點新聞標題和連結的列表。Agent 把這個結果加到了對話歷史記錄中,準備發回給大模型。這時,發回給大模型的上下文環境就變成了:[系統設定]你是一個智能的指揮官,負責協調各種工具來完成用戶的任務。你會根據用戶的輸入,選擇合適的工具,並且把工具的輸出結果返回給用戶。[工具箱]1. 搜索工具(search_web):可以用來搜索互聯網內容。2. 日期工具(get_current_date):可以用來獲取當前日期。[用戶指令]幫我搜索今天 Hacker News 的熱點新聞[工具調用記錄]get_current_date() → 2026-04-20search_web("2026-04-20 Hacker News 熱點新聞") →[ {"rank": 1, "title": "XXX", "url": "YYY", "points": 842, "comments": 267, "domain": "...", "posted_ago": "7h", "snippet": "一大段原文摘錄..."}, {"rank": 2, "title": "AAA", "url": "BBB", "points": 613, "comments": 189, "domain": "...", "posted_ago": "5h", "snippet": "..."}, {"rank": 3, "title": "MMM", "url": "NNN", "points": 402, ...}, ... 另外 27 條結果,摻着廣告、轉帖、無關外鏈 ...]注意看這兩段「上下文快照」的變化——[用戶指令] 從頭到尾是同一句「幫我搜索今天 Hacker News 的熱點新聞」,沒有被改寫過。日期和搜索結果都是往下追加的新條目。這是 ReAct 的一個硬性契約:歷史只讀、只增不改。模型是在讀完整條累加下來的歷史之後、自己在腦子裏把「今天 ≈ 2026-04-20」連起來的,而不是某個環節把用戶原話替換掉了。這個不變量後面 3.4 的代碼裏還會再遇到一次——全程 messages.append,沒有任何地方動過舊消息。第三輪大模型再次推理(Think)分析用戶的指令,這次它已經知道了“今天”的具體日期了,也拿到了搜索結果了。大模型結合新的上下文,確認了目標:“好,30 條原始數據在手了。下一步,我要從這堆 JSON 裏挑出熱度最高的幾條、扔掉 rank/points/comments/snippet 這些用戶不關心的字段,用人話重新排版發回去。”大模型生成回答 (Respond):於是,大模型根據新的上下文環境,把原始搜索結果過濾、去噪、重排後,生成了一個乾淨的回答:2026-04-20 Hacker News 熱度最高的兩條:1. 標題:XXX,連結:YYY(842 分 / 267 評論)2. 標題:AAA,連結:BBB(613 分 / 189 評論)Agent 把這個回答發回給用戶,完成了整個任務。看完了上面這個 Hacker News 的抓取例子,那麼恭喜你——你已經掌握了當下幾乎所有 AI 編程工具的底層核心邏輯。無論是 Claude Code、Cursor、opencode、Cline,還是 OpenAI 的 Codex CLI、Google 的 Gemini CLI,它們在最底層跑的都是同一個閉環:ReAct(Reason + Act),也就是“感知-思考-行動-驗證”四步循環。你會發現,大模型(大腦)和 Agent 框架(外骨骼)在這裏面有着極其明確的分工:感知 (Perceive): 不僅僅是“聽指令”,更是“讀環境”。大模型在每一步都在感知當前的上下文環境,包括用戶指令、工具箱信息、系統設定、工具調用結果等等。它需要不斷地更新自己的認知模型,來理解當前的任務和目標。思考 (Think): 這是大模型的“主場”。它在每一步都在做邏輯判斷——“我缺時間”、“我缺聯網能力”、“數據拿到了可以排版了”。它清楚自己的邊界在哪裏。行動 (Act): 當大模型發現自己做不到時,它會輸出調用工具的指令(Tool Calling)。讓外圍的 Agent 真正去執行 get_date 或 search_web。驗證 (Verify): 工具調完了沒算完,Agent 必須把調用的結果(無論成功還是報錯)拿回來驗證。就像查日期那一步,有了真實日期作為驗證結果,循環才能繼續推進。這個循環不斷地進行,直到大模型生成了一個完整的回答,或者達到了某個終止條件。這個過程就是 Agent 的核心工作原理,也是 Claude Code 的核心設計思路。三、手搓 Claude Code接下來,我會一步步帶你手搓一個簡易版的 Claude Code。但我不打算從零講到一個功能完整的版本——Claude Code 源碼泄露出來就十幾萬行、接近兩千個文件,我自己寫的這個簡化版也有將近三千行,文章裏塞不下,你也沒耐心看。所以這一章的目標只有一個:用 100 行代碼復現第二章那個 ReAct 循環。只做工具調用,別的什麼都不做。等你真的跑起來一次,後面再去看 Claude Code 源碼、或者我倉庫裏那個稍微完整點的版本,就沒什麼障礙了。完整代碼在倉庫的 mini.py 裏,100 行出頭,文末給連結。下面一段一段拆。3.1 先把環境裝好一個 Python 環境,一個 OpenAI SDK,一個模型的 API key。就這三樣。等等——Claude Code 不是 Anthropic 家的嗎,怎麼用 OpenAI SDK? 因為 OpenAI 的 chat.completions 早就是工具調用事實上的行業標準,DeepSeek、GLM、Kimi、本機 Ollama 全都兼容它,換模型只改 base_url 就行。真想用 Anthropic 原生 API 也可以,把 openai 換成 anthropic 包就是——ReAct 循環的邏輯一字不變,變的只是 SDK 怎麼調。本文只是挑了最通用的那條路。pip install openai這裏我用的是 DeepSeek,便宜,跑工具調用夠用。你想用 OpenAI 官方、通義、或者本機 Ollama 都行——只要它兼容 OpenAI 的 chat.completions 接口,改個 base_url 就能切。from openai import OpenAIclient = OpenAI( api_key="sk-xxx", base_url="https://api.deepseek.com",)MODEL = "deepseek-chat"3.2 先搭一個最普通的對話 loop加工具之前,我們先寫個最普通的命令行 chatbot。這一步和 Agent 半毛錢關係都沒有,但它是後面一切東西的骨架。messages = [{"role": "system", "content": "你是一個編程助手。"}]while True: user = input("> ") messages.append({"role": "user", "content": user}) resp = client.chat.completions.create(model=MODEL, messages=messages) reply = resp.choices[0].message.content messages.append({"role": "assistant", "content": reply}) print(reply)這時候你跑起來,和它說"你好",它會回你"你好"。但你問它"我的 config.json 裏寫了啥"——它會回你"抱歉,我無法直接訪問你的文件系統來讀取 config.json 的內容。"。這時候你就知道了——它只能說,不能做。因為模型沒有"手"。它看不到你的文件,也跑不了你的命令。我們接下來要做的,就是給它裝一雙手。3.3 給它兩個工具挑兩個最小的:讀文件 和 跑命令。為什麼是這兩個?因為它們已經足夠讓模型"摸清"你的項目——能讀文件意味着能看代碼,能跑命令意味着能 ls / grep / git log。Claude Code 自己的 Edit / Grep / Glob 這些工具,本質上都是在這兩個能力的基礎上再包一層。import subprocessdef read_file(path: str) -> str: with open(path, "r", encoding="utf-8") as f: return f.read()def run_bash(command: str) -> str: r = subprocess.run(command, shell=True, capture_output=True, text=True, timeout=30) return f"[exit={r.returncode}]\n{r.stdout}{r.stderr}"TOOLS = {"read_file": read_file, "run_bash": run_bash}光有函數不夠,還得告訴大模型"你有這些工具、每個工具怎麼調"。這部分是標準的 OpenAI function calling schema,照着寫就行:TOOL_SCHEMAS = [ { "type": "function", "function": { "name": "read_file", "description": "讀取一個本地文件的全部內容", "parameters": { "type": "object", "properties": {"path": {"type": "string"}}, "required": ["path"], }, }, }, { "type": "function", "function": { "name": "run_bash", "description": "在本機執行一條 shell 命令,返回 stdout+stderr", "parameters": { "type": "object", "properties": {"command": {"type": "string"}}, "required": ["command"], }, }, },]這段 JSON 寫着煩,但你可以把它想成:就是第二章那個"工具箱"介紹文本換成了機器可讀的格式。大模型之所以知道該怎麼調 read_file("foo.py"),就是因為它看到了這段 schema。3.4 把 while loop 改成 ReAct loop這一節是全文的關鍵,慢一點看。3.2 的 loop 是"用戶說一句、模型回一句"。現在我們要改成——"用戶說一句、模型可能來回用好幾次工具、最後給用戶一個答案"。差別就在中間多了一個內循環:import jsondef agent_turn(messages): while True: resp = client.chat.completions.create( model=MODEL, messages=messages, tools=TOOL_SCHEMAS, # 關鍵:把工具箱傳進去 ) msg = resp.choices[0].message messages.append(msg.model_dump(exclude_none=True)) # 模型沒要求調工具,說明它覺得可以直接回答了——跳出循環 if not msg.tool_calls: return msg.content or "" # 模型要求調工具:一個個執行,結果喂回去,然後下一輪 for call in msg.tool_calls: args = json.loads(call.function.arguments or "{}") print(f" [tool] {call.function.name}({args})") try: result = str(TOOLS[call.function.name](**args)) except Exception as e: result = f"[error] {type(e).__name__}: {e}" messages.append({ "role": "tool", "tool_call_id": call.id, "content": result, })你仔細看,這段代碼和第二章那個"三輪推理"的故事是一一對應的:client.chat.completions.create(...) —— 大模型思考if not msg.tool_calls: return —— 模型覺得夠了,直接回答for call in msg.tool_calls —— 模型要求行動TOOLS[...](**args) —— Agent 真的去執行messages.append({"role": "tool", ...}) —— 把驗證結果喂回去外層 while True —— 循環直到模型說"我夠了"Claude Code 整個核心,就是這 20 來行。後面所有的功能,都是在這個循環的基礎上往外加枝加葉。你把這段代碼吃透了,以後再去讀任何 Agent 框架的源碼,你都只是在問同一個問題:它的 while 循環裏,多塞了點什麼?另外有個很容易被忽略的細節:工具報錯,不能讓 loop 崩掉。所以 try/except 裏我們沒有拋異常,而是把錯誤字符串當成工具輸出喂回給模型,讓它自己去判斷這個工具調用成功了還是失敗了,下一步該怎麼辦。這一點反直覺但非常重要——錯誤是 agent 的下一個輸入,不是終止條件。3.5 把外殼拼起來最後把 3.2 的外循環接上 3.4 的內循環,就成了一個完整的 Agent 了:def main(): messages = [{"role": "system", "content": "你是一個運行在終端裏的編程助手。需要看文件或跑命令時就調工具。"}] while True: try: user = input("> ").strip() except (EOFError, KeyboardInterrupt): break if not user: continue messages.append({"role": "user", "content": user}) print(agent_turn(messages), "\n")if __name__ == "__main__": main()跑一把試試:> 看看當前目錄有哪些 python 文件,然後告訴我最大的那個是幹嘛的 [tool] run_bash({'command': 'ls -la *.py'}) [tool] read_file({'path': 'agent.py'})agent.py 是最大的文件(544 行),它實現了 ReAct 循環的主調度邏輯 ……你只說了一句話,它自己決定先 ls 一下、看到哪個最大、再 read_file 讀進來、最後給你總結。這就是 Agent。 就這麼回事。3.6 然後呢?到這兒,這篇的核心任務已經結束了——你有了一個能跑的 Agent。剩下的都是在這 100 行外面往外加功能、加健壯性、加用戶體驗的工作了。你完全可以停在這裏,自己想想還能加點什麼功能,或者改進哪裏不夠好,然後自己動手試試。但核心,始終是你剛剛寫的這 100 行。四、寫在最後如果這篇文章只讓你帶走一句話,我希望是這句:Agent = 一個 while 循環 + 一個 try/except。真的,就這麼簡單。你聽過的那些——Tool Use、ReAct、Multi-step、Agentic Workflow——全都是從這個結構上長出來的枝葉。等你把 mini.py 這 100 行吃透,以後再去讀任何 Agent 框架的源碼,你都只是在問同一個問題:它的 while 循環裏,多塞了點什麼?這篇只講了最核心的循環。真正讓 Claude Code 從"能跑"變成"好用"的那些東西,這篇裏我一個都沒提。比如:子 Agent:讓模型能在主 Agent 裏再開一個小 Agent 去專門處理某個子任務,主 Agent 和子 Agent 之間也是通過同樣的工具調用接口來通信的。Memory:讓模型能把一些重要信息(比如用戶的偏好、之前的對話內容、工具調用的結果)存到一個專門的記憶庫裏,後續需要的時候再調出來用。Hooks:在工具調用前後、或者模型生成回答前後,插入一些自定義的邏輯來增強功能或者改寫輸入輸出。Skills:把一些複雜的功能(比如寫代碼、總結信息、分析日誌)封裝成一個個技能。更多工具:比如 edit_file 讓模型直接改代碼,grep 讓模型在文件裏搜索關鍵詞,web_fetch 讓模型直接抓取網頁內容……這些都是在上面那個循環的基礎上加的功能而已。但它們都是在那個 while 循環的基礎上加的功能而已。你完全可以先把這個循環吃透了,後面再去看我倉庫裏那個稍微完整點的版本,看看我是怎麼加這些功能的。完整代碼和後續功能更新都在這個倉庫裏: my-claude-code:https://github.com/developerchengang/my-claude-code

完成

提示詞救命神器!拯救所有不會寫提示詞的人!!!

不會寫提示詞的有救了,只要你的工作涉及到寫提示詞,那這個工具你就一定用得到。這是一個一出現就登上github熱門排行榜的提示詞優化工具,目前已經斬獲26kstar,非常受歡迎,大家看下這個趨勢就知道它有多好用了。只需要把你寫的模糊的提示詞輸入進去 ,它就會立馬完成專業優化。你還可以選擇不同模型對比他們的優化效果,包括 OpenAI、Gemini、DeepSeek等主流 AI 模型全都有。不同行業所需要的文本、圖片、視頻的提示詞優化全在裏面。重點是完全開源免費,這絕對是提升你的AI回答質量最快最有效的方式。下面附地址:https://always200.com/

完成

這個 SKILL 專注把你的文檔和內容變得更好看和專業

這兩天看到一個我很喜歡的開源 SKILL:Kami (紙, かみ),才發佈 1 天已經有 3K Star⭐,可見其質量。它解決的是文檔排版和視覺設計的問題,內容重要,但內容的呈現,同樣重要。簡單的說,和其他 DESIGN.md 區別是: 它專門為文檔排版能力定製了一套主題規範,並且把文檔、文稿中的許多格式和細節都考量到了,保證給到你一份盡善盡美的視覺排版方案。還有更多排版規範,可以去網站上查看。它提供的是一套 AI 原生的文檔排版能力,適用於單頁文檔、簡歷、作品集、信函、長文檔、幻燈片等場景。比如說你需要產出一頁紙的報告,你需要寫一個白皮書、需要產出一個精緻的PPT、需要弄一個作品集的 PDF 發給別人等等,也就是任何排版的打印場景都可以使用,自動生成精緻PDF,裏面還具備自動繪製清晰圖的能力。從實際工作中的視角來看:當文案已經寫完,結構已經清楚,但為了交付,還要花大量時間調整字體、間距、分頁、封面、圖表清晰度、PDF 導出效果。尤其是做簡歷、作品集、提案 PPT、白皮書時,這些細節很耗時間。Kami 把這些工作前置成系統能力。你不需要從零開始搭版式,也不需要反覆微調導出設置,而是直接獲得一份有秩序、有審美、適合傳播的文檔結果。這種體驗,對內容創作者、設計師、產品經理、獨立開發者都會很有價值。我尤其喜歡它的幾個點,不同於通用性的 DESIGN.md第一,是定位非常清楚。它沒有試圖做一個什麼都能裝進去的平台,而是專注 Paper 排版場景:所有需要輸出成正式文檔的場景,都可以交給它。這種剋制感很難得。第二,是審美在線。作者提到自己喜歡簡潔、清晰、美觀的設計方案,但不喜歡現在千篇一律的 AI Design 風格。所以 Kami 的氣質不是模板感很重的“生成器產品”,而更像認真設計過的出版工具。這個差別,設計師會很容易感受到。第三,是它很符合 AI 時代的工作流。AI 負責生成內容,Kami 負責讓內容變得專業。這種分工很自然,也很高效。未來很多工具都會如此:不是替代思考,而是優化表達。如果你經常需要輸出 PDF、作品集、簡歷、報告、演示文稿,我建議你去看看 Kami。地址在這裏:網站:kami.tw93.fun倉庫:github.com/tw93/kami安裝與使用直接告訴 Claude 你要什麼,比如「幫我排版一份白皮書」「做一份簡歷」「幫我做一份作品集」,skill 會自動觸發,無需斜槓命令。# Claude Codenpx skills add tw93/kami -a claude-code -g -y# Codexnpx skills add tw93/kami -a codex -g -y另外附上作者 Tw93 的開源全家福最後不要說覺得不喜歡這套視覺、或者擔心千篇一律的設計,重點在於,它不只是單純的一個排版主題 Skill,它已經把所有細節細琢好了,端上桌了,給了你一把鏟子了,任何人都可以拿這份規範,定製自己的主題規範,應用到實際工作流中。 千人千面,不同的想法和審美,得到的結果自然是不同的。我是 Rico,感謝閲讀!

完成

Obsidian NewLife 功能升級:筆記帶天氣!

ℹ️Obsidian NewLife:數字化人生管理系統專為 Obsidian 打造的極簡、美觀且功能完備的筆記系統。#讓筆記更有序 #讓目標更明確 #讓習慣自然成 #讓生活更美好NewLife 1.1 更新概覽發佈日期:2026-04-24🚀 新增功能日記系統升級: 集成實時天氣模塊,在每日筆記中自動獲取氣象信息。🛠️ 細節優化交互效率: 默認開啓“顯示標籤頁標題欄”,大幅提升多筆記切換速度。界面精簡: 重新梳理側邊功能區圖標,隱藏低頻入口,聚焦核心操作。預覽體驗: 優化浮窗預覽邏輯,默認關閉預覽狀態下的橫幅顯示,呈現更多核心內容。核心功能解析1. 每日筆記:氣象信息自動化集成現在,當你創建“每日筆記”時,系統將自動抓取並嵌入當天的天氣狀況。設計初衷:在季節交替、氣温多變的季節,希望 Obsidian 不僅僅是一個冷冰冰的記事本,而是一個帶有温度的生活伴侶。一份隨筆記自動生成的提醒,旨在提示你關注環境變化,更好地照顧自己。細節打磨與優化1. 標籤頁標題欄:美感與效率的平衡在之前的版本中,為了極致的視覺純淨,默認隱藏了標籤頁標題欄。但在實際的多任務處理場景下,快速定位和切換筆記至關重要。優化邏輯:1.1 版本選擇默認開啓此項功能。左上角的導航按鈕與標籤頁標題,將顯著提升你在多篇筆記間穿梭的效率。我們認為,為了生產力的躍遷,犧牲極小比例的留白是完全值得的。💡自定義設置若你仍偏愛極致純淨的視覺效果,可通過以下路徑關閉:設置 -> 外觀 -> 界面 -> 顯示標籤頁標題欄 -> 關閉2. 功能區佈局重構:減少視覺干擾對側邊功能區(Ribbon)的圖標進行了優先級重排,並將部分低頻功能移出視線。調整細節:高頻優先: 將“主頁”與“日記”等核心入口置於頂部最易觸達區域。深度精簡: 默認隱藏了 BRAT 和 Pixel Banner Menu 圖標。說明:BRAT: 仍可通過插件設置界面使用 Add beta plugin 功能添加新插件。Banner 設置: 在筆記頁面左上角點擊“小紅旗”圖標即可進行橫幅配置。💡自由配置若需恢復顯示或自定義圖標順序,請前往:設置 -> 外觀 -> 功能區 -> 點擊 管理 按鈕。3. 浮窗預覽優化:內容展示最大化在筆記預覽(Pop-over Previews)狀態下,默認關閉頂部橫幅顯示。改進點:去除佔位較大的橫幅圖片後,浮窗能夠在有限的屏幕空間內展示更豐富的正文信息,減少滾動操作。💡恢復顯示若希望在預覽時保留橫幅,請前往:設置 -> 第三方插件:Pixel Banner -> 開啓 Show Banner in Popover Previews。開啓你的 NewLifeObsidian NewLife 不僅僅是一套筆記模板,更是對“數字化人生管理”的深度思考與實踐。如果你也追求極致的筆記美學與高效的行動系統,歡迎加入我們。📄即刻獲取 NewLife探索詳情: 點擊下方連結,預覽 NewLife 全套設計哲學與功能模塊。專屬獲取: 限時特惠下單即可獲取最新版本,開啓高效人生!讓每一條筆記都成為通往更好生活的階梯。Obsidian NewLife 人生數字系統

完成

【保姆教程】我用 Obsidian +hermes搭了一個會自己整理的知識庫

先關注後閲讀,嬌姐怕失去上進的你文末嬌姐整理openclaw或者hermes所有文章連結想了解嬌姐點擊文末連結你手機備忘錄裏有多少條筆記?飛書文檔裏存了多少篇?瀏覽器書籤欄收藏了多少"以後再看"的文章?我猜你的回答是:不少。但如果我問你:上個月學到的最有價值的一個方法論是什麼,你能在 30 秒內找到它嗎?大概率不能。這就是大多數人的現狀:筆記記了一大堆,但知識沒有沉澱。 記了等於沒記,因為你根本找不到、用不上。問題出在哪?不是你不夠勤快,而是你缺一個系統。今天這篇文章,我把自己從 0 到 1 搭建個人知識庫的完整過程寫出來。不是那種"推薦你用 XX 工具"的水文,而是一篇你照着做就能跑起來的實操教程。重點:這個知識庫有一個特別的能力——它會自己整理。你只管往裏扔東西,AI 幫你分類、整理、歸檔。一、工具選型:為什麼我選了 Obsidian市面上筆記工具太多了。我幾乎都用過一遍,最後留下了 Obsidian。先說結論,再說原因。主流工具對比Obsidian ★ 推薦數據存儲本地 MD 文件AI對接極低(AI 直接讀寫文件)費用完全免費適合個人知識庫、長期積累Notion數據存儲雲端數據庫AI對接高(需要 API)適合團隊協作、項目管理飛書文檔 / 語雀數據存儲雲端AI對接高(需開放平台 / API 受限)適合企業辦公、團隊知識庫Logseq數據存儲本地 MD 文件AI對接低,但大綱格式 AI 解析較麻煩適合大綱式筆記、日記我選 Obsidian 只有一個核心原因:所有筆記都是本地的純文本 Markdown 文件。這意味着三件事:第一,數據永遠是你的。 不依賴任何雲服務,不怕產品倒閉、不怕漲價、不怕被封號。你的筆記就是電腦上的一堆 .md 文件,用記事本都能打開。第二,AI 可以直接讀寫。 這是最關鍵的。Notion 的數據鎖在數據庫裏,AI 要操作它得走 API,配置複雜。但 Obsidian 的筆記就是文件,AI Agent 直接讀文件、寫文件就行,零門檻。第三,文件夾就是目錄結構。 不需要學什麼"數據庫視圖""關聯屬性",文件夾怎麼建,知識庫就怎麼組織,所見即所得。提示:Obsidian 是目前 AI Agent 最容易操作的筆記工具,沒有之一。二、從 0 搭建:手把手教你第 1 步:下載安裝去 Obsidian 官網(obsidian.md)下載,Windows / Mac / Linux 都支持。安裝後它會讓你創建一個"倉庫"(Vault)。倉庫本質上就是一個文件夾。 Obsidian 會把這個文件夾裏所有的 .md 文件當作筆記來管理。建議放在非系統盤,方便備份。第 2 步:設計目錄結構這是整個知識庫最重要的一步。 很多人裝了 Obsidian 就直接開始記筆記,三個月後又亂成一團。目錄結構是地基,地基不對,後面全白搭。我用的是 PARA 方法的變體,在四個基礎分類上加了收件箱、內容生產區和系統控制層:目錄結構D:\zhishiku\├── 00_Inbox\ ← 收件箱,新內容先扔這裏├── 01_Areas\ ← 持續維護的領域(無截止日期) ├── AI學習\ ├── 自媒體運營\ └── 個人成長\├── 02_Projects\ ← 有截止日期的項目├── 03_Resources\ ← 參考資料庫(AI 檢索主區域) ├── AI工具\ ├── 工作流\ ├── 行業資訊\ └── 書籍課程\├── 04_Content\ ← 內容生產流水線 ├── 選題庫\ ├── 草稿\ ├── 已發佈\ └── 素材庫\├── 05_Archive\ ← 已完結歸檔└── 00_System\ ← 系統文件(AI Agent 專用) ├── _INDEX.md └── _TEMPLATES\每個區域的核心邏輯:① 00_Inbox 收件箱整個系統的入口。任何新東西全部先扔這裏,不用想分類、不用整理格式。"分類"這個動作會產生摩擦,收件箱消除了這個摩擦。② 01_Areas 領域你持續關注的方向,沒有截止日期,長期維護。比如"AI 學習"是一個你會一直關注的領域,不是做完就結束的。③ 03_Resources 資料庫知識庫的核心區域,也是後續 AI Agent 主要檢索的地方。工具教程、工作流方法論、行業資訊、讀書筆記都在這裏。④ 04_Content 內容生產如果你做自媒體,這個區域就是你的內容流水線。選題 → 草稿 → 已發佈,三段式管理。不做自媒體可以不建。⑤ 00_System 系統層專門為 AI Agent 設計。裏面有 _INDEX.md——AI 進入知識庫的"說明書",後面詳細講。提示:文件夾名前面加數字(00、01、02...)是為了控制排序。Obsidian 默認按字母排序,加數字後目錄順序固定,不會亂跑。第 3 步:給每篇筆記定一個標準格式(Frontmatter)在 Obsidian 裏,每篇筆記頂部可以寫一段叫 frontmatter 的信息,它讓每篇筆記變成一條"數據庫記錄",AI Agent 可以按條件過濾筆記。YAML Frontmatter 示例---title: YouTube 長視頻工作流date: 2026-04-23tags: [YouTube, 工作流, 自媒體]area: 自媒體運營status: donesource: 本地文件遷移---status 的流轉邏輯:draft(剛寫的草稿)→ done(整理完畢)→ archived(不再活躍)。你不需要記住這些,後面用模板自動生成。第 4 步:創建筆記模板在 00_System/_TEMPLATES 文件夾裏創建三個模板文件:筆記模板.md(用於 01_Areas、03_Resources)---title:date: {{date}}tags: []area:status: draft---## 這篇解決什麼問題## 核心內容## 行動/參考正文結構用的是"問題 → 核心內容 → 行動"三段式,這個結構會自然導向"這條信息解決什麼問題、對我下一步有什麼用",而不只是摘錄。在obsidian配置模版:第 5 步:安裝三個必備插件安裝路徑:設置 → 第三方插件 → 關閉安全模式 → 瀏覽 → 搜索 → 安裝 → 啓用。插件① Templater(模板引擎)作用:新建筆記時自動套用模板,frontmatter 日期自動填寫當天。配置:在 Folder Templates 裏為每個文件夾配置對應模板,之後新建文件自動套用。插件② Dataview(數據查詢)作用:像數據庫一樣查詢你的筆記。裝好即用,無需額外配置。示例:在筆記裏寫查詢語句,可列出所有 status=done 的完成筆記,或按日期排序全部資料。插件③ Smart Connections(AI 語義搜索)作用:用自然語言對着知識庫提問,AI 找到最相關的筆記並回答,不是簡單的關鍵詞匹配。配置:安裝後選擇 embedding 模型(推薦 Claude API 或本地 Ollama),首次運行掃描倉庫建立向量索引。第 6 步:寫一個 AI 能讀懂的索引文件(_INDEX.md)這是整套系統最關鍵的設計。 這個文件是 AI Agent 進入你知識庫的"說明書",寫清楚每個目錄是幹什麼的、命名規範、分類判斷邏輯。最核心的部分是一棵分類判斷樹,AI Agent 拿到一篇內容後,按順序走:_INDEX.md 分類判斷樹1. 有截止日期、有明確目標的事? → 是 → 02_Projects2. 要發佈的自媒體內容? → 是 → 04_Content/對應子目錄3. AI 工具的教程、測評、使用心得? → 是 → 03_Resources/AI工具4. 可複用的工作流程或方法論? → 是 → 03_Resources/工作流5. 行業資訊、趨勢、新聞? → 是 → 03_Resources/行業資訊6-8. 讀書筆記 / 運營策略 / AI學習... → 對應 Resources 或 Areas 子目錄9. 以上都不確定? → 先放 00_Inbox,備註原因AI Agent 讀完這個文件,就知道把內容放到哪裏、用什麼格式、怎麼命名。三、日常使用:只有三個動作搭完之後,日常用起來非常簡單:① 有任何新東西 → 扔 00_Inbox看到好文章、學到新方法、突然冒出的想法,全部先扔進 Inbox。不用想分類,不用整理格式,甚至可以只寫一句話。先存進來,這是最重要的。② 每週清理一次 Inbox這個動作後面會交給 AI 自動完成。即使手動做,也很簡單:打開 Inbox 裏的文件,按分類判斷樹決定放哪裏,移過去就行。③ 要寫內容 → 去 04_Content/草稿 新建模板自動套上,frontmatter 自動填好,直接開始寫。重點:系統的價值在於把"整理"這個最費時間的環節,從你身上拿走了。四、舊內容怎麼遷移原則:不要追求一次遷移完。先把新內容的流程跑通,舊內容慢慢遷。飛書筆記:文檔 → 右上角"..." → 導出 → Word → 下載,用 Pandoc 轉成 .md 文件,全部扔進 Inbox,後續讓 AI 批量整理。本地文件:.md 文件直接複製進對應文件夾;Word、PDF 等先扔 Inbox,後續手動或 AI 整理。手機備忘錄:複製內容 → 在 Obsidian 手機端新建筆記 → 粘貼進 Inbox(iOS/Android 客戶端均有,可用 iCloud 或 Syncthing 同步)。瀏覽器收藏夾:大部分你再也不會看了。建議只遷移你確定有價值的,不要全量導入。五、接入 AI Agent:讓知識庫自己整理前面四個部分,你已經有了一個結構清晰的知識庫。但"整理"這個動作還是需要你手動做。接下來是這套系統的核心升級:讓 AI 幫你整理。我把 AI 對接分成三個階段,從最簡單到最高級,你可以根據自己的情況選擇從哪裏開始。階段一:手動指令模式(零配置,現在就能用)不需要任何技術基礎。在任意 AI 工具(ChatGPT、Claude、豆包、Kimi 都行),把內容粘貼給它,發送這段提示詞:整理筆記提示詞請幫我把以下內容整理成結構化筆記。要求:1. 頂部加上 frontmatter(title/date/tags/area/status/source)2. 正文結構: - 這篇解決什麼問題(一兩句話) - 核心內容(保留所有細節) - 行動/參考(下一步可以做什麼)3. 保留所有步驟、示例、數據,不要刪減以下是原始內容:[粘貼你的內容]AI 返回整理好的筆記後,複製到 Obsidian 對應目錄的新文件裏。優點是零門檻,缺點是需要手動複製粘貼。階段二:AI 直接讀寫知識庫(半自動)讓 AI Agent 直接訪問你電腦上的文件,自己讀取 _INDEX.md 瞭解規則,自己判斷分類,自己創建文件寫入。推薦 方案 A:用 Claude CodeAnthropic 出的命令行工具,可直接操作本地文件。安裝好後在終端輸入一句話:"讀 _INDEX.md,幫我清理 00_Inbox,把裏面的文件分類整理到對應目錄"。全程只需說一句話。 Claude Code 會自動讀規則、掃描文件、判斷分類、寫入目錄、更新索引。進階 方案 C:用 Hermes AgentNous Research 出品的開源 AI Agent 框架,通過 MCP filesystem 掛載知識庫路徑。你可以在飛書、釘釘、Telegram 裏說"整理到知識庫",它自動執行完整流程。特別優勢:支持定時任務(每天自動清理 Inbox),跨平台觸發,不需要打開電腦。階段三:LLM Wiki 模式(最高級)Andrej Karpathy(OpenAI 聯合創始人)提出了一個更激進的想法:不是讓 AI 在你查詢時檢索筆記,而是讓 AI 主動整理筆記,生成結構化的 wiki 頁面,頁面之間自動交叉連結。舉個例子:你往知識庫裏扔了 10 篇關於"公眾號運營"的筆記。普通模式:10 篇筆記靜靜地躺在那裏,你需要的時候自己去翻。LLM Wiki 模式:AI 自動提取關鍵概念(選題方法、標題公式、數據指標),為每個概念生成獨立 wiki 頁面,頁面之間自動雙向連結。再扔進來新筆記,AI 自動合併進已有頁面。重點:知識庫越用越乾淨,而不是越堆越亂。這就是 LLM Wiki 和普通筆記的本質區別。LLM Wiki vs RAG 對比RAG(檢索增強)AI做什麼你問才找,從筆記裏檢索相關片段筆記狀態原始筆記堆積,靠檢索找內容適合快速查找已有內容LLM Wiki(主動整理)AI做什麼主動整理,生成概念頁面,自動連結筆記狀態知識持續精煉,自動交叉連結適合長期知識積累,產生複利效應理想的最終形態:① 原始輸入 → 00_Inbox所有新內容統一入口,不管格式② Agent 自動分類整理(階段二)讀 _INDEX.md → 走判斷樹 → 寫入對應目錄③ LLM Wiki 提煉概念、生成雙鏈(階段三)概念自動提煉,知識網絡自動生長④ 圖譜視圖 + 語義檢索知識網絡可視化 + 自然語言提問,知識庫從"存儲工具"變成"思考夥伴"六、這套系統到底解決了什麼之前筆記散落在飛書、本地、手機,找不到現在統一在 Obsidian,結構清晰之前記了就忘,用不上現在結構化存儲 + 語義檢索,隨時可查之前整理筆記太費時間現在AI 自動分類整理,我只負責扔之前知識是孤島,無法關聯現在LLM Wiki 自動生成雙鏈,知識網絡可視化之前擔心數據安全、產品倒閉現在全部本地存儲,不依賴任何雲服務總結這套系統的核心邏輯只有一句話:重點:降低存入門檻,提高取用效率,讓 AI 負責中間的整理。你不需要是技術大佬。Obsidian 免費,插件免費,AI 工具越來越便宜。整套系統的啓動成本幾乎為零。唯一需要你做的,是養成一個習慣:有東西就扔 Inbox。剩下的,交給 AI。hermes系列文章持續更新,建議每篇認真閲讀【不推薦用官方命令】Windows 環境下安裝Hermes及遷移Openclaw的實操分享借鑑劉小排的 BuilderPulse :我用 Hermes 發現值得看的github項目Hermes 入門到實操中文文檔【Hermes整理】OpenClaw 變現項目地圖:6 大賽道Hermes 裝好之後,我最建議先做的 8 個實操動作我把 OpenClaw 的 Agent 無縫遷移到了 Hermes——就靠這一份 Skill借鑑 Hermes 優化 OpenClaw:讓你的 AI 學會記、會覆盤、會巡檢openclaw系列文章持續更新,建議每篇認真閲讀配置與理解徹底搞懂 OpenClaw 配置體系:這才是 AI Agent 的正確打開方式【不推薦用官方命令】Windows 環境下安裝Hermes及遷移Openclaw的實操分享我的個人成長助手Agent罷工了,Claude max定位總結的這幾點分享給大家【今天不聊STBI測試】我用OpenClaw搭了一個自動抓多公眾號、AI整理、發飛書的Agent,核心就這四步OpenClaw openclaw.json 全量小白教程:一篇講清每個配置項的作用你在飛書或者微信發了句"你好",OpenClaw 到底花了多少 Token?詳細指南 微信插件支持OpenClawOpenClaw龍蝦如何自我糾錯 5步自我迭代法【網友都說賊好看】我讓openclaw開發了一個自己的交互式說明書別被騙,OpenClaw 可以 24 小時幹活——但你得先做對這 6 件事火了三個月的"龍蝦",普通人裝了真的有用嗎?用 OpenClaw 把 AI 失憶治好:開關、精簡、外掛三步走OpenClaw 命令完整手冊OpenClaw 到底怎麼跑?部署方式與玩法全景如何申請 Brave Search API 密鑰並配置 OpenClaw大白話講清楚OpenClaw的記憶術OpenClaw 長任務必讀:用 Sub-Agent 隔離上下文,token 消耗降 85%OpenClaw 省 Token 實操手冊:八個維度,節省 60–90%OpenClaw 曲線救國:通過 CLI 後端使用 Claude 模型飛書跟openclaw集成實操教程【該文為openclaw輸出】OpenClaw超簡單且免費的安裝實操教程多 Agent 與協作OpenClaw 多 Agent 協作實戰完全教程OpenClaw 多代理配置指南:讓 AI 團隊幫你同時幹多件事技能與工具OpenClaw 官方 53 個技能完整指南:功能詳解 + 風險評估 + 安裝建議【GitHub Skill 】 OpenClaw多Agent交付給客戶的流程Skill這個 Skill 太適合“小白摸魚式”情報蒐集了:不用 API Key,直接把 Reddit 變成你的選題庫【免費領取】7套不同賽道風格公眾號排版Skill(有效果圖)12類人羣必裝的OpenClaw Skills不寫代碼,如何讓 OpenClaw Agent 學會新技能實戰與案例本地部署 OpenClaw 自動發佈公眾號:小白完整教程本地部署 OpenClaw 自動發佈小紅書:小白完整教程我用 OpenClaw,把孩子學習情況整理成能長期追蹤的學情檔案【實操分享】OpenClaw多文檔多輸入源筆記整理Agent搭建【保姆教程】OpenClaw作業錯題分析師,每個家長都可以學起來OpenClaw 完全指南:從零搭建你的 AI 員工團隊看看這個龍蝦速度,就知道這OpenClaw有多火,速度跟上OpenClaw 完全指南:從零搭建你的 AI 員工團隊OpenClaw 實戰:從0到1搭建你的雲端AI工作流我的OpenClaw 多Agent 會主動發來 “上班打卡”OpenClaw 實戰操作指南:12大熱門應用案例詳細教程我的openclaw龍蝦開始自己賺錢了用上了openclaw,跟telegram能雙向通信了排錯與安全OpenClaw 排錯指南OpenClaw 龍蝦玩家的安全指南關於嬌姐40+ IT 從業者,前榮耀員工,現專注 AI 效率工具研究與實踐。持續輸出 OpenClaw 及 AI 工具的乾貨教程與落地案例,偶爾分享職場思考與生活感悟。高考的堅持與感恩:我心中的那座橋,跨越了命運40 + IT女從榮耀離職:找工作碰壁、陪娃焦慮的日子裏,我靠 AI 公眾號找到了自我提示:覺得有用,點贊、關注、轉發,是我持續創作的動力。

完成

image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!

大家好,這裏是K姐。一個幫助你把AI真正用起來的女子。最近Image2出圈了,網上梗圖滿天飛。蘋果CEO庫克前腳剛代言了華為。後腳就當上了小米集團副總裁,還兼任了小米汽車CEO,微博官方截圖都搞出來了。搞得小米高管緊急闢謠。上面的梗圖都是Image 2生成的,這波生圖能力確實夯爆了。Lovart 也準時更新了Image 2,會員無限免費30天。趁着這波會員免費,我趕緊跑了5個真實 case,從專業設計師到品牌營銷人到普通AI玩家,覆蓋多種需求場景,360度無死角地摸一摸 Lovart Image 2 的底。實測Lovart Image 2Case1:咖啡品牌方案先測一個專業設計師經常遇到的場景,給一個精品咖啡店“山野咖啡”做品牌海報。客戶啥都沒有,就給了個名字和三天時間。這種情況設計師小夥伴是不是太熟了,擱以前,得先翻三天 Pinterest 找參考,再做 moodboard,再出主視覺,再選字體,再調延展……現在,打開Lovart,扔一句話進去:為精品咖啡品牌“山野咖啡”生成品牌主視覺海報。畫面規格:4:5豎版,3000×3750像素,印刷級300dpi。-構圖要求:中心偏下三分之一處放置手衝咖啡特寫,杯口徑8cm比例呈現,咖啡表面有細膩油脂紋理;-背景:為日式町屋木質格柵窗景,窗外虛化綠植伸入畫面左上象限,形成前景-中景-背景三層景深(f/2.8等效淺景深)。-光線:上午10時側窗自然光,色温5200K,在咖啡表面形成柔和高光點,木質桌面投射15°角陰影。文字規範:主標題“山野咖啡”須以真實毛筆行書呈現,墨色濃淡變化符合運筆邏輯,起筆處略枯、收筆處自然飛白;-標題位置:於畫面上三分之一留白區,與綠植形成對角線呼應。文字須與畫面產生物理交互——“野”字末筆須似有咖啡熱氣氤氲而上,墨色與蒸汽暖調形成微量暈染,證明文字是“生長”於場景中而非後期疊加。-色彩管理:基底暖米白#F5F0E8,深焙棕#3E2723用於文字與桌面暗部,綠植僅作點綴。全局去飽和處理,模擬富士膠片Provia 100F色彩科學。-輸出要求:零AI文字邊緣鋸齒,零浮空感,零數字鋭化痕跡,印刷廠可直接出菲林。▲上下滑動查看全文Image 2 果然懂了什麼叫氤氲而上,光影和氛圍感都處理的很棒。放大300%看“山野咖啡”四字邊緣,看到真實毛筆纖維紋理與木質桌面纖維的咬合,而不是矢量描邊。起筆處的枯墨、收筆處的飛白,跟背景5200K側光形成的陰影方向完全一致。但這還沒完。我順手點開字體生成器,把剛才生成的照片上傳進去。三分鐘,一套“山野咖啡”專屬字庫出來了。這個手寫體生成後,是可用於品牌商標註冊的真實書寫資產,別處買不到的。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏K姐研究社已關注分享視頻,時長00:370/000:00/00:37 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:3700:37倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計! 觀看更多原創,image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!K姐研究社已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 然後Brand Kit一建,Logo、色板#F5F0E8/#3E2723、專屬字體全鎖進去。後續菜單、杯套、包裝袋往這個項目一掛,出來的圖自動帶品牌規範,跨批次色彩誤差<ΔE 1.5,達到Pantone色彩管理標準,風格漂移?不存在的。最後Multi-Angles一拖,3:4(小紅書)、9:16(抖音)構圖一鍵切換。客戶說要個朋友圈封面,十秒搞定,不用重新跑圖。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏K姐研究社已關注分享視頻,時長00:180/000:00/00:18 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1800:18倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計! 觀看更多原創,image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!K姐研究社已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 以前三天的工作量,現在一個下午。而且交付的不是零散幾張圖,是一套有規範、能延展、色彩可溯源的品牌系統。Case2 :咖啡品牌抖音直播帶貨切片直接給我們case1的山野咖啡,安排上直播帶貨切片圖。以前這種切片流程一般是拍視頻,剪片段,加字幕,調特效,一條片子搞半天。現在直接給Lovart甩提示詞:生成抖音直播帶貨切片動態海報,畫面規格:9:16豎版,1080×1920像素,視頻截幀質感。產品:掛耳咖啡包。構圖:上下分割敍事——上60%為產品英雄鏡頭,左側主播手持產品特寫,右側直播間UI覆蓋層;下40%為抖音原生直播界面,含實時銷量計數器"已售1,000,000+杯"(等寬字體確保數字跳動對齊)、限時倒計時"23:59:59"(冒號垂直居中)、彈幕區滾動真實用戶評論("終於搶到了""這味道上頭")、底部"立即搶購"按鈕(圓角8px,陰影0 4px 12px rgba(0,0,0,0.15))。UI精度要求:所有元素嚴格匹配抖音直播8.2.0版本原生規範——銷量徽章圓角4px、角標紅色#FF2442、用戶頭像40px圓角、時間戳格式"2分鐘前"。主播表情自然,像真實直播間截圖,去AI味。畫面有輕微動態模糊,像視頻截幀。文字層須支持後期動態跟蹤,各UI層獨立分離。▲上下滑動查看全文Image 2大約3分鐘直接出圖,一眼看過去,這誰分得清真假。我們再來抓抓細節,逐像素檢查一下,“已售”數字是等寬字體、倒計時冒號是垂直居中、彈幕滾動速度感匹配抖音60fps流暢度,都沒毛病。價格標籤的字體、秒殺倒計時的數字樣式、商品櫥窗的佈局,跟真實抖音直播幾乎一致。看起來像,細節也對得上,可以的。然後重點來了,我在Lovart畫布內,可以直接文字描述,給女主播換衣服。先給主播換套新中式服裝。再把銷量提升提升,直接從100萬杯,幹到900萬杯。不管是速度,還是質量都是抗打的。還能在 Lovart一站式生成直播視頻,直接選擇seedance2。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏K姐研究社已關注分享視頻,時長00:050/000:00/00:05 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:0500:05倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計! 觀看更多轉載,image 2 不限量生圖來了,我用 Lovart 爽玩全棧 AI 設計!K姐研究社已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 Case3:咖啡品牌素人小紅書種草圖直播搞定了,再給咱們山野咖啡安排一下小紅書種草。做品牌的朋友都懂,現在種草圖最怕什麼?怕假。怕AI味兒。皮膚磨得像瓷娃娃,光線打得像舞台燈,這種一眼假,是抓取不到用戶注意力的。那如果拿到這種需求你怎麼辦:要六張素人咖啡種草圖,六個場景、要求像朋友隨手拍的,別讓人看出是AI。提示詞我是這麼寫的:生成6張真實用戶生成內容(UGC)風格咖啡種草照片,畫面規格:1080×1440像素(4:5),72dpi模擬手機原生壓縮質感。場景設定:1)卧室梳妝枱,背景雜亂化妝品收納,鏡面反光帶指紋油漬,主光源右側枱燈+左側窗户混合光,色温不一致;2)地鐵車廂,手持咖啡杯,背景動態模糊,頭頂熒光燈頻閃感,膚色受車廂壁反光影響;3)辦公室工位,鍵盤咖啡杯便利貼入鏡,頂光+屏幕反光造成面部明暗分割;4)户外咖啡館露台,午後3點自然光,樹影斑駁投射於面部,iPhone過曝特徵;5)大學圖書館,頂光熒光燈+桌面枱燈混合,書堆形成背景景深,素顏感底妝;6)陽台曬太陽,午後側光,衣物褶皺自然,背景虛化含城市天際線。核心技術要求:iPhone 14 Pro原生相機美學——高光輕微過曝、陰影 lifted blacks、自然皮膚紋理含可見毛孔與細紋、無美顏磨皮、真實黑眼圈紋理、碎髮飄散。光線須為有機混合:室內熒光+窗光、正午硬光+長影、黃金時段暖調。色彩模擬iPhone攝影風格,標準處理,輕微去飽和。產品整合:咖啡杯須為自然手持狀態,非居中構圖,杯壁含真實指紋油漬與冷凝水珠。禁止影棚布光、禁止模特擺拍僵硬感、禁止構圖完美對稱。瑕疵為強制要求。輸出:平台算法不可識別為AI生成,評論區用戶詢問"用的什麼濾鏡"為合格標準。▲上下滑動查看全文Image 2 生成的圖,這誰看得出來是 AI 生成的!放大一張給夥伴們看看這光影、這皮膚質感,連頭髮絲都那麼真實。我發羣裏讓朋友猜,一半人說看不出是AI生成的。但這單活兒還沒完。客戶說,“加個小紅書界面上去,要像真的截圖”,直接在對話框輸入客戶訴求,3分鐘搞定。看看整體效果。當然你也可以換成Instagram界面,同樣操作。反正我是分不出真假了。Case4:90年代復古這個case純屬我自己想玩。最近復古風很火,我想做套90年代年鑑照片,九張不同造型,統一色調,發朋友圈。擱以前,我得一張一張生成,調風格,拼九宮格,風格還容易跑偏。Lovart的無限畫布一次性出九張,我先扔提示詞:生成9張90年代風格年鑑照片,統一復古暖色調,畫面規格:1080×1080像素(1:1),模擬富士Superia 400膠片色彩科學, lifted blacks + 輕微褪色。每張為不同亞洲年輕人,穿搭涵蓋:牛仔外套、格子襯衫、運動套裝、揹帶褲、花裙子、皮夾克、衞衣、條紋T、工裝褲。技術要求:每張照片有真實膠片顆粒(ISO 400噪點特徵)、邊緣暗角(鏡頭漸暈)、日期戳"1997.03.15"等寬字體模擬底片打印。部分照片含手寫字標註,如"高三二班""春遊",須以真實圓珠筆/鋼筆筆跡呈現,墨色滲透入相紙纖維,與膠片褪色質感統一。人物表情自然,像同學錄照片,去AI味。九張風格統一,像同一個人的相冊系列,禁止單張色彩偏移超過ΔE 5。▲上下滑動查看全文這次先看手寫體,放大看“高三二班”四字,這也太真了吧。手寫字不是浮在畫面上,真的像寫在照片上的,還有這醜萌醜萌的字體,簡直跟我同桌的一模一樣了。直接拿這九張圖去發小紅書,配文:爸媽早年逆天顏值。猜猜能有多少贊?Lovart還可以用無限畫布加上Text Edit,批量出圖,靈活改字,秒變社媒內容量產的神器。 就比如,把王磊,改成李國強。手寫字體都保持不變,牛的。Case5 :亞馬遜多語言電商方案最後一個case,跨境電商的朋友找我,要四國語言版本的產品圖,英文日文韓文中文,還要適配亞馬遜,最後交PSD。我一段提示詞扔進去:為便攜式咖啡機生成亞馬遜A+內容主圖,-畫面規格:3000×3000像素,純白背景#FFFFFF,產品投影角度135°、模糊半徑8px、不透明度25%。-佈局規範:嚴格遵循亞馬遜A+模塊標準——產品主體佔畫面左60%,右側40%為三層信息層級區。-多語言並行生成:同步輸出英/日/韓/德四版本,每版本須採用文化適配字體——英文用San Francisco Bold,日文用遊明朝體(Yu Mincho)且允許豎排標題,韓文用Nanum Gothic並優化字間距至1.2倍行高,中文用思源黑體Heavy。各版本文字不得僅為翻譯替換,須為本地化排版重構。-畫面元素層次清晰:前景產品層/中景信息層/背景純淨層分明,便於後期拆分。使用Amazon Skill規範尺寸和佈局。▲上下滑動查看全文Image 2的多語言渲染,我先做排版驗貨。日文版本用了正確的遊明朝體W6字重,字間距沒有擠在一起;韓文版本字間距1.2倍行高,符合韓國電商視覺規範;英文標題San Francisco Bold的粗細對比有設計感;中文思源黑體Heavy的字面率92%,與英文基線對齊。 不是那種把中文硬套上去的違和感。Text Edit改字的時候,我把日文“充電式”改成“急速充電”,遊明朝體的字重、行距、字面率全部保留。文字替換真的是很方便了。然後Mockup一鍵貼進亞馬遜PC端/移動端/App三端預覽,驗證信息層級可讀性,產品主體60%佔比未侵入文字安全區,三層信息層級符合亞馬遜A+視覺動線,可以說是相當省心了。以前AI出圖最大的尷尬是沒有PSD,客戶一問你就傻眼。現在Lovart一鍵導出分層PSD,每層獨立命名,位置和畫布上完全一致,印刷廠可直接出CTP製版。Lovart確實是懂設計師的痛點的。一些分享我測了這麼多AI設計工具,說實話,單論生成一張好看的圖,很多工具都能做到。但設計工作不是到生成就結束了,你要改字、調排版、出多語言版本、貼樣機、拆圖層、交源文件,還要保持品牌一致性。每一個環節卡住,前面的創意都白搭。Image 2解決的“生成”,而Lovart解決的是“交付”。現在Lovart的Pro會員可以無限量免費使用Image 2。我的建議是:別光看,去用。跑幾個你自己的case,感受下,就都懂了。一張圖是消耗品,一套能交付的系統才是資產。AI終於開始幫設計師積累資產,而不是製造垃圾。🔗 官網:https://www.lovart.ai/作者:洛洛&K姐投稿郵箱:tougao@kseek.ai

完成

剪映Agent終於來了!AI自動剪輯~【小白必備】

雷猴啊朋友們!!說話就能剪輯你敢信?剪映出Agent了!一鍵成片、AI轉場、AI剪口播、AI旁白、AI生圖生視頻... 等等很多很嚇人的功能 ~ 真的,剪映已經不能說是一個純粹的剪輯軟件了,它現在是一個集AI生成和剪輯為一體,還能用AI操作這一切的新物種!好吧,點好收藏關注贊, 一起了解創作新範式!介紹其實剪輯,原來真的是一門專門的高級技術。光是會用那些複雜的剪輯軟件,就是一個門檻,再想做一點酷炫的效果,這是真的要學兩年~而剪映,其實一直在致力於降低這個門檻。只是沒想到他有這麼大的野心,把剪輯的操作門檻,降到了一個“點”,這是一個AI對話框!這個框背後,是一個可以調用剪映成千上萬的模版、功能,並且可以理解你的素材、理解你語義的多模態Agent! 接下來一起來看看! 實測2.1 批量操作:把重複活兒丟給 AI對用戶來說,Agent 最基礎的能力,就是幫你解放那些重複性動作:剪口播、調音量、改畫幅、加字幕...這些不難但很費時的事,現在都可以交給 AI。2.1.1 剪口播比如這條帶髒話的視頻,一句話剪掉所有髒話~ 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:150/000:00/00:15 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1500:15倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多原創,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 我直接說了一句提示詞,十幾秒就剪好了~ 把所有說了god damn的地方剪掉 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:140/000:00/00:14 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1400:14倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 想象一下一條几小時的採訪,或者批量出幾十條切片視頻,這能省多少事~當然,電影那種細緻到幀的剪切感,它現在應該還做不到,但在粗剪階段的批量操作上,它真的已經很能打了~2.1.2 調節音量素材音量忽大忽小,一句「把所有片段音量調到一致」就搞定。這簡直就是 Vibe Cutting(氛圍剪輯)啊~2.1.3 字幕翻譯以前追美劇、追日本番劇,大家都得苦哈哈等字幕組出熟肉。那現在這個剪映Agent就是你的字幕組~比如說我節選了一段喬布斯的英文演講,也是一句提示詞, 識別字幕並生成中文 它一口氣做完了轉寫、翻譯、雙語字幕排版,準確度還不錯。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長04:090/000:00/04:09 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/04:0904:09倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.1.4 添加效果找工具的活兒也能交出去。 剪輯師除了剪,還有很大一部分時間花在找東西上:找工具、找功能、找模板,現在可以讓 AI 幫你找了~比如這段原始的視頻, 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:100/000:00/00:10 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1000:10倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 一句話提示詞, 給這一段視頻添加酷炫的反轉片效果 它自己就找到了並應用到片段上,最後微調一下參數就成了。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:100/000:00/00:10 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1000:10倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.2 模糊指令有的朋友是剪輯小白,甚至不知道什麼叫反轉效果。沒關係,模糊的指令也能處理。2.2.1 一鍵包裝比如你拍的東西本身很有意思,但不會剪輯。你直接說, 幫我做一個合適的包裝 音效、動畫、大字一整套東西,都在正確的時間、正確的畫面位置上編輯好了。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:250/000:00/00:25 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:2500:25倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 不算多精緻,但那個味兒屬實是出來了~2.2.2 一鍵旁白就算素材沒台詞也沒關係,可以讓它根據視頻內容生成旁白。 幫我製作一條視頻文案 它會自己識別畫面,用 AI 寫出對應的文案。文案確認後,你再挑個音色,旁白就好了。2.2.3 一鍵Vlog更誇張的,十幾條沒什麼邏輯的素材丟給它,只說一句「剪個 vlog」。出來的效果真的有剪輯線索:先出發、再上路、然後遊覽,字幕、音樂、轉場也都是它自己配的。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:580/000:00/00:58 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:5800:58倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 還有一個關鍵點:這個 Agent 是基於大量工程文件訓練出來的,生成的也是可編輯的工程文件,所以如果不滿意,你可以直接上手改~2.3 AI結合:一站式邊生成邊剪輯不過上面這些,還沒真正展露這個 Agent 的魔力,也就是 AI 調用 AI。它現在能在剪映裏直接使用豆包系的圖片、視頻模型,所以AI 視頻也能一站式地邊生成邊剪輯。2.3.1 生成視頻比如剛才那段旅拍素材,想補一個極光鏡頭,不用找素材,一句話就讓 AI 生成,直接接在後面。2.3.2 生成圖片你也可以給自己生成一個片尾 logo,選一張圖片、生成視頻片尾。整個 AI 創作的過程不用再換軟件,很絲滑。2.3.3 AI一鏡到底轉場那這一系列是單獨的 AI 功能,Agent雖然也能調用,但手點其實也很快~比如我有這一組照片,在轉場的地方選AI 轉場效果,就能做成那種很火的AI首尾幀視頻,提示詞都不用寫。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:200/000:00/00:20 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:2000:20倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多原創,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.3.4 改詞翻唱還有這個, 選中音樂直接點改詞翻唱,你可以自己輸入歌詞,也可以讓 AI 寫詞,這樣就有翻唱版本的歌曲了~ 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:080/000:00/00:08 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:0800:08倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多轉載,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 2.3.5 文字成片壓軸的是另一類朋友:什麼素材都沒有,光有一腦袋想法。介紹給你這個功能:文字成片~選一個畫風,把想法或文案發過去,片子就出來了。 已關注 關注 重播 分享 贊 關閉觀看更多更多退出全屏切換到豎屏全屏退出全屏秋芝2046已關注分享視頻,時長00:180/000:00/00:18 切換到橫屏模式 繼續播放進度條,百分之0播放00:00/00:1800:18倍速全屏 倍速播放中 0.5倍 0.75倍 1.0倍 1.5倍 2.0倍 超清 流暢 您的瀏覽器不支持 video 標籤 繼續觀看 剪映Agent終於來了!AI自動剪輯~【小白必備】 觀看更多原創,剪映Agent終於來了!AI自動剪輯~【小白必備】秋芝2046已關注分享點贊在看已同步到看一看寫下你的評論 視頻詳情 精緻程度肯定還差點意思,但勝在快。哪怕只是跑個 demo 找靈感、準備素材,這個效率都很可怕~好啦,剪映的 Agent 現在才第一版,還停留在適合粗剪的階段。但可以看到,它在解決創作中真正需要被解決的問題。從現在的範式往前推一步:素材可以在這個“點”去生成,剪映又有成千上萬個原子化的精細工具,而這一切都可以交給 Agent 來操作。視頻創作真的要 All in one 了~未來的創作過程,可能就像導演盯片一樣,人在旁邊動動嘴,只管要求和調度。適合做這件事的,我一時間還真就只能想到剪映。徹底到那一天還需要多久,我不知道。但我確定的是,它會讓更多人的才華,不用卡在「不會軟件」這道坎上。最後,歡迎大家轉給有剪輯需要的朋友!我們下次見啦~點擊圖片,查看招聘詳情 ⬇️郵箱:join@qiuzhi2046.com郵件主題:應聘[崗位]-姓名-渠道線下全職:深圳感謝鐵鐵們也幫忙轉發推薦呀 ~

完成

開源一個 PPT Skill|壓進了我 10 年的設計經驗

上週被李繼剛老師邀請去做了場私享會,關於 AI 和組織的訪談。散場之後,發現大家問得最多的一句話是:"那個 PPT 是什麼做的,能不能開源一下?"沒想到副產品成了主產品。索性就把它開源了,叫 guizang-ppt-skill(github.com/op7418/guizang-ppt-skill)。今天這篇文章聊聊這個 Skill 長什麼樣,以及作為一個做了十年設計的人,我為什麼會覺得它好看。它長什麼樣打開 Skill 生成的 PPT,第一眼的感覺大概是:這不太像 AI 做的。幾個直觀特徵:•封面:墨色底 + 襯線大標題,背後一層若隱若現的 WebGL 流體在緩緩流動•正文:底色切回紙白,墨字壓在上面,像一本攤開的印刷雜誌•翻頁:橫向左右滑動,鍵盤、滾輪、觸屏手勢都行,不是 PowerPoint 的下一頁•元數據:每頁四個角落有小號等寬字,寫着 "Act II · 15 / 25" 這類報刊頁碼我給這套視覺基調起了個名字,叫"電子雜誌 × 電子墨水"。靈感來源是《Monocle》《衞報》《NYT》這類印刷雜誌的版式傳統,疊加 Kindle 電子紙的閲讀美學,再用當代 Web 的交互語法串起來。它能做什麼Skill 目前提供 10 種頁面佈局、5 套主題色預設,和一套完整的翻頁交互。10 種佈局覆蓋了一場 15-30 頁分享會用到的幾乎所有頁面類型:開場封面、章節幕封、數據大字報、左文右圖、圖片網格、Pipeline 流程、懸念問題、大引用、Before/After 對比、圖文混排。每種都是一段可以直接粘貼的 HTML 骨架,改掉文字和圖片就能用。5 套主題分別對應不同場景:墨水經典 — 商業發佈、通用默認靛藍瓷 — 科技、研究、AI 發佈會森林墨 — 自然、可持續、人文牛皮紙 — 懷舊、文學、獨立雜誌沙丘 — 藝術、設計、創意每套主題只是 6 個 CSS 變量的不同取值,切換主題只要替換 :root 裏那 6 行代碼。用戶不允許自定義 hex,後面會說原因。翻頁交互支持鍵盤左右箭頭、鼠標滾輪、觸屏滑動、底部圓點跳轉、ESC 鍵打開縮略圖索引。儘量接近在瀏覽器裏翻一本真實雜誌的體驗。產物是一個單文件 HTML,雙擊瀏覽器就能看,發給別人也只是一個文件,不用擔心字體和動畫在別人電腦上亂掉。怎麼用其實這份 Skill 真正的價值不在模板本身,而在它定義了一套人 × AI 協作做 PPT 的接口。下面三件事,是我自己用了一週後,覺得最值得告訴別人的。先跟 AI 說清這 6 件事Skill 裝好之後,你只需要說一句"幫我做一份雜誌風 PPT",Claude 會反過來主動問你 6 個問題:1.受眾是誰、什麼場景?(行業內部 / 商業發佈 / 私享會)2.分享時長多久?(15 分鐘 ≈ 10 頁,30 分鐘 ≈ 20 頁)3.有沒有原始素材?(文檔、數據、舊 PPT、文章連結)4.有沒有圖片、放在哪?5.想要哪套主題色?(5 套預設裏選)6.有沒有硬約束?(必須包含 XX 數據 / 不能出現 YY)你不用一次說完,它會一條條問。答完之後,它會先給你一份大綱和主題節奏表,對齊之後再開始寫代碼——這一步攔截了我 80% 的返工。以前用 AI 做 PPT 最痛的是什麼?是它直接開始寫,等你看到第 10 頁才發現整體方向就是錯的。這套澄清流程把"對齊"前置到了開頭。圖片這樣塞圖片放在和 index.html 同級的 images/ 文件夾,文件名有規則:ppt/ ├── index.html └── images/ ├── 01-cover.jpg ├── 03-figma.png └── 05-dashboard.png•頁號補零 + 英文語義——01 不是 1,cover 不是 fengmian。方便按順序排,AI 引用也清晰•照片用 JPG,截圖用 PNG——截圖帶文字,PNG 保真不糊•單張 ≥ 1600px 寬——大屏投影才不糊你只需要告訴 Claude"第 3 頁是 Figma 界面截圖",它會自動寫成 images/03-figma.png,你把同名文件丟進文件夾就行。無損換圖的秘訣:同名覆蓋文案改完想換張圖,結果要全局搜替換路徑,一不小心就把 HTML 改壞了。正確做法只有一句話:新圖用同名覆蓋舊圖,HTML 一個字不改。為什麼長成這樣聊完怎麼用,聊聊它為什麼是這個樣子。好看不是玄學,是一套可以拆解的決策。我做的事,本質上是把雜誌行業一百年沉澱下來的排版語言,搬到了 HTML 裏。字體的三級分工•襯線 → "觀點"。大標題用襯線,讀者一眼就覺得"這是一句該被重視的話"。•非襯線 → "信息"。正文密度高、閲讀不累。•等寬 → "元數據"。頁眉頁腳的章節號、日期、頁碼,像雜誌頁腳,也像終端裏的代碼。讀者不用費勁想,眼睛自己就知道這句話是正文還是附註。色彩的紀律紙白、墨色,加一個重點色,就夠了。純白刺眼、純黑暴力,印刷行業從來不這麼幹,Kindle 也是。Skill 的 5 套主題,底色沒有一個是 #FFFFFF,字色沒有一個是 #000000。每套只暴露 6 個 CSS 變量,SKILL.md 裏寫明:不允許用戶自定義 hex,只能五選一。約束越嚴,風格越穩。 保護美學,比給用戶自由更重要。網格與節奏7:5、6:6、8:4 幾套固定網格保證單頁秩序。hero 頁和 non-hero 頁必須交替,保證整本的節奏。一頁密、一頁疏,就是翻雜誌時那種呼吸感。Skill 裏寫了條硬規則:連續三頁以上相同主題會被判為 P0 錯誤。沒有節奏的 PPT 就是一沓 slide 堆成的 PDF。寫在最後上面這些規則,沒有一條是我發明的。我做了十年設計,UI、交互、AI 特效都幹過,這些其實都是行業常識。我只是把它們一條條寫進了 SKILL.md 和 checklist.md,讓 AI 能替我逐條執行而已。換句話說,這個 Skill 就是我這十年審美的一個壓縮包。以前做一份像樣的 PPT,我得花兩天手動調網格、選字號、摳色值。現在把素材丟給 AI,它按照這些規則直接拼出來,我只需要檢查一下。也正因為這樣,我才敢把它開源。規則本來就不是我的獨家,《Monocle》的設計師比我早用了幾十年,我只是把它 copy 到了 2026 年的 HTML 裏。Skill 已經放在 GitHub 上:github.com/op7418/guizang-ppt-skillREADME 裏有一段"給 AI 的安裝 prompt",複製粘貼給你的 Claude Code或其他 AI Agent,它會自動完成安裝。裝好之後對它說一句"幫我做一份雜誌風 PPT"就會觸發。也可以在 Bloome 這個 Agent 裏面用,目前是免費的:https://bloome.im/agent/join/iKXCLtkD?ref=wNL9Ew2G如果覺得內容對你有幫助的話,可以幫我點個贊,或者分享給你需要的朋友。也可以在評論區分享一下你拿這個 Skill 做的 PPT。✦

完成

用了這個 GPT-5.5,Codex 額度一下午就燒完了

GPT-5.5 實測:性能登頂但額度消耗驚人,Agent 能力進化至「自動驗收」新階段。

完成

GPT-5.5 今日發佈

GPT-5.5 正式登場:由「答題機器」進化成「執行 Agent」,編程與科研能力有質的飛躍。

完成

深扒 Nano Banana 2 超多趣味玩法,速度快還要效果好!

Google Nano Banana 2 (Gemini 3.1 Flash Image) 實測:主打快、準、平,係批量出圖同埋長圖設計嘅性價比之選。

完成

我做了個萬能生圖 Skill,人人都可以定製設計 Agent

Skill 正在拆解 SaaS 軟件功能,一個 Markdown 文件就能手搓出萬能生圖 Agent。

完成

今年看到的最有意思的 AI 產品

Loopit 開闢 AI 互動內容新賽道,將 VibeCoding 轉化為「人人皆可創作」的互動版抖音。

完成

我分析了 1000 個 skills,這是最推薦的 30 個

Skill 正在重新定義 AI 時代嘅 App Store,透過 30 個頂尖 Skill 睇清 Agent 點樣由「吹水」進化到「做實事」。

完成

贈7天會員!字節AnyGen多項功能實測分享。

字節跳動海外 AI 工作平台 AnyGen 實測:語音驅動協作,主打深度文檔編輯與多功能調研。

完成

Coze Skills最新實測:我的分鏡一條龍+PPT克隆,在技能商店免費用

Coze 2.0 實測:將個人經驗打包成「技能」賺錢,再用「長期計劃」等 AI 幫你主動追進度。

完成

視頻分鏡提示詞Skill,詳細製作過程分享!

將劇本自動化轉化為 AI 影片分鏡提示詞的 Skill 製作全攻略,教你點樣用結構化思維拆解複雜任務。

完成

邪修方法論,用星流玩轉AI生圖九宮格!

利用星流 Agent 嘅「九宮格延展法」,可以喺 AI 生圖時完美解決角色一致性痛點,一次過產出高質量嘅系列視覺資產。

完成

被 Seedance 2.0 的強者光芒亮得睡不着覺了。

Seedance 2.0 震撼登場,憑藉強大嘅多模態輸入同語義理解能力,令 AI 影片生成進入「全能參考」新時代。

完成

一覺醒來Kimi的Vibe Coding已經是鈕祜祿版本了,7個case上手實測!

Kimi K2.5 升級後 Vibe Coding 實力大爆發,靠視覺理解同 Agent 集羣,用口語就整到高質量網頁同遊戲。

完成

只用一天Opus4.6+Agent Teams做了個ClaudeCode桌面端:已開源

作者利用 Opus 4.6 配合 Agent Teams 模式,僅用一日就開發出功能完備且開源的 Claude Code 桌面客戶端 CodePilot。

完成

手撕Sora,腳踢Veo!13個行業實戰案例,Seedance 2.0玩法大全

Seedance 2.0 唔止係畫質提升,而係具備「導演思維」嘅影片生成革命,一句話就能夠將行業知識轉化為專業級短片。

完成

過了個年,AI 圈變天了?但沒人告訴你為什麼

AI 已經由「你問佢答」進化成「幫你做嘢」嘅 Agent 時代,核心競爭力由執行力轉向判斷力。

完成

讓你的 ClaudeCode 秒變 Openclaw(龍蝦),連接飛書、Discord 遠程控制

透過 Claude-to-IM 工具,將 Claude Code 遠端接入飛書或 Discord,實現隨時隨地 Vibe Coding。

完成

”為什麼我開始反對 Vibe Coding?“

Vibe Coding 的代價:當你將判斷力外包給 Agent,你失去的是對系統的掌控權與成長機會。

完成

當Karpathy的LLM Wiki遇上本體論:一場知識表示的終極融合

將 Karpathy 的 LLM Wiki 理念與傳統本體論結合,構建一套「既不幻覺、又不僵化」的企業級知識架構。

完成

分享一個我用了2年的深度研究Prompt,半小時幫你搞懂任何陌生領域。

利用「橫縱分析法」結合 AI 深度研究功能,半小時內即可建立陌生領域的完整認知框架。

完成

AI Coding 給我的不是效率,是重構自由

AI Coding 的核心價值不在於提升開發速度,而是賦予開發者「推倒重來」的重構自由。

完成

我做了一個持續更新的 GPT-Image-2 提示詞網站

GPT-Image-2 已進入商業落地階段,透過結構化提示詞公式與實戰資料庫,可將「抽卡式」繪圖轉化為穩定產出的專業工具。

完成

Image 2能批量生圖了,23個真實場景和提示語一口氣學會!

Image 2 結合 Lovart 實現批量生圖與精準編輯,重新定義 AI 資訊圖表與 UI 設計工作流。

完成

Claude Design 只是開始:AI 實驗室正在一個一個地吃掉 SaaS 公司

AI 實驗室正以「結構性優勢」吞噬 SaaS 市場,Claude Design 的出現標誌著從功能競爭轉向用戶羣替代的「SaaS 末日」。

完成

用AI Agent建個日程卻花了十多分鐘,還不如自己來?先別急着卸載

AI Agent 第一次用覺得慢係正常「入職期」,要分清係產品問題定係初始化成本。

完成

Claude Design 實戰篇 —— 5 個能直接抄的提示詞,外加一套別想偷懶的地基

Claude Design 實戰指南:拒絕 AI Slop 的「地基」法則與 5 大高頻場景提示詞。

完成

我把 Hermes 裏的模型幾乎測了一遍,得出一個很扎心的結論:越貴的,往往越強

模型價格往往與生產力成正比,GLM-5.1 在真實 Agent 任務中的執行力已超越 GPT-4o 級別模型。

完成

Google Gemini團隊開源Agent Skills:讓Claude Code、Antigravity等“按規矩寫代碼”

Google 總監開源 Agent Skills,將 Google 頂尖工程紀律轉化為 AI 可執行的 20 個標準化工作流。

完成

實測GPT Images 2營銷玩法,完美文字渲染,生圖逆天強

ChatGPT Images 2.0 實現「文字渲染」與「複雜排版」的質變,讓 AI 生圖從草稿階段正式跨入「直接交付」的商業營銷水平。

完成

別再把AI當玩具了:Anthropic這場分享,講透了未來3年最狠的生產力革命

AI 革命已從「對話工具」進化為「生產力系統」,未來核心競爭力在於「組織 AI」而非單純使用 AI。

完成

離譜,我用 GitHub 倉庫養了個 AI 龍蝦!

將 GitHub 倉庫轉化為 AI 智能體「小龍蝦」,實現無需 IDE 的全自動化開發與運維流程。

完成

OpenAI Workspace Agents上線:Codex 驅動的AI員工

OpenAI 推出由 Codex 驅動的 Workspace Agents,將 GPTs 從「聊天機器人」進化為能跨工具、自動執行長流程的「AI 員工」。

完成

深度解讀:Cloudflare 一週砸了 25 個產品,AI 的水電氣被一次通齊了...

Cloudflare 一週連發 25 款產品,為 AI Agent 鋪設「水電煤」基礎設施,將 AI 從聊天機器人轉化為能辦事的正式員工。

完成

新手入局AI編程,90%的人方向完全錯了

新手入局 AI 編程的致命誤區:不要先找市場需求,要先解決自己的「真痛點」。

完成

Anthropic 最新博客:MCP 沒死,它又來了

MCP 絕地反擊:Anthropic 透過 Tool Search 與代碼編排,解決 Token 膨脹痛點並確立雲端 Agent 標準。

完成

最高級的生產力,是保護明天的腦子

知識工作者的核心價值在於判斷力而非忙碌感,保護翌日的清醒腦力才是最高級的生產力。

完成

深入研究8位頂尖的一人公司案例後,我發現了指引走向個體自由的共通點

一人公司的成功並非偶然,而是透過「解決自身問題」建立產品,並以「公開構建」累積信任資產的系統化成果。

完成

Gpt-Image-2 超全場景生圖效果賞析(附提示詞)

GPT-Image-2 實測展示:地表最強生圖模型如何精準駕馭複雜排版與多樣風格。

完成

用AI畫了一年原型圖後,我做了這個 Skill

產品經理應擺脱「畫圖仔」標籤,利用 AI 實現從截圖復刻到高保真原型與 PRD 同步生成的 10 倍速工作流。

完成

我把五位大師的思考方法做成了一個Skill,15分鐘想清楚任何事

將五位大師的思維模型封裝成 AI Skill,15 分鐘內助你從「一知半解」進化到「能向外行講清本質」。