我花了一週搞懂:AI Agent 是怎麼"記住"你的
整理版優先睇
AI Agent 的「記憶力」並非單純靠 Prompt,而是透過 Memory、Skills 與 History 的異步整理機制來實現。
- 結論:Agent 越用越順手的關鍵在於「異步記憶整理」,而非模型本身的智商差異。
- 方法:區分 Memory(存事實與偏好)與 Skills(存操作方法論),避免將所有資訊塞進單一文件導致模型混亂。
- 差異:Claude Code 傾向輕量化處理,而 Hermes Agent 則強制執行每 10 步觸發一次的 Skill 沉澱與字數限制。
- 啟發:More agentic is not always better,過度自主反而增加成本與延遲,應根據場景選擇 Workflow 或 Agent。
- 可行動點:可嘗試為 Claude Code 安裝 self-improving agent skill,透過 Hooks 機制自動優化記憶質量。
self-improving agent skill
社羣開發的擴充功能,透過 Hooks 機制在每條消息或報錯時自動觸發記憶沉澱,適用於 Claude Code 和 Open Claude。
AI Jason: How AI Agents Actually "Remember" You
本文靈感來源,深入解析 Agent 記憶機制與 Hermes Agent 運作邏輯的影片。
Agent 記住你的三板斧:Memory, Skills, History
很多人將 AI 的記憶混為一談,但要讓 Agent 真正好用,必須將資訊拆解成三個維度:事實、方法與紀錄。
Claude Code 的隱藏招式:Autodream 異步整理
當 Memory 文件塞滿時,模型會開始「斷片」。Claude Code 內置了 automemory 功能,但更進階的是從源碼中被發現的 autodream 邏輯。
Autodream 的核心在於「後台整理」:當你不在對話時,Agent 會自動合併重複資訊、刪除廢話並更新索引,不再佔用前台推理的注意力。
Hermes Agent 點樣做到「越用越順」?
相比 Claude 的佛系整理,Hermes 採取了更強硬的策略來保證記憶質量:
- 步數觸發:每執行 10 步操作,強制啟動 sub-agent 檢查是否有值得轉化為 Skill 的經驗。
- 硬性限制:Memory 文件(user.md + memory.md)嚴格限制在 4000 字符內。
- 強制沉澱:逼使 Agent 將非事實類的長篇大論轉移到 Skill 模組,保持上下文清爽。
唔換工具,都可以提升 Agent 記憶力
如果你習慣用 Claude Code,可以透過安裝社羣提供的 self-improving agent skill 來模擬這種「自我進化」的過程。
起因是上週我發現,同一段 prompt,我在 Claude Code 裏跑和朋友在 Hermes Agent 裏跑,結果差得挺多。不是模型不一樣,是"記憶"的做法不一樣。看完 AI Jason 那期視頻,我把腦子裏的東西捋順了,分享給你。
先分清兩件事,不然越看越糊塗
很多文章把兩個方向混在一起講,看得人腦子亂。
一種是 Auto Agent / Auto Research——讓 Agent 自己改自己的代碼。你寫一個 PROGRAM.md 交代它要幹啥,它跑評測、改代碼、再跑評測,循環到出一個新版本。聽起來很酷,但門檻很高:得有數據集,還得有能自動判分的方式。沒有這兩樣,這條路走不通。
另一種是 In-Context Learning——在聊的過程中讓 Agent 記住你。Claude Code 走的是這條,Hermes 也是。日常能用上的,只有這一條。
下面全在說第二條。
它記住你,靠三個東西
Memory、Skills、History。
Memory 存事實——你是誰、用什麼、有什麼偏好。Claude Code 裏對應 CLAUDE.md 和 .claude/memory/。
Skills 存方法論——怎麼發 PR、怎麼部署到 Cloudflare。這是一套步驟,不是一條事實,不能塞進 Memory 裏。
History 就是對話原文,可以翻、可以搜。
Claude Code 三個都有,但做得最輕。Hermes 把這三個做成了一等公民,這就是體感差距的來源。
Claude Code 藏了個功能叫 autodream
最開始大家都往 CLAUDE.md 裏塞。塞着塞着文件爆了,塞着塞着模型也記不住了。
後來官方加了 automemory,默認關着,要自己打開。開了之後它會自動把該存的存到 .claude/memory/ 下,上面掛一個 MEMORY.md 當索引。
問題在於——全靠 prompt 讓模型記得去存,模型一忙就忘。
autodream 就是補這個的。這玩意是從源碼泄露裏被扒出來的,官方沒正經宣傳過。邏輯很簡單:你不用 Claude Code 的時候,它自己在後台跑一遍,該刪的刪、該合併的合併、索引該更新更新。
說白了就是把"整理記憶"從前台搬到後台,不再看模型當下有沒有心思。
Hermes 多幹了什麼
兩件事。
第一件,每 10 步檢查一次有沒有值得沉澱成 Skill 的東西。這 10 步裏試錯過、走彎路過、碰到過非顯然的解法,就自動起一個 sub agent 把它寫成 skill 存下來。不是你提醒它,也不是它自己想起來,是步數到了就觸發。
第二件,Memory 文件給了硬性字數上限。user.md 和 memory.md 加起來不能超過 4000 字符,逼着 Agent 把非事實類的東西都沉到 Skill 裏去。
看到這裏我突然理解為什麼有人說 Hermes "越用越順"了——不是模型更聰明,是把"異步更新"這件事做徹底了。
不換 Agent 也能吃到這一套
Claude Code 和 Open Claude 現在都有社區 skill 可以裝,叫 self-improving agent skill。原理是 Hooks:
你每發一條消息,hook 自動塞一段提醒給模型 每次 bash 報錯,hook 自動把錯誤拼進上下文 啓動時注入一段系統提示
裝上就行,不用改現有工作流。
我看完之後想做什麼
把 self-improving agent skill 裝上,跑兩週看看 memory 質量。真有用就留,沒用就卸,簡單粗暴。
視頻裏最讓我停了一下的不是技術細節,是 AI Jason 那句——more agentic is not always better。不是越自主越好,是越合適越好。有些場景一條 workflow 就夠用,硬整成 agent 反而更貴更慢。
記一下。
end.
能識別代碼裏的坑、能判斷哪條路值得走、能把技術變成可用的東西—這 些才是 AI 時代真正值錢的能力。
「AI Native 實戰」訂閲說明
適合誰:
想持續瞭解 AI 工具、Claude / Codex / Agent 實戰更新的人
你能得到:
1. 每週篩一遍值得看的 AI 工具和更新
2. 遇到部署、選型、使用問題可直接問我
3. 幫你少踩坑,節省自己找資料和試錯時間
價格:
體驗價 19.9 元 /年
訂閲方式:
加我微信kbhero21 / 直接私信我
備註:AI Native

主理人介紹:竇竇,普通打工人,也是重度 AI 研究愛好者白天忙工作,晚上忙折騰工具、試方法、做內容
更喜歡分享 我自己試過、踩過坑、最後覺得真有用的東西
關注我,一起把複雜的 AI,過成普通人也能用上的日常。
原視頻:YouTube / AI Jason https://www.youtube.com/watch?v=2zhchG0r6iI