我花了一週搞懂:AI Agent 是怎麼"記住"你的

作者:竇竇的AI工具庫
日期:2026年4月22日 上午9:21
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

AI Agent 的「記憶力」並非單純靠 Prompt,而是透過 Memory、Skills 與 History 的異步整理機制來實現。

  • 結論:Agent 越用越順手的關鍵在於「異步記憶整理」,而非模型本身的智商差異。
  • 方法:區分 Memory(存事實與偏好)與 Skills(存操作方法論),避免將所有資訊塞進單一文件導致模型混亂。
  • 差異Claude Code 傾向輕量化處理,而 Hermes Agent 則強制執行每 10 步觸發一次的 Skill 沉澱與字數限制。
  • 啟發More agentic is not always better,過度自主反而增加成本與延遲,應根據場景選擇 Workflow 或 Agent。
  • 可行動點:可嘗試為 Claude Code 安裝 self-improving agent skill,透過 Hooks 機制自動優化記憶質量。
值得記低
工具

self-improving agent skill

社羣開發的擴充功能,透過 Hooks 機制在每條消息或報錯時自動觸發記憶沉澱,適用於 Claude Code 和 Open Claude。

連結 youtube.com

AI Jason: How AI Agents Actually "Remember" You

本文靈感來源,深入解析 Agent 記憶機制與 Hermes Agent 運作邏輯的影片。

整理重點

Agent 記住你的三板斧:Memory, Skills, History

很多人將 AI 的記憶混為一談,但要讓 Agent 真正好用,必須將資訊拆解成三個維度:事實、方法與紀錄。

整理重點

Claude Code 的隱藏招式:Autodream 異步整理

當 Memory 文件塞滿時,模型會開始「斷片」。Claude Code 內置了 automemory 功能,但更進階的是從源碼中被發現的 autodream 邏輯。

Autodream 的核心在於「後台整理」:當你不在對話時,Agent 會自動合併重複資訊、刪除廢話並更新索引,不再佔用前台推理的注意力。

整理重點

Hermes Agent 點樣做到「越用越順」?

相比 Claude 的佛系整理,Hermes 採取了更強硬的策略來保證記憶質量:

Hermes 記憶管理邏輯 markdown
- 步數觸發:每執行 10 步操作,強制啟動 sub-agent 檢查是否有值得轉化為 Skill 的經驗。
- 硬性限制:Memory 文件(user.md + memory.md)嚴格限制在 4000 字符內。
- 強制沉澱:逼使 Agent 將非事實類的長篇大論轉移到 Skill 模組,保持上下文清爽。
整理重點

唔換工具,都可以提升 Agent 記憶力

如果你習慣用 Claude Code,可以透過安裝社羣提供的 self-improving agent skill 來模擬這種「自我進化」的過程。

起因是上週我發現,同一段 prompt,我在 Claude Code 裏跑和朋友在 Hermes Agent 裏跑,結果差得挺多。不是模型不一樣,是"記憶"的做法不一樣。看完 AI Jason 那期視頻,我把腦子裏的東西捋順了,分享給你。

先分清兩件事,不然越看越糊塗

很多文章把兩個方向混在一起講,看得人腦子亂。

一種是 Auto Agent / Auto Research——讓 Agent 自己改自己的代碼。你寫一個 PROGRAM.md 交代它要幹啥,它跑評測、改代碼、再跑評測,循環到出一個新版本。聽起來很酷,但門檻很高:得有數據集,還得有能自動判分的方式。沒有這兩樣,這條路走不通。

另一種是 In-Context Learning——在聊的過程中讓 Agent 記住你。Claude Code 走的是這條,Hermes 也是。日常能用上的,只有這一條。

下面全在說第二條。

它記住你,靠三個東西

Memory、Skills、History。

Memory 存事實——你是誰、用什麼、有什麼偏好。Claude Code 裏對應 CLAUDE.md 和 .claude/memory/。

Skills 存方法論——怎麼發 PR、怎麼部署到 Cloudflare。這是一套步驟,不是一條事實,不能塞進 Memory 裏。

History 就是對話原文,可以翻、可以搜。

Claude Code 三個都有,但做得最輕。Hermes 把這三個做成了一等公民,這就是體感差距的來源。

Claude Code 藏了個功能叫 autodream

最開始大家都往 CLAUDE.md 裏塞。塞着塞着文件爆了,塞着塞着模型也記不住了。

後來官方加了 automemory,默認關着,要自己打開。開了之後它會自動把該存的存到 .claude/memory/ 下,上面掛一個 MEMORY.md 當索引。

問題在於——全靠 prompt 讓模型記得去存,模型一忙就忘。

autodream 就是補這個的。這玩意是從源碼泄露裏被扒出來的,官方沒正經宣傳過。邏輯很簡單:你不用 Claude Code 的時候,它自己在後台跑一遍,該刪的刪、該合併的合併、索引該更新更新。

說白了就是把"整理記憶"從前台搬到後台,不再看模型當下有沒有心思。

Hermes 多幹了什麼

兩件事。

第一件,每 10 步檢查一次有沒有值得沉澱成 Skill 的東西。這 10 步裏試錯過、走彎路過、碰到過非顯然的解法,就自動起一個 sub agent 把它寫成 skill 存下來。不是你提醒它,也不是它自己想起來,是步數到了就觸發。

第二件,Memory 文件給了硬性字數上限。user.md 和 memory.md 加起來不能超過 4000 字符,逼着 Agent 把非事實類的東西都沉到 Skill 裏去。

看到這裏我突然理解為什麼有人說 Hermes "越用越順"了——不是模型更聰明,是把"異步更新"這件事做徹底了。

不換 Agent 也能吃到這一套

Claude Code 和 Open Claude 現在都有社區 skill 可以裝,叫 self-improving agent skill。原理是 Hooks:

  • 你每發一條消息,hook 自動塞一段提醒給模型
  • 每次 bash 報錯,hook 自動把錯誤拼進上下文
  • 啓動時注入一段系統提示

裝上就行,不用改現有工作流。

我看完之後想做什麼

把 self-improving agent skill 裝上,跑兩週看看 memory 質量。真有用就留,沒用就卸,簡單粗暴。

視頻裏最讓我停了一下的不是技術細節,是 AI Jason 那句——more agentic is not always better。不是越自主越好,是越合適越好。有些場景一條 workflow 就夠用,硬整成 agent 反而更貴更慢。

記一下。

end.



AI 能做的事越來越多,零代碼編程的門檻越來越低。但門檻低不等於坑少

能識別代碼裏的坑、能判斷哪條路值得走、能把技術變成可用的東西—這
些才是 AI 時代真正值錢的能力。 


如果你也想往這個方向走,歡迎訂閲我的 19.9 元「AI Native 實戰」服務。   
「AI Native 實戰」訂閲說明

適合誰:
想持續瞭解 AI 工具、Claude / Codex / Agent 實戰更新的人

你能得到:
1. 每週篩一遍值得看的 AI 工具和更新
2. 遇到部署、選型、使用問題可直接問我
3. 幫你少踩坑,節省自己找資料和試錯時間

價格:
體驗價 19.9 元 /年

訂閲方式:
加我微信kbhero21 / 直接私信我
備註:AI Native

圖片

主理人介紹:竇竇,普通打工人,也是重度 AI 研究愛好者白天忙工作,晚上忙折騰工具、試方法、做內容

更喜歡分享 我自己試過、踩過坑、最後覺得真有用的東西

關注我,一起把複雜的 AI,過成普通人也能用上的日常。



原視頻:YouTube / AI Jason https://www.youtube.com/watch?v=2zhchG0r6iI