我把Hermes裏23個Agent全切到GLM-5.1:執行力比GPT強,但有個硬傷

作者:孟健AI編程
日期:2026年4月13日 下午12:07
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

將23個Agent從GPT全面切換到GLM-5.1嘅實戰經驗:執行力強但併發限制係硬傷

整理版摘要

呢篇文章係作者孟健分享佢將23個AI Agent從GPT切換到智譜GLM-5.1嘅實戰經驗。佢用Hermes Agent框架管理Agent,之前全部用GPT,但覺得成本高同埋太囉嗦——GPT成日解釋點解要改、點樣改、總結改咗啲乜,效率大打折扣。所以當智譜放出GLM-5.1嘅編程API,佢就決定全面轉移。文章詳細記錄咗切換過程、實測結果同體感對比,最後總結GLM-5.1嘅優缺點,並提出現行策略。

實測顯示GLM-5.1執行力好強:成功獨立搭建完整站點、調通10個Agent串行流水線,仲自己排查咗三個Bot之間通信嘅坑。相比GPTGLM-5.1少廢話、中文理解好、調試能力在線。但有一個硬傷——併發rate limit,多Agent同時運行會卡住429。作者而家嘅策略係日常任務全用GLM-5.1,高併發場景fallback到GPT,成本即刻減半。結論係GLM-5.1目前係國產模型跑Agent嘅第一梯隊,單Agent或串行場景可以完全替代GPT,高併發就要等智譜放開限制。

  • 切換動機GPT成本高、回覆囉嗦,效率打折,轉用GLM-5.1以降低成本同提升執行效率。
  • 切換成本極低:只需改config.yaml兩行配置,再用腳本同步所有Agent profile,5分鐘完成。
  • 實測能力強GLM-5.1成功獨立搭建完整站點、調通10個Agent串行流水線,並自行排查三個Bot通信坑。
  • 體感對比:執行力強、少廢話;調試能力在線,能追蹤源碼;中文理解好;但有一個硬傷——併發rate limit,多Agent同時運行會卡住。
  • 現行策略:日常任務全用GLM-5.1,高併發場景fallback GPT,成本減半。
值得記低
連結 hermes101.pages.dev

Hermes Agent 101 入門站點

作者用GLM-5.1由零搭建嘅新手入門指南站點,包含完整安裝指引、多Agent配置、流水線教學等。

整理重點

點解要由GPT轉會?

作者跑Hermes Agent框架,管理23個Agent,之前全部用GPT。雖然能力冇問題,但有兩個困擾:成本高同埋太囉嗦。GPT成日「熱心」過頭,改個配置文件都要先解釋一輪,效率直接打折。

所以當智譜放出GLM-5.1嘅編程API,作者就決定全面切換,目標係降低成本同提升執行效率。

整理重點

切換過程:一行配置搞掂

Hermes嘅模型切換非常簡單,只需改~/.hermes/config.yaml兩行:

config.yaml 配置 yaml
model:
 default: glm-5.1
 provider: zai
 base_url: https://open.bigmodel.cn/api/coding/paas/v4

然後用腳本同步所有Agent profile:

一鍵同步腳本 bash
for profile in ~/.hermes/profiles/*/; do
 cp ~/.hermes/config.yaml "${profile}config.yaml"
done

重啟gateway,5分鐘內所有Agent上線。作者強調切換成本極低,係值得一試嘅理由。

整理重點

實測:建站點、通流水線、自行debug

今日跑咗一整天,核心做咗三件事,全部由GLM-5.1自主完成:

  1. 1 從零搭建Hermes Agent 101站點:小墨(主Agent)自主研究GitHub倉庫、Release Notes、官方文檔,寫咗完整單頁應用(30KB)、包含SEO配置,一鍵部署到Cloudflare Pages,全程冇寫一行代碼。
  2. 2 調通多Agent串行流水線:利用Telegram Bot API 9.6嘅Bot-to-Bot Communication Mode,打通10個Agent串行協作,每一步自動回調推進,好似工廠流水線。
  3. 3 排查三個Bot間通信坑:包括@提及格式、API Key缺失、ALLOWED_USERS白名單,全部由GLM-5.1自行查文檔、翻源碼、修復。
整理重點

體感對比:GLM-5.1 vs GPT

用咗一日,作者幾個真實體感:執行力強——直接幹,唔廢話;調試能力在線——識得自己查源碼;中文理解好——中英混雜場景更準確;上下文壓縮後恢復快——唔會失憶。

但有個硬傷:併發rate limit。多Agent同時運行(例如3-4個),會觸發API返回429,Agent卡住等待。呢個限制直接影響團隊效率。

  • 錯峯調度:定時任務之間錯開10分鐘
  • 串行Pipeline:多Agent走流水線而唔係並行
  • 加retry:遇到429自動等待重試

作者強調呢啲只係workaround,唔係solution,希望智譜儘快放開併發限制。

整理重點

結論:國產模型跑Agent,好用但有限制

作者判斷GLM-5.1係目前國產模型跑Agent嘅第一梯隊,優勢係執行力強、少廢話、中文好、調試能力在線。劣勢係併發限制。

佢而家嘅策略:日常任務全走GLM-5.1,高併發場景fallback到GPT。成本直接砍咗一半。

大家好,我係孟健。

今日我嘅23個AI Agent全部由GPT轉咗去智譜GLM-5.1。一日落嚟:起咗一個完整網站、打通咗多Agent協作流水線、tune咗15個session行咗1556條消息。冇炒,冇傻,比GPT少廢話。

但有一個坑,真係好痛。

Hermes裏24個profile全部跑在glm-5.1

01 點解要換?

Hermes Agent — 開源多平台AI Agent框架

我係行Hermes Agent——一個開源嘅AI Agent框架,支援多平台(Telegram/Discord/CLI)、多模型切換、多Agent並行。我個團隊有23個Agent,各有分工:寫公眾號嘅墨微、做增長調研嘅墨探、出PRD嘅墨策、搞SEO嘅墨引、寫code嘅墨界……

之前全部行喺GPT上。講真,能力冇問題,但有兩件事令我好煩:

第一係貴。 23個Agent同時在線,每日早晚報、定時任務、突發協作,Token消耗得好快。

第二係囉嗦。 GPT系列有個毛病——佢太「熱心」喇。你叫佢改個設定檔,佢會先解釋一輪點解要改,再解釋點改,最後仲要總結改咗啲咩。23個Agent都係咁,效率直接打折扣。

所以當智譜放出GLM-5.1嘅程式API,我直接將所有Agent嘅默認模型轉咗過去。

GLM-5.1:智譜旗艦模型,對齊Claude Opus 4.6,長任務能跑8小時

02 切換過程:改一行設定

Hermes嘅模型切換極之簡單。全局設定喺~/.hermes/config.yaml,改兩行:

model:
  default: glm-5.1
  provider: zai
  base_url: https://open.bigmodel.cn/api/coding/paas/v4

然後用script將23個Agent嘅profile全部同步:

# 一鍵同步所有profile的config.yaml
for profile in ~/.hermes/profiles/*/; do
  cp ~/.hermes/config.yaml "${profile}config.yaml"
done

重啟gateway,搞掂。

由改設定到全部Agent上線,5分鐘。


03 實測:GLM-5.1行Agent到底得唔得?

今日全日行咗一日,核心做咗三件事:

1)由零開始搭建Hermes Agent 101網站

我叫小墨(我嘅主Agent)獨立完成一個畀新手嘅入門指南網站。佢自己研究咗Hermes嘅GitHub倉庫、Release Notes、官方文檔,然後:

  • 寫咗一個完整嘅單頁應用(index.html,30KB純手寫)
  • 包含Hero區、9大核心能力卡片、7天入門路徑、OpenClaw遷移指南、FAQ
  • 設定好SEO(sitemap、robots.txt、llms.txt、Schema.org結構化數據)
  • 一鍵部署到Cloudflare Pages

網站已經上線:hermes101.pages.dev

小墨用GLM-5.1獨立搭出的Hermes101入門站

全程我冇寫過一行code。 小墨用GLM-5.1行咗172條消息,自主完成。

2)打通多Agent串行流水線

呢個先係今日嘅重頭戲。

先補充下背景:Telegram入面Bot默認係睇唔到其他Bot消息嘅。 呢個係平台一直以嚟嘅限制,搞到多Bot協作幾乎冇可能做到。直到Telegram喺@BotFather入面加咗一個開關——Bot-to-Bot Communication Mode,容許Bot透過 @OtherBot 提及或者reply嘅方式互相溝通。今年4月3號嘅Bot API 9.6又將Managed Bots(畀Bot創建同管理其他Bot)整套agentic能力放咗出嚟。

即係話,多Bot協作呢件事,係最近先真正行得通。

我將23個Agent嘅Bot-to-Bot Mode全部開咗,加埋入一個共享Telegram group。驗證通訊鏈路:

小墨@墨影測試,墨影秒回ACK

通咗。然後開始搭建流水線。

之前23個Agent喺group入面各自做各自嘅嘢,欠缺一個「串連」嘅機制。例如做網站,應該係:調研→PRD→預算→合規→SEO策略→設計→開發→部署→驗收→推廣,每一步都依賴上一步嘅產出。

今日搭咗一套Pipeline回調機制:

  1. 小墨創建Pipeline(JSON狀態文件),自動派發Step 1畀墨探
  2. 墨探完成之後@hermes_xiaomo_bot /pipeline-done hermes101-site step-1
  3. 小墨收到回調,標記done,自動派發Step 2畀墨策
  4. 跟住推進,直到10步全部完成

呢條流水線打通咗。10個Agent串行協作,好似工廠流水線咁自動推進。

3)排查Bot-to-Bot通訊嘅陷阱

過程入面中咗幾個真實嘅陷阱,GLM-5.1展現咗一個令我意外嘅能力——除錯排錯

陷阱1:Bot之間@唔到
一開始其他Bot收唔到小墨嘅@提及。GLM-5.1自己去睇Telegram Bot API文檔,發現Telegram已經開放咗Bot-to-Bot Communication,但需要用正確嘅mention entity格式。佢自己寫script用Telegram API發送帶mention entity嘅消息,解決咗。

陷阱2:API Key揾唔到
某個Agent嘅gateway報錯Provider 'zai' is set but no API key found。GLM-5.1自己去睇Hermes嘅provider源碼,發現喺provider嘅extra_env_vars會順序揾GLM_API_KEYZAI_API_KEYZ_AI_API_KEY——而profile目錄下嘅.env只有GLM_API_KEY。佢將所有profile嘅key都補齊咗。

陷阱3:ALLOWED_USERS冇加Bot ID
Bot之間嘅消息被TELEGRAM_ALLOWED_USERS過濾咗。GLM-5.1查出曬所有23個Bot嘅ID,一次過加入白名單。

呢三個陷阱,全程係佢自己排查、自己修,我只係喺旁邊睇住。


04 體感對比:GLM-5.1 vs GPT

用咗一日,講幾個真實體感:

執行力強。 畀佢一個任務,佢直接做,冇廢話。改設定就改設定,check日誌就check日誌,唔會先同你講一段「好嘅,等我幫你分析一下呢個問題」嘅過場。

除錯能力在線。 遇到API報錯、設定缺失、權限問題,佢可以自己追根溯源——睇源碼、check環境變數、比對設定差異。呢個能力我原本以為只有Claude同GPT-5級別先有。

中文理解好。 始終係國產模型,中文指令嘅意圖理解更準確,特別係涉及設定、路徑、環境變數呢啲中英混雜嘅場景。

上下文壓縮後恢復快。 Hermes有自動context壓縮機制,GLM-5.1喺壓縮後恢復上下文嘅能力唔錯,唔會好似某啲模型壓縮後直接「失憶」。

但有一個硬傷:並發限制。


05 硬傷:並發rate limit

呢個係GLM-5.1做Agent最大嘅問題。

當多個Agent同時行(例如今日同時有3-4個Agent處理緊各自嘅任務),會觸發rate limit。表現係API返回429,Agent卡住等緊。

小墨實測:Rate limit reached, waiting 2.14s before retry

對於單Agent對話場景完全冇問題。但多Agent並發係Agent框架嘅核心能力,呢個限制會直接影響團隊效率。

目前嘅應對策略:

  • 錯峯調度:定時任務(cron)之間隔開10分鐘
  • 串行Pipeline:多Agent行流水線而唔係並行
  • 加retry:遇到429自動等陣重試

但呢啲係workaround,唔係solution。希望智譜快啲放開並發限制。


06 結論:國產模型行Agent,用得,而且唔錯

我嘅判斷:GLM-5.1係目前國產模型入面行Agent嘅第一梯隊。

佢嘅優勢好明確——執行力強、少廢話、中文好、除錯能力在線。呢啲特質對一個需要自主操作終端、瀏覽器、檔案系統嘅Agent嚟講,非常關鍵。

劣勢都好明確——並發限制。如果你嘅場景係單Agent或者Agent串行,GLM-5.1完全可以取代GPT。如果係多Agent高頻並發,就要等智譜放開限流。

我而家嘅策略:日常任務全部行GLM-5.1,高並發場景fallback去GPT。 成本直接減咗一半。

國產模型喺Agent呢個賽道嘅差距,比大多數人諗嘅要細。


📍 如果你都用緊AI Agent做project,可以試下Hermes。hermes101.pages.dev有完整入門指南。

覺得有用?轉畀你寫code嘅朋友。
有問題留言區傾,我每一條都會睇。
你覺得國產模型幾時可以全面取代GPT行Agent?


🚀 想同更多AI愛好者交流,共同成長嗎?

同一班志同道合嘅人,持續精進 AI 嘅每一日

我的微信



📚 精選文章推薦


大家好,我是孟健。

今天我的23個AI Agent全部從GPT切到了智譜GLM-5.1。一天下來:建了一個完整站點、搭通了多Agent協作流水線、調了15個session跑了1556條消息。沒崩,沒傻,比GPT少廢話。

但有一個坑,是真的痛。

Hermes裏24個profile全部跑在glm-5.1

01 為什麼要換?

Hermes Agent — 開源多平台AI Agent框架

我跑的是Hermes Agent——一個開源的AI Agent框架,支持多平台(Telegram/Discord/CLI)、多模型切換、多Agent並行。我的團隊有23個Agent,各有分工:寫公眾號的墨微、做增長調研的墨探、出PRD的墨策、搞SEO的墨引、寫代碼的墨界……

之前全部跑在GPT上。說實話,能力沒問題,但兩個事讓我煩:

一是貴。 23個Agent同時在線,每天早晚報、定時任務、突發協作,Token消耗飛快。

二是囉嗦。 GPT系列有個毛病——它太"熱心"了。你讓它改個配置文件,它先給你解釋一遍為什麼要改,再解釋怎麼改,最後還要總結一下改了什麼。23個Agent都這麼幹,效率直接打折。

所以當智譜放出GLM-5.1的編程API,我直接把所有Agent的默認模型切了過去。

GLM-5.1:智譜旗艦模型,對齊Claude Opus 4.6,長任務能跑8小時

02 切換過程:改一行配置

Hermes的模型切換極其簡單。全局配置在~/.hermes/config.yaml,改兩行:

model:
  default: glm-5.1
  provider: zai
  base_url: https://open.bigmodel.cn/api/coding/paas/v4

然後用腳本把23個Agent的profile全部同步:

# 一鍵同步所有profile的config.yaml
for profile in ~/.hermes/profiles/*/; do
  cp ~/.hermes/config.yaml "${profile}config.yaml"
done

重啓gateway,完事。

從改配置到全部Agent上線,5分鐘。


03 實測:GLM-5.1跑Agent到底行不行?

今天跑了一整天,核心幹了三件事:

1)從零搭建Hermes Agent 101站點

我讓小墨(我的主Agent)獨立完成一個面向新手的入門指南站點。它自己研究了Hermes的GitHub倉庫、Release Notes、官方文檔,然後:

  • 寫了一個完整的單頁應用(index.html,30KB純手寫)
  • 包含Hero區、9大核心能力卡片、7天入門路徑、OpenClaw遷移指南、FAQ
  • 配好SEO(sitemap、robots.txt、llms.txt、Schema.org結構化數據)
  • 一鍵部署到Cloudflare Pages

站點已上線:hermes101.pages.dev

小墨用GLM-5.1獨立搭出的Hermes101入門站

全程我沒寫一行代碼。 小墨用GLM-5.1跑了172條消息,自主完成。

2)調通多Agent串行流水線

這才是今天的重頭戲。

先補個背景:Telegram裏Bot默認是看不到其他Bot消息的。 這是平台一直以來的限制,導致多Bot協作幾乎不可能做。直到Telegram在@BotFather里加了一個開關——Bot-to-Bot Communication Mode,允許Bot通過 @OtherBot 提及或者reply的方式互相通信。今年4月3日的Bot API 9.6又把Managed Bots(讓Bot創建和管理其他Bot)整套agentic能力放了出來。

也就是說,多Bot協作這個事,是這陣子才真正能跑通的。

我把23個Agent的Bot-to-Bot Mode全部打開,加到一個共享Telegram羣裏。驗證通信鏈路:

小墨@墨影測試,墨影秒回ACK

通了。然後開始搭流水線。

之前23個Agent在羣裏各幹各的,缺一個"串起來"的機制。比如做站,應該是:調研→PRD→預算→合規→SEO策略→設計→開發→部署→驗收→推廣,每一步依賴上一步的產出。

今天搭了一套Pipeline回調機制:

  1. 小墨創建Pipeline(JSON狀態文件),自動派發Step 1給墨探
  2. 墨探完成後@hermes_xiaomo_bot /pipeline-done hermes101-site step-1
  3. 小墨收到回調,標記done,自動派發Step 2給墨策
  4. 依次推進,直到10步全部完成

這條流水線調通了。10個Agent串行協作,像工廠流水線一樣自動推進。

3)排查Bot-to-Bot通信的坑

過程中踩了幾個真實的坑,GLM-5.1展現了一個讓我意外的能力——調試排錯

坑1:Bot之間@不了
一開始其他Agent收不到小墨的@提及。GLM-5.1自己去翻了Telegram Bot API文檔,發現Telegram已經開放了Bot-to-Bot Communication,但需要用正確的mention entity格式。它自己寫腳本用Telegram API發送帶mention entity的消息,解決了。

坑2:API Key找不到
某個Agent的gateway報錯Provider 'zai' is set but no API key found。GLM-5.1自己去查了Hermes的provider源碼,發現zai provider的extra_env_vars會依次查找GLM_API_KEYZAI_API_KEYZ_AI_API_KEY——而profile目錄下的.env只有GLM_API_KEY。它把所有profile的key都補齊了。

坑3:ALLOWED_USERS沒加Bot ID
Bot之間的消息被TELEGRAM_ALLOWED_USERS過濾了。GLM-5.1查出所有23個Bot的ID,一次性加到白名單裏。

這三個坑,全程它自己排查、自己修,我只在旁邊看着。


04 體感對比:GLM-5.1 vs GPT

用了一天,說幾個真實體感:

執行力強。 給它一個任務,它直接幹,不廢話。改配置就改配置,查日誌就查日誌,不會先給你講一段"好的,我來幫你分析一下這個問題"的過場。

調試能力在線。 遇到API報錯、配置缺失、權限問題,它能自己追根溯源——翻源碼、查環境變量、對比配置差異。這個能力我原本以為只有Claude和GPT-5級別才有。

中文理解好。 畢竟國產模型,中文指令的意圖理解更準,特別是涉及配置、路徑、環境變量這些中英混雜的場景。

上下文壓縮後恢復快。 Hermes有自動context壓縮機制,GLM-5.1在壓縮後恢復上下文的能力不錯,不會像某些模型壓縮後直接"失憶"。

但有一個硬傷:併發限制。


05 硬傷:併發rate limit

這是GLM-5.1做Agent最大的問題。

當多個Agent同時跑(比如今天同時有3-4個Agent在處理各自的任務),會觸發rate limit。表現是API返回429,Agent卡住等待。

小墨實測:Rate limit reached, waiting 2.14s before retry

對於單Agent對話場景完全沒問題。但多Agent併發是Agent框架的核心能力,這個限制會直接影響團隊效率。

目前的應對策略:

  • 錯峯調度:定時任務(cron)之間錯開10分鐘
  • 串行Pipeline:多Agent走流水線而不是並行
  • 加retry:遇到429自動等待重試

但這些是workaround,不是solution。希望智譜儘快放開併發限制。


06 結論:國產模型跑Agent,能用,而且不錯

我的判斷:GLM-5.1是目前國產模型裏跑Agent的第一梯隊。

它的優勢很明確——執行力強、少廢話、中文好、調試能力在線。這些特質對一個需要自主操作終端、瀏覽器、文件系統的Agent來說,非常關鍵。

劣勢也明確——併發限制。如果你的場景是單Agent或者Agent串行,GLM-5.1完全可以替代GPT。如果是多Agent高頻併發,還需要等智譜放開限流。

我現在的策略:日常任務全走GLM-5.1,高併發場景fallback到GPT。 成本直接砍了一半。

國產模型在Agent這個賽道的差距,比大多數人想的要小。


📍 如果你也在用AI Agent做項目,可以試試Hermes。hermes101.pages.dev有完整入門指南。

覺得有用?轉給你寫代碼的朋友。
有問題評論區聊,我每條都看。
你覺得國產模型什麼時候能全面替代GPT跑Agent?


🚀 想要與更多AI愛好者交流,共同成長嗎?

和一羣志同道合的人,持續精進 AI 的每一天

我的微信



📚 精選文章推薦