從 Prompt 到 Context:易點天下 Agentic AI 工程化實踐
整理版優先睇
易點天下透過上下文工程同五層安全防禦,將概率性AI穩定嵌入全球化業務,實現Agent從V1線性編排到V2自主智能體嘅躍遷。
呢篇文章嚟自易點天下中台研發總監何宇航喺2026 QCon北京站嘅分享。佢嘅團隊正面對一個大問題:點樣喺要求極高嘅企業生產環境入面,令到Agent唔會亂講嘢同埋唔會失憶,將概率性嘅AI安全咁嵌入全球化業務。佢哋嘅結論係:核心唔係點樣寫Prompt,而係點樣做好上下文工程,再配合多雲架構同縱深安全防禦。
何宇航詳細拆解咗佢哋點樣由V1嘅線性Workflow編排(分類錯誤率成15%)轉向V2嘅自主Agent Loop,建立咗六層記憶體系、主動注入鈎子、Token預算治理、漸進式工具加載同壓縮續接等機制。呢套上下文工程令工具調用準確率由70%提升到90%,重複問題處理時間由60秒縮短到5秒以內。另外仲有5層安全防禦,只有1層俾LLM參與,其他用代碼兜底,確保操作安全。成個分享嘅啟示係:當大模型趨同,真正壁壘在於對上下文工程嘅理解、多雲掌控力同組織經驗沉澱為Skill嘅能力。
- 結論:上下文工程係將概率性AI嵌入確定性生產系統嘅核心,而唔係單純Prompt工程。
- 方法:六層記憶體系(Session到Skill)配合主動注入鈎子,實現「需要嘅時候剛好知道」。
- 差異:V1線性編排分類錯誤率15%,V2自主Loop+漸進式工具加載將準確率提升到90%,處理時間減少90%。
- 啟發:安全防禦必須多層兜底,僅1層由LLM決策,其餘4層用規則代碼物理隔離。
- 可行動點:實施Token預算治理(分層內容+動態選檔),將單次注入Token消耗降低80%,同時保留完整信息一鍵可達。
底層支撐:多雲共生嘅確定性架構
Agent要穩定運行,基礎設施係關鍵。易點天下業務覆蓋全球230個國家,面對合規同網絡連通挑戰,Cycor平台從設計就確立咗多雲戰略。
多雲戰略
目前平台接入AWS、GCP、阿里雲、騰訊雲、華為雲等,形成跨雲統一控制面。呢種架構唔單止避開供應商鎖定,仲可以喺大模型算力調度時做到成本、效果同可控性之間動態平衡。
供應商鎖定
技術攻堅:從Prompt編排轉向Context Engineering
早期V1版本用低代碼平台做線性Workflow編排,一個前置分類器根據System Prompt路由到固定Agent。運行三個月後,分類錯誤率高達15%,而且記憶只侷限單次對話,又冇跨會話持久化,Agent各自為戰。
分類錯誤率15%
團隊決定放棄線性編排,轉向基於Agent Loop嘅自主智能體架構,並將工程重心從「點樣措辭(Prompt)」切換到「每一步應該俾咩信息(Context)」,即係上下文工程。
上下文工程
上下文工程要解決三個根本問題:需要嘅信息點樣入得嚟、無關嘅信息點樣擋得住、寶貴嘅Token預算點樣花喺刀刃上。圍繞呢三條主線,佢哋搭建咗一套完整體系。
Token預算
- 1 六層記憶體系:L1 Session(當前會話)、L2 Short-Term(24小時跨會話)、L3 Long-Term(向量存儲持久化事實)、L4 Knowledge Graph(圖數據庫實體關係)、L5 Experience(個人經驗庫)、L6 Skill(組織技能手冊)。
- 2 主動注入鈎子:UserMessage鈎子(用戶提問前雙路召回)、PreToolUse鈎子(敏感工具調用前匹配歷史風險)、ErrorSignal鈎子(檢測錯誤關鍵字後自動注入解法)。
- 3 Token預算治理:每條知識生成L0/L1/L2三級分辨率;按相關度score動態選檔(>0.8用L1,≤0.8用L0);單次注入Token壓在100-300;超預算時截斷單條assistantText保住推理鏈。
- 4 漸進式工具加載:初始只激活核心工具,長尾工具保留極簡描述,模型按需通過tool_search動態喚醒。
- 5 壓縮續接:窗口接近上限時觸發PreCompact,將對話壓縮成{overview, steps, todos}結構化摘要,作為Warm層注入下一輪。
六層記憶體系
主動注入
呢套組合拳令單次注入Token消耗下降約80%,工具調用準確率由V1嘅70%提升到V2嘅90%,重複問題處理時間由60秒縮短到5秒以內。
Token消耗下降80%
安全底線:五道防線確保可控性
將確定性要求極高嘅生產環境(如操作大量K8s集羣)交由概率性大模型決策,安全係不可逾越嘅底線。易點天下嘅理念係「AI係加速器,唔係剎車」——加速器必須跑喺有護欄嘅賽道上。
AI係加速器,唔係剎車
佢哋設計咗五層縱深防禦閘門,只有1層允許LLM參與決策,其餘4層全部由規則代碼物理兜底:
- 1 白名單准入(NamespaceGuard):中間件代碼屏蔽LLM對核心命名空間嘅操作權限。
- 2 試執行同人工介入(Dry Run + HITL):LLM生成指令先空跑,敏感操作強制人工審批(呢層係LLM唯一參與驗證嘅地方)。
- 3 資源鎖同爆炸半徑限制:代碼硬編碼單次操作嘅資源配額同影響範圍。
- 4 規則校驗(唔輕信LLM):執行後用代碼重新調用系統接口對比實際狀態。
- 5 強制回滾機制:所有修改類工具註冊時必須附帶降級同回滾邏輯。
五層縱深防禦
誤執行率接近零
未來洞察:生產力重構與開發者新身份
隨住工程化落地推進,AI定位已經質變。易點天下內部提出預判:喺2026年嘅AI Coding時代,開發者工作姿勢將被徹底重構——「由AI負責執行,人負責Taste(審美同邏輯判斷)」。
由AI負責執行,人負責Taste
目前,Agent喺易點天下已經突破底層運維實驗室邊界,作為「數字搭子」滲透業務毛細血管。公司內部活躍運行近百個Agent,覆蓋營銷、內部運營、技術運維、客戶服務等。
數字搭子
何宇航認為,當大模型基座逐漸趨同,真正技術壁壘將建立在三件事:對上下文工程嘅理解深度、多雲架構嘅掌控力、同埋將組織經驗沉澱為可執行Skill嘅能力。
上下文工程理解深度
組織經驗沉澱為Skill

隨住2026年嘅到來,生成式AI已經徹底告別咗「Demo滿天飛」嘅狂熱期,正式步入工程化落地嘅深水區。當大模型嘅能力邊界唔再神秘,企業架構師面對嘅核心命題已經轉移:點樣喺一個確定性要求極高嘅複雜企業架構入面,有效馴服Agent固有嘅「幻覺」同「遺忘」,令概率性嘅智能穩定咁行喺確定性嘅生產系統之上?
喺2026 QCon全球軟件開發大會·北京站上,易點天下中台研發總監何宇航分享咗佢哋喺Agentic AI領域嘅工程化實踐同思考。依靠企業級「上下文工程(Context Engineering)」同縱深安全防禦體系,佢詳細解讀咗易點天下點樣將概率性嘅AI穩妥咗嵌入全球化業務嘅毛細血管度。
Agent嘅穩定運行離唔開堅實嘅基礎設施。易點天下嘅核心業務覆蓋全球230幾個國家同地區,面對極高嘅合規同網絡連通性挑戰,佢哋底層嘅Cycor平台由設計之初就確立咗多雲戰略(Multi-cloud)。
目前,呢個平台已經實現咗對AWS、GCP、阿里雲、騰訊雲、華為雲等主流廠商嘅無縫接入同統一資源調度,實際納管緊大量K8s集羣同底層組件,形成咗跨雲、跨地域嘅統一控制面。
喺Agent嘅構建邏輯入面,呢種唔依賴單一雲底座嘅多雲共生架構有極高嘅戰略價值:佢唔單止由根本上規避咗供應商鎖定(Vendor Lock-in)嘅風險,更加重要嘅係,面對大模型算力調度嘅時候,能夠喺成本、效果同可控性之間動態平衡。對於人力相對精簡嘅底層運維團隊嚟講,呢種高度統一嘅多雲調度能力,正係後續構建DevOps Agent嘅物理前提。
喺Agent探索嘅早期(V1階段),研發團隊曾經基於低代碼平台構建線性Workflow編排:由一個前置分類器根據System Prompt路由到唔同嘅固定Agent。系統運行咗三個月之後,架構陣痛集中暴露:
首先,高度依賴系統提示詞嘅分類器極唔穩定,分類錯誤率長期維持喺15%左右,團隊成日陷入「修復A場景但係破壞B場景」嘅窘境;其次,記憶只係侷限喺單次上下文窗口,冇跨會話嘅持久化能力,搞到同一故障喺唔同會話入面要反覆由零推理;最後,固定編排令各Agent各自為戰,冇辦法協同處理跨域鏈路問題。
為咗解決呢個問題,技術團隊果斷放棄線性編排,轉向基於Agent Loop嘅自主智能體架構(單輪對話內最多15輪工具調用循環),並將工程重心由「點樣措辭(Prompt)」徹底切換到「每一步應該畀咩信息(Context)」嘅上下文工程。
簡單嚟講,上下文工程解決三個互相糾纏嘅根本問題:需要嘅信息點樣入得嚟、無關嘅信息點樣擋得住、寶貴嘅Token預算點樣使喺刀刃上圍繞呢三條主線,易點天下搭建咗一套涵蓋「分層記憶 + 主動注入 + 預算治理 + 壓縮續接」嘅完整工程體系。

為咗令Agent喺長期任務入面既可以記住關鍵線索,又能夠有效過濾噪音,系統設計咗一條動態嘅信息管線,將上下文精細化為六個層次:
L1 Session Memory(當前會話):基於PostgreSQL普通表,透過session_id進行硬隔離,支撐當前會話嘅毫秒級讀寫同自動化清理;
L2 Short-Term(近期記憶):維持24小時嘅跨會話時間窗口,用嚟識別短期內嘅故障復發;
L3 Long-Term(持久化事實):引入記憶引擎同向量存儲,將高價值對話提煉成客觀事實並持久化,配合Agentic Search進行語義檢索同衝突合併;
L4 Knowledge Graph(實體關係):由LLM抽取三元組,存入圖數據庫,幫Agent喺複雜微服務網絡入面建立資源之間嘅拓撲認知;
L5 Experience(個人經驗庫):系統自動對高頻故障模式進行聚類,提煉出好似「遇到OOM先查limits」嘅經驗標籤,喺同類報錯入面自動注入;
L6 Skill(組織技能手冊):由經過人工驗證嘅經驗固化而嚟嘅標準化Markdown手冊,作為組織級嘅Skill資產沉澱落嚟,真正實現「個人經驗 → 團隊資產」嘅躍遷。
淨係將信息存落嚟遠遠唔夠。傳統嘅「Agent按需自取」模式有一個根本缺陷——模型唔知自己唔知啲乜,佢冇辦法主動去檢索一條佢從來未聽過嘅故障記錄。為咗解決呢個問題,易點天下參考咗Hook化嘅主動推送思路,喺Agent生命週期嘅關鍵節點內置咗三類檢索鈎子:
UserMessage 鈎子:喺用戶提問進入Agent Loop之前,先做意圖過濾同關鍵詞/語義雙路召回,將相關記憶分層注入到System Prompt;
PreToolUse 鈎子:喺寫文件、改配置等敏感工具調用之前,按精確資源ID匹配歷史變更記錄同已知風險,避免Agent重複踩坑;
ErrorSignal 鈎子:一旦檢測到錯誤關鍵字(timeout、OOM、ImagePullBackOff等),自動按bugs/errors維度拉取歷史解法並分層注入。
呢個機制將「記憶」由被動嘅數據庫升級做主動嘅副駕駛——Agent喺真正需要某條知識之前,相關上下文已經靜靜雞到位。
上下文窗口係Agent時代最稀缺嘅資源。經驗話畀我哋知,一次粗放咁塞3條知識、每條500 tokens,就會吞咗大約10%嘅可用窗口,唔單止擠佔推理空間,仲會放大Lost in the Middle效應。易點天下為此構建咗一套分層嘅Token預算治理體系:
三級內容分層:每條知識都會被預先生成L0/L1/L2三種「解像度」——L0 Abstract約100 tokens嘅一句話摘要,L1 Overview約300 tokens嘅詳細要點,L2 Full就係完整Markdown全文;
按相關度動態選檔:檢索命中之後,相關度score > 0.8注入L1,score ≤ 0.8降級為L0,用戶或者Agent主動Read先至展開L2,單次注入Token穩定壓喺100–300嘅小窗口入面;
短會話直通,長會話採樣:當整段會話字符數喺預算之內嘅時候直通唔壓縮,零信息損失;一旦超預算,優先截斷單條assistantText,而唔係成段丟棄問答對,保住推理鏈條嘅完整性;
硬預算 + 軟降級:每條鏈路都有明確嘅性能預算(例如UserMessage注入3秒、PreToolUse注入100毫秒內完成),超時就行降級路徑,寧願少注入都唔好阻塞主流程。
呢一套組合拳打落嚟,單次注入嘅Token消耗下降咗大約80%,同時因為L2完整內容始終「一鍵可達」,信息完整性反而得到咗更好嘅保證。
喺真實嘅K8s運維場景入面,Agent面對數十甚至上百個可選工具。如果將全部Tool Schema一次過塞入Prompt,唔單止浪費Token,仲會觸發大模型嘅中間注意力丟失(Lost in the Middle),搞到工具選擇錯亂。
為咗解決呢個問題,易點天下設計咗「漸進式工具加載(Deferred Tool Registry)」機制:初始狀態只啟動list_pods等核心工具,其餘長尾工具只喺Prompt入面保留極簡描述;當模型推理需要嘅時候,透過內部嘅tool_search能力按需動態喚醒並加載對應工具。
呢個工程手段帶嚟咗跨越式嘅效果提升:工具調用準確率由V1嘅大約70%提升到V2嘅大約90%;由於記憶層可以直接命中已經解決咗嘅故障模式,重複性問題嘅處理時間由原先嘅60秒級別縮短到5秒以內,響應週期實現咗數量級改善。
就算做咗嚴格嘅預算治理,真實運維場景下嘅長鏈路排障仍然可能逼近上下文上限。為咗解決呢個問題,系統喺窗口接近閾值嘅時候會觸發PreCompact鈎子:將現有對話按「問題—行動—觀察—結論」嘅結構化摘要格式進行壓縮,生成{ overview, steps, todos }三段式嘅會話摘要,並喺下一輪啟動嘅時候作為Warm層(最近10次會話摘要,FIFO淘汰)注入。咁樣令到Agent即使跨越幾個鐘嘅多階段任務,都可以「記得上次做到邊一步、仲有邊啲TODO未閉環」,徹底告別咗V1階段「關咗對話就失憶」嘅窘境。
可以話,如果L1–L6回答嘅係 信息放喺邊度,主動注入解決嘅係 幾時送入去,咁Token預算治理同壓縮續接要回答嘅就係 點樣喺有限窗口入面將每一個Token使喺最有價值嘅地方——呢三件事夾埋,先至構成咗易點天下真正意義上嘅「上下文工程」。
將確定性要求極高嘅生產環境(例如操作海量K8s集羣)交畀概率性嘅大模型去決策,安全係唔可以逾越嘅底線。喺易點天下嘅治理理念入面,「AI係加速器,而唔係剎車」——但加速器必須行喺有護欄嘅賽道上。
為咗做到呢點,系統喺Agent操作鏈路上設計咗五層結構化嘅縱深防禦閘門。喺呢套體系入面,只有1層容許大模型(LLM)參與決策,其餘4層全部交由嚴謹嘅規則代碼進行物理兜底:
白名單准入(NamespaceGuard):喺中間件代碼層面直接屏蔽LLM對kube-system等核心命名空間嘅可見性同操作權限,風險由源頭隔離;
試執行與人工介入(Dry Run + HITL):LLM生成嘅運維指令先進行空跑校驗,敏感操作強制觸發人工審批流程(呢個係LLM唯一參與驗證判斷嘅層級);
資源鎖與爆炸半徑限制:透過代碼硬編碼單次操作嘅資源配額同影響範圍,防止級聯雪崩;
規則校驗(唔輕信LLM):指令執行之後,系統拒絕依賴大模型嘅自然語言回覆,而係透過代碼重新調用系統接口,對比實際狀態係咪符合預期;
強制回滾機制:系統約束所有修改類工具喺註冊嘅時候必須附帶降級同回滾邏輯,出現異常可以一鍵退回安全狀態。
透過呢套防禦機制,易點天下將複雜集羣操作嘅誤執行率壓低到接近零,喺效能同安全之間取得咗穩定平衡。
喺工程化落地嘅推動之下,AI嘅定位已經發生質變。正如佢哋內部實踐總結所提出嘅預判:喺2026年嘅AI Coding時代,開發者嘅工作姿勢將會被徹底重構——「由AI負責執行,人負責Taste(審美同邏輯判斷)」。
目前,Agent喺易點天下已經突破咗底層運維實驗室嘅邊界,作為「數字搭子」深度滲透到業務毛細血管之中。依靠堅實嘅AI中台架構,公司內部已經活躍運行緊接近一百個唔同職能嘅Agent,覆蓋營銷業務(策略洞察、自動化投放)、內部運營(BI分析、審批協同)、技術運維、客戶服務等多個維度。
當大模型基座逐漸趨同,真正嘅技術壁壘將會建立喺三件事之上:企業對上下文工程嘅理解深度、多雲架構嘅掌控力,以及將組織經驗沉澱為可執行Skill嘅能力。易點天下嘅工程化實踐再一次證明:喺呢場生產力重構嘅浪潮入面,用極客嘅確定性去駕馭AI嘅不確定性,係企業走向智能化嘅必由之路。
(註:文中提及嘅相關數據均來源於易點天下,最終解釋權歸易點天下所有。)
測完MBTI,快啲解鎖技術人專屬AITI!前沿探索家、大模型工程師、Agent實戰拆解師、行業賦能師… 你係邊一種?6.26-27 # AICon 上海站等你嚟面基同頻人!世界模型與多模態智能突破、Agent架構與工程化實踐、Agent安全與可信治理、企業級研發體系重構等14大專題全面開啓,誠摯邀請你登台分享實戰經驗。AICon 2026,期待與你同行。


隨着 2026 年的到來,生成式 AI 已經徹底告別了"Demo 滿天飛"的狂熱期,正式步入工程化落地的深水區。當大模型的能力邊界不再神秘,企業架構師們面臨的核心命題已經發生轉移:如何在一個確定性要求極高的複雜企業架構中,有效馴服 Agent 固有的"幻覺"與"遺忘",讓概率性的智能穩定地跑在確定性的生產系統之上?
在 2026 QCon 全球軟件開發大會·北京站上,易點天下中台研發總監何宇航分享了其在 Agentic AI 領域的工程化實踐與思考。依託企業級"上下文工程(Context Engineering)"與縱深安全防禦體系,他詳細解讀了易點天下如何將概率性的 AI 穩妥地嵌入全球化業務的毛細血管中。
Agent 的穩定運行無法脱離堅實的基礎設施。易點天下的核心業務覆蓋全球 230 多個國家和地區,面對極高的合規與網絡連通性挑戰,其底層的 Cycor 平台從設計之初便確立了多雲戰略(Multi-cloud)。
目前,該平台已實現對 AWS、GCP、阿里雲、騰訊雲、華為雲等主流廠商的無縫接入與統一資源調度,實際納管着大量 K8s 集羣與底層組件,形成了跨雲、跨地域的統一控制面。
在 Agent 的構建邏輯中,這種不依賴單一雲底座的多雲共生架構具有極高的戰略價值:它不僅從根本上規避了供應商鎖定(Vendor Lock-in)的風險,更重要的是在面對大模型算力調度時,能夠在成本、效果與可控性之間動態平衡。對於人力相對精簡的底層運維團隊而言,這種高度統一的多雲調度能力,正是後續構建 DevOps Agent 的物理前提。
在 Agent 探索的早期(V1 階段),研發團隊曾基於低代碼平台構建線性 Workflow 編排:由一個前置分類器根據 System Prompt 路由到不同的固定 Agent。系統運行三個月後,架構陣痛集中暴露:
首先,高度依賴系統提示詞的分類器極不穩定,分類錯誤率長期維持在 15% 左右,團隊常常陷入"修復 A 場景卻破壞 B 場景"的窘境;其次,記憶僅侷限於單次上下文窗口,缺乏跨會話的持久化能力,導致同一故障在不同會話中被反覆從零推理;最後,固定編排使各 Agent 各自為戰,無法協同處理跨域鏈路問題。
為此,技術團隊果斷放棄線性編排,轉向基於 Agent Loop 的自主智能體架構(單輪對話內最多 15 輪工具調用循環),並將工程重心從"怎麼措辭(Prompt)"徹底切換到"每一步該給什麼信息(Context)"的上下文工程。
簡單來說,上下文工程解決三個彼此糾纏的根本問題:需要的信息如何進得來、無關的信息如何擋得住、寶貴的 Token 預算如何花在刀刃上。圍繞這三條主線,易點天下搭建了一套覆蓋"分層記憶 + 主動注入 + 預算治理 + 壓縮續接"的完整工程體系。

為了讓 Agent 在長期任務中既能記住關鍵線索,又能有效過濾噪音,系統設計了一條動態的信息管線,將上下文精細化為六個層次:
L1 Session Memory(當前會話):基於 PostgreSQL 普通表,通過 session_id 進行硬隔離,支撐當前會話的毫秒級讀寫與自動化清理;
L2 Short-Term(近期記憶):維持 24 小時的跨會話時間窗口,用於識別短期內的故障復發;
L3 Long-Term(持久化事實):引入記憶引擎與向量存儲,將高價值對話提煉為客觀事實並持久化,配合 Agentic Search 進行語義檢索與衝突合併;
L4 Knowledge Graph(實體關係):由 LLM 抽取三元組,存入圖數據庫,幫助 Agent 在複雜微服務網絡中建立資源間的拓撲認知;
L5 Experience(個人經驗庫):系統自動對高頻故障模式進行聚類,提煉出如"遇到 OOM 先查 limits"的經驗標籤,在同類報錯中自動注入;
L6 Skill(組織技能手冊):由經過人工驗證的經驗固化而來的標準化 Markdown 手冊,作為組織級的 Skill 資產沉澱下來,真正實現"個人經驗 → 團隊資產"的躍遷。
僅僅把信息存下來還遠遠不夠。傳統的"Agent 按需自取"模式存在一個根本缺陷——模型不知道自己不知道什麼,它無法主動去檢索一條它從未聽說過的故障記錄。為此,易點天下借鑑了 Hook 化的主動推送思路,在 Agent 生命週期的關鍵節點內置了三類檢索鈎子:
UserMessage 鈎子:在用戶提問進入 Agent Loop 之前,先做意圖過濾與關鍵詞 / 語義雙路召回,將相關記憶分層注入到 System Prompt;
PreToolUse 鈎子:在寫文件、改配置等敏感工具調用之前,按精確資源 ID 匹配歷史變更記錄與已知風險,避免 Agent 重複踩坑;
ErrorSignal 鈎子:一旦檢測到錯誤關鍵字(timeout、OOM、ImagePullBackOff 等),自動按 bugs/errors 維度拉取歷史解法並分層注入。
這一機制把"記憶"從被動的資料庫升級為主動的副駕駛——Agent 在真正需要某條知識之前,相關上下文就已經悄悄到位。
上下文窗口是 Agent 時代最稀缺的資源。經驗表明,一次粗放地塞入 3 條知識、每條 500 tokens,就會吞掉約 10% 的可用窗口,不僅擠佔推理空間,還會放大 Lost in the Middle 效應。易點天下為此構建了一套分層的 Token 預算治理體系:
三級內容分層:每條知識都會被預先生成 L0/L1/L2 三種"分辨率"——L0 Abstract 約 100 tokens 的一句話摘要,L1 Overview 約 300 tokens 的詳細要點,L2 Full 則是完整 Markdown 全文;
按相關度動態選檔:檢索命中後,相關度 score > 0.8 注入 L1、score ≤ 0.8 降級為 L0、用戶或 Agent 主動 Read 時才展開 L2,單次注入 Token 穩定壓在 100–300 的小窗口內;
短會話直通,長會話採樣:當整段會話字符數在預算之內時直通不壓縮,零信息損失;一旦超預算,優先截斷單條 assistantText,而不是整段丟棄問答對,保住推理鏈條的完整性;
硬預算 + 軟降級:每條鏈路都設有明確的性能預算(如 UserMessage 注入 3 秒、PreToolUse 注入 100 毫秒內完成),超時即走降級路徑,寧可少注入也不阻塞主流程。
這一套組合拳下來,單次注入的 Token 消耗下降約 80%,同時因為 L2 完整內容始終"一鍵可達",信息完整性反而得到了更好的保證。
在真實的 K8s 運維場景中,Agent 面臨數十乃至上百個可選工具。如果將全部 Tool Schema 一次性塞入 Prompt,不僅浪費 Token,還會觸發大模型的中間注意力丟失(Lost in the Middle),導致工具選擇錯亂。
為此,易點天下設計了"漸進式工具加載(Deferred Tool Registry)"機制:初始態僅激活 list_pods 等核心工具,其餘長尾工具僅在 Prompt 中保留極簡描述;當模型推理需要時,通過內部的 tool_search 能力按需動態喚醒並加載對應工具。
這一工程手段帶來了跨越式的效果提升:工具調用準確率由 V1 的約 70% 提升至 V2 的約 90%;由於記憶層可直接命中已解決過的故障模式,重複性問題的處理時間由原先的 60 秒量級縮短至 5 秒以內,響應週期實現了數量級改善。
即便做了嚴格的預算治理,真實運維場景下的長鏈路排障仍可能逼近上下文上限。為此,系統在窗口接近閾值時會觸發 PreCompact 鈎子:將既有對話按"問題—行動—觀察—結論"的結構化摘要格式進行壓縮,生成 { overview, steps, todos } 三段式的會話摘要,並在下一輪啓動時作為 Warm 層(最近 10 次會話摘要,FIFO 淘汰)注入。這使得 Agent 即使跨越數小時的多階段任務,也能"記得上次做到哪一步、還有哪些 TODO 沒閉環",徹底告別了 V1 階段"關掉對話就失憶"的窘境。
可以說,如果 L1–L6 回答的是 信息放在哪裏,主動注入解決的是 什麼時候送進去,那麼 Token 預算治理與壓縮續接要回答的則是 怎麼在有限窗口裏把每一個 Token 花在最有價值的地方——這三件事合在一起,才構成了易點天下真正意義上的"上下文工程"。
將確定性要求極高的生產環境(如操作海量 K8s 集羣)交由概率性的大模型去決策,安全是不可逾越的底線。在易點天下的治理理念中,"AI 是加速器,而不是剎車"——但加速器必須跑在有護欄的賽道上。
為此,系統在 Agent 操作鏈路上設計了五層結構化的縱深防禦閘門。在這套體系中,僅有 1 層允許大模型(LLM)參與決策,其餘 4 層全部交由嚴謹的規則代碼進行物理兜底:
白名單准入(NamespaceGuard):在中間件代碼層面直接屏蔽 LLM 對 kube-system 等核心命名空間的可見性與操作權限,風險從源頭隔離;
試執行與人工介入(Dry Run + HITL):LLM 生成的運維指令先進行空跑校驗,敏感操作強制觸發人工審批流(這是 LLM 唯一參與驗證判斷的層級);
資源鎖與爆炸半徑限制:通過代碼硬編碼單次操作的資源配額與影響範圍,防止級聯雪崩;
規則校驗(不輕信 LLM):指令執行後,系統拒絕依賴大模型的自然語言回覆,而是通過代碼重新調用系統接口,對比實際狀態是否符合預期;
強制回滾機制:系統約束所有修改類工具在註冊時必須附帶降級與回滾邏輯,出現異常可一鍵退回安全態。
通過這套防禦機制,易點天下將複雜集羣操作的誤執行率壓低至接近於零,在效能與安全之間取得了穩定平衡。
在工程化落地的推動下,AI 的定位已經發生質變。正如其內部實踐總結中所提出的預判:在 2026 年的 AI Coding 時代,開發者的工作姿勢將被徹底重構——"由 AI 負責執行,人負責 Taste(審美與邏輯判斷)"。
目前,Agent 在易點天下早已突破底層運維實驗室的邊界,作為"數字搭子"深度滲透到業務毛細血管之中。依託堅實的 AI 中台架構,公司內部已活躍運行着近百個不同職能的 Agent,覆蓋營銷業務(策略洞察、自動化投放)、內部運營(BI 分析、審批協同)、技術運維、客戶服務等多個維度。
當大模型基座逐漸趨同,真正的技術壁壘將建立在三件事之上:企業對上下文工程的理解深度、多雲架構的掌控力,以及把組織經驗沉澱為可執行 Skill 的能力。易點天下的工程化實踐再一次證明:在這場生產力重構的浪潮中,用極客的確定性去駕馭 AI 的不確定性,是企業走向智能化的必由之路。
(注:文中提及的相關數據均來源於易點天下,最終解釋權歸易點天下所有。)
測完 MBTI,快來解鎖技術人專屬 AITI !前沿探索家、大模型工程師、Agent 實戰拆解師、行業賦能師… 你是哪一種?6.26-27 # AICon 上海站等你面基同頻人!世界模型與多模態智能突破、Agent 架構與工程化實踐、Agent 安全與可信治理、企業級研發體系重構等 14 大專題全面開啓,誠摯邀請你登台分享實戰經驗。AICon 2026,期待與你同行。
