為什麼你的AI寫的代碼總是"半吊子"?問題不在模型,在你
整理版優先睇
AI寫代碼半吊子?問題係你點管理上下文
呢篇文章講嘅係一個常見嘅困惑:點解用同樣嘅AI模型(Claude、Cursor),有人可以一氣呵成完成項目,有人就做到一半開始「雞同鴨講」?作者發現關鍵唔係模型本身,而係點樣管理餵畀AI嘅「上下文」。
Cursor最近公佈咗一個新功能——動態上下文發現,佢哋嘅核心發現係:畀模型嘅信息越少,輸出反而越精準。原因好簡單:信息少,噪音就少;噪音少,AI嘅注意力就集中;注意力集中,任務完成度就高。呢個概念聽落反直覺,但邏輯好合理。
文章提供咗5個即用嘅技巧:長響應存文件、聊天記錄保存、Agent技能按需加載、MCP工具動態發現、終端日誌存文件加grep提取。整體結論係:Context is King。喺AI時代,管理上下文嘅能力就係你嘅核心競爭力。
- 結論:管理上下文比模型更重要,好模型唔等於好代碼。
- 方法:動態上下文發現——信息越少,輸出越精準。
- 差異:畀太多資訊會令AI分心,分批餵食效果更好。
- 啟發:AI編程工具嘅真正瓶頸係餵養方式,唔係模型。
- 可行動點:檢查配置文件,加入長響應存文件、聊天記錄保存等指令。
作者嘅頓悟
作者曾經以為,用上最強嘅AI模型,代碼質量就會自動起飛。但佢發現,同樣嘅Claude同Cursor,有人可以完成整個項目,佢自己就喺第三輪對話後開始「雞同鴨講」。
問題唔係模型唔夠聰明,係我餵畀佢嘅「上下文」太亂了。
Cursor嘅動態上下文發現
Cursor最近做咗一件大事——將「上下文管理」內置到產品裏面。佢哋嘅核心發現係:畀模型嘅信息越少,輸出越精準。呢個概念聽落反直覺,但邏輯好簡單。
信息越少 → 噪音越少 → 注意力越集中 → 任務完成度越高
呢個發現改變咗作者對AI編程嘅理解,原來瓶頸唔係模型,而係我哋點樣「餵養」佢。
5個即用上下文管理技巧
以下技巧可以即刻用喺你嘅AI工具,提升代碼質量。
- 長響應存文件:任何超過50行嘅MCP響應,保存到文件,需要時再讀取。Claude可以反覆分析文件內容,唔使重複調用工具。
- 聊天記錄保存:將完整聊天記錄存成文件,當摘要唔夠用嘅時候,AI可以回溯原始對話,避免遺失關鍵細節。
- Agent技能按需加載:只將技能名稱同描述放進上下文,需要時先搜索加載具體內容,5個技能只佔約0.2%嘅空間。
- MCP工具動態發現:每個MCP一個文件夾,用文件夾列出工具名,AI淨係需要嗰陣先查找。測試顯示可以節省46.9%嘅上下文空間。
- 終端日誌存文件加Grep提取:將所有終端輸出自動寫入日誌文件,用Grep命令提取錯誤信息。Claude用幾秒就揾到崩潰原因,省下重跑測試嘅2分鐘。
別讓AI一次食太多,分批餵食,消化更好。
一個令我頓悟嘅真相
我以前以為,用咗最強嘅AI模型,啲代碼質素就會自動飛天。
直到我發現咗:同樣嘅Claude,同樣嘅Cursor,有人可以一氣呵成完成曬成個項目,而我呢,就喺第三輪對話之後開始「雞同鴨講」。
問題出喺邊?
唔係模型唔夠聰明。係我餵畀佢嘅「上下文」太亂。
💡 金句:好模型唔等於好代碼。你點樣管理上下文,先至係決定代碼質素嘅隱藏變數。
🧠 Cursor啱啱公佈嘅秘密:動態上下文發現
Cursor最近做咗一件大事——佢哋將「上下文管理」直接內置咗入個產品度。
佢哋嘅核心發現令我震驚:
畀模型嘅資訊越少,輸出越精準。
聽落反直覺?但邏輯好簡單:
資訊越少 → 噪音越少 噪音越少 → 注意力越集中 注意力集中 → 任務完成度越高
呢個就好似你叫一個人同時做50件事,對比淨係叫佢專注做1件事。結果差天共地。
📋 5個即刻可以用嘅上下文管理技巧
1️⃣ 長響應?存檔案!
MCP工具成日會回傳超長響應,直接塞入上下文視窗會造成「資訊爆炸」。
傳統做法:截斷長響應(但會遺失關鍵資訊)
更好嘅方式:
任何超過50行的MCP響應 → 保存到文件 → 需要時再讀取
實際效果:Claude可以反覆分析檔案內容,唔使重複叫工具,準確率直線上升。
💡 金句:唔好俾AI一次過食太多。分批餵食,消化得更好。
2️⃣ 聊天記錄?唔好俾佢消失!
你有冇遇過呢種情況:
對話去到一半,系統自動「壓縮摘要」,然後……之前討論嘅關鍵細節冇曬?
Cursor嘅解法:將完整聊天記錄存做檔案。
當摘要唔夠用嘅時候,AI可以回溯返原始對話,揾返啲「被遺忘」嘅細節。
我嘅實踐:在claude.md喺度加一條指令——每輪對話結束之後,自動將關鍵決策同步驟記錄到歷史資料夾。
結果:以後唔怕「善忘」嘅AI喇。
3️⃣ Agent技能:按需加載,而唔係全部塞入
Anthropic首創嘅「Agent技能」概念,畀Cursor發揚光大。
核心思想:漸進式披露(Progressive Disclosure)
淨係將技能嘅名同描述放入上下文 有需要嗰陣先透過搜尋加載具體內容 5個技能只佔用大約**0.2%**嘅上下文空間
💡 金句:最好嘅工具箱,唔係將所有工具擺曬喺枱面,而係知道幾時要拎邊一把。
4️⃣ MCP工具:動態發現,慳返46.9%空間!
呢個係最令我興奮嘅數據——
Cursor測試發現:動態發現MCP工具,比起全部暴露喺上下文裏便,節省咗46.9%嘅空間。
方法:
每個MCP一個資料夾 資料夾裏便列出所有工具名 AI淨係喺需要嗰陣先去揾具體工具
額外好處:當MCP伺服器斷線嗰陣,AI仲會提你重新認證。
5️⃣ 終端日誌:存檔案 + Grep提取
跑咗2分鐘嘅測試,結果報錯。
傳統做法:重新跑一次,浪費時間。
更聰明嘅方式:
將所有終端輸出自動寫入日誌檔案 用Grep指令提取相關錯誤資訊 AI直接分析日誌,定位問題
我測試嗰陣,Claude淨係用咗幾秒就喺日誌裏便揾到崩潰原因——慳返重跑測試嘅2分鐘。
🎯 最後嘅啓發
AI編程工具嘅真正瓶頸,從來都唔係模型本身。
係我哋點樣「餵養」佢。
就好似種一棵樹咁:
水太多會爛根(資訊過載) 水太少會枯萎(上下文不足) 恰到好處先可以茁壯成長
💡 金句:Context is King. 喺AI時代,管理上下文嘅能力,就係你嘅核心競爭力。
下一步行動:
檢查你嘅AI工具配置文件 加入「長響應存檔案」嘅指令 開啓聊天記錄自動保存
試嚇,你會發現——同樣嘅AI,完全唔同嘅表現。
覺得有用?轉發畀正在俾AI「激到跳起」嘅朋友啦。 😄
一個讓我頓悟的真相
我曾以為,用上最強的AI模型,代碼質量就會自動起飛。
直到我發現:同樣的Claude,同樣的Cursor,有人能一氣呵成完成整個項目,而我卻在第三輪對話後就開始"雞同鴨講"。
問題出在哪?
不是模型不夠聰明。是我餵給它的"上下文"太亂了。
💡 金句:好模型不等於好代碼。你如何管理上下文,才是決定代碼質量的隱藏變量。
🧠 Cursor剛公佈的秘密:動態上下文發現
Cursor最近做了一件大事——他們把"上下文管理"直接內置到產品裏了。
他們的核心發現讓我震驚:
給模型的信息越少,輸出越精準。
聽起來反直覺?但邏輯很簡單:
信息越少 → 噪音越少 噪音越少 → 注意力越集中 注意力集中 → 任務完成度越高
這就像你讓一個人同時處理50件事,vs 只讓他專注1件事。結果天差地別。
📋 5個立刻能用的上下文管理技巧
1️⃣ 長響應?存文件!
MCP工具經常返回超長響應,直接塞進上下文窗口會造成"信息爆炸"。
傳統做法:截斷長響應(但會丟失關鍵信息)
更好的方式:
任何超過50行的MCP響應 → 保存到文件 → 需要時再讀取
實際效果:Claude可以反覆分析文件內容,不用重複調用工具,準確率直線上升。
💡 金句:別讓AI一次吃太多。分批餵食,消化更好。
2️⃣ 聊天記錄?別讓它消失!
你有沒有遇到過這種情況:
對話進行到一半,系統自動"壓縮摘要",然後……之前討論的關鍵細節全沒了?
Cursor的解法:把完整聊天記錄存成文件。
當摘要不夠用時,AI可以回溯原始對話,找回那些被"遺忘"的細節。
我的實踐:在claude.md里加一條指令——每輪對話結束後,自動把關鍵決策和步驟記錄到歷史文件夾。
結果:再也不怕"健忘"的AI了。
3️⃣ Agent技能:按需加載,而非全部塞入
Anthropic首創的"Agent技能"概念,被Cursor發揚光大了。
核心思想:漸進式披露(Progressive Disclosure)
只把技能的名稱和描述放進上下文 需要時再通過搜索加載具體內容 5個技能只佔用約**0.2%**的上下文空間
💡 金句:最好的工具箱,不是把所有工具攤在桌上,而是知道什麼時候該拿哪一把。
4️⃣ MCP工具:動態發現,省下46.9%空間!
這是最讓我興奮的數據——
Cursor測試發現:動態發現MCP工具,比全部暴露在上下文裏,節省了46.9%的空間。
方法:
每個MCP一個文件夾 文件夾裏列出所有工具名 AI只在需要時才去查找具體工具
額外好處:當MCP服務器斷開連接時,AI還能提醒你重新認證。
5️⃣ 終端日誌:存文件 + Grep提取
跑了2分鐘的測試,結果報錯了。
傳統做法:重新跑一遍,浪費時間。
更聰明的方式:
把所有終端輸出自動寫入日誌文件 用Grep命令提取相關錯誤信息 AI直接分析日誌,定位問題
我測試時,Claude只用了幾秒就從日誌裏找到了崩潰原因——省下了重跑測試的2分鐘。
🎯 最後的啓發
AI編程工具的真正瓶頸,從來不是模型本身。
是我們如何"餵養"它。
就像養一棵樹:
水太多會爛根(信息過載) 水太少會枯萎(上下文不足) 恰到好處才能茁壯成長
💡 金句:Context is King. 在AI時代,管理上下文的能力,就是你的核心競爭力。
下一步行動:
檢查你的AI工具配置文件 加入"長響應存文件"的指令 開啓聊天記錄自動保存
試試看,你會發現——同樣的AI,完全不一樣的表現。
覺得有用?轉發給正在被AI"氣瘋"的朋友吧。 😄