為什麼你的AI寫的代碼總是"半吊子"?問題不在模型,在你

作者:竇竇的AI工具庫
日期:2026年1月16日 上午2:11
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

AI寫代碼半吊子?問題係你點管理上下文

整理版摘要

呢篇文章講嘅係一個常見嘅困惑:點解用同樣嘅AI模型(Claude、Cursor),有人可以一氣呵成完成項目,有人就做到一半開始「雞同鴨講」?作者發現關鍵唔係模型本身,而係點樣管理餵畀AI嘅「上下文」。

Cursor最近公佈咗一個新功能——動態上下文發現,佢哋嘅核心發現係:畀模型嘅信息越少,輸出反而越精準。原因好簡單:信息少,噪音就少;噪音少,AI嘅注意力就集中;注意力集中,任務完成度就高。呢個概念聽落反直覺,但邏輯好合理。

文章提供咗5個即用嘅技巧:長響應存文件、聊天記錄保存、Agent技能按需加載、MCP工具動態發現、終端日誌存文件加grep提取。整體結論係:Context is King。喺AI時代,管理上下文嘅能力就係你嘅核心競爭力。

  • 結論:管理上下文比模型更重要,好模型唔等於好代碼。
  • 方法:動態上下文發現——信息越少,輸出越精準。
  • 差異:畀太多資訊會令AI分心,分批餵食效果更好。
  • 啟發:AI編程工具嘅真正瓶頸係餵養方式,唔係模型。
  • 可行動點:檢查配置文件,加入長響應存文件、聊天記錄保存等指令。
整理重點

作者嘅頓悟

作者曾經以為,用上最強嘅AI模型,代碼質量就會自動起飛。但佢發現,同樣嘅ClaudeCursor,有人可以完成整個項目,佢自己就喺第三輪對話後開始「雞同鴨講」。

問題唔係模型唔夠聰明,係我餵畀佢嘅「上下文」太亂了。

整理重點

Cursor嘅動態上下文發現

Cursor最近做咗一件大事——將「上下文管理」內置到產品裏面。佢哋嘅核心發現係:畀模型嘅信息越少,輸出越精準。呢個概念聽落反直覺,但邏輯好簡單。

信息越少 → 噪音越少 → 注意力越集中 → 任務完成度越高

呢個發現改變咗作者對AI編程嘅理解,原來瓶頸唔係模型,而係我哋點樣「餵養」佢。

整理重點

5個即用上下文管理技巧

以下技巧可以即刻用喺你嘅AI工具,提升代碼質量。

  • 長響應存文件:任何超過50行嘅MCP響應,保存到文件,需要時再讀取。Claude可以反覆分析文件內容,唔使重複調用工具。
  • 聊天記錄保存:將完整聊天記錄存成文件,當摘要唔夠用嘅時候,AI可以回溯原始對話,避免遺失關鍵細節。
  • Agent技能按需加載:只將技能名稱同描述放進上下文,需要時先搜索加載具體內容,5個技能只佔約0.2%嘅空間。
  • MCP工具動態發現:每個MCP一個文件夾,用文件夾列出工具名,AI淨係需要嗰陣先查找。測試顯示可以節省46.9%嘅上下文空間。
  • 終端日誌存文件加Grep提取:將所有終端輸出自動寫入日誌文件,用Grep命令提取錯誤信息。Claude用幾秒就揾到崩潰原因,省下重跑測試嘅2分鐘。

別讓AI一次食太多,分批餵食,消化更好。

一個令我頓悟嘅真相

我以前以為,用咗最強嘅AI模型,啲代碼質素就會自動飛天。

直到我發現咗:同樣嘅Claude,同樣嘅Cursor,有人可以一氣呵成完成曬成個項目,而我呢,就喺第三輪對話之後開始「雞同鴨講」。

問題出喺邊?

唔係模型唔夠聰明。係我餵畀佢嘅「上下文」太亂。

💡 金句:好模型唔等於好代碼。你點樣管理上下文,先至係決定代碼質素嘅隱藏變數。


🧠 Cursor啱啱公佈嘅秘密:動態上下文發現

Cursor最近做咗一件大事——佢哋將「上下文管理」直接內置咗入個產品度。

佢哋嘅核心發現令我震驚:

畀模型嘅資訊越少,輸出越精準。

聽落反直覺?但邏輯好簡單:

  • 資訊越少 → 噪音越少
  • 噪音越少 → 注意力越集中
  • 注意力集中 → 任務完成度越高

呢個就好似你叫一個人同時做50件事,對比淨係叫佢專注做1件事。結果差天共地。


📋 5個即刻可以用嘅上下文管理技巧

1️⃣ 長響應?存檔案!

MCP工具成日會回傳超長響應,直接塞入上下文視窗會造成「資訊爆炸」。

傳統做法:截斷長響應(但會遺失關鍵資訊)

更好嘅方式

任何超過50行的MCP響應 → 保存到文件 → 需要時再讀取

實際效果:Claude可以反覆分析檔案內容,唔使重複叫工具,準確率直線上升。

💡 金句:唔好俾AI一次過食太多。分批餵食,消化得更好。


2️⃣ 聊天記錄?唔好俾佢消失!

你有冇遇過呢種情況:

對話去到一半,系統自動「壓縮摘要」,然後……之前討論嘅關鍵細節冇曬?

Cursor嘅解法:將完整聊天記錄存做檔案。

當摘要唔夠用嘅時候,AI可以回溯返原始對話,揾返啲「被遺忘」嘅細節。

我嘅實踐:在claude.md喺度加一條指令——每輪對話結束之後,自動將關鍵決策同步驟記錄到歷史資料夾。

結果:以後唔怕「善忘」嘅AI喇。


3️⃣ Agent技能:按需加載,而唔係全部塞入

Anthropic首創嘅「Agent技能」概念,畀Cursor發揚光大。

核心思想:漸進式披露(Progressive Disclosure)

  • 淨係將技能嘅名同描述放入上下文
  • 有需要嗰陣先透過搜尋加載具體內容
  • 5個技能只佔用大約**0.2%**嘅上下文空間

💡 金句:最好嘅工具箱,唔係將所有工具擺曬喺枱面,而係知道幾時要拎邊一把。


4️⃣ MCP工具:動態發現,慳返46.9%空間!

呢個係最令我興奮嘅數據——

Cursor測試發現:動態發現MCP工具,比起全部暴露喺上下文裏便,節省咗46.9%嘅空間

方法

  • 每個MCP一個資料夾
  • 資料夾裏便列出所有工具名
  • AI淨係喺需要嗰陣先去揾具體工具

額外好處:當MCP伺服器斷線嗰陣,AI仲會提你重新認證。


5️⃣ 終端日誌:存檔案 + Grep提取

跑咗2分鐘嘅測試,結果報錯。

傳統做法:重新跑一次,浪費時間。

更聰明嘅方式

  1. 將所有終端輸出自動寫入日誌檔案
  2. 用Grep指令提取相關錯誤資訊
  3. AI直接分析日誌,定位問題

我測試嗰陣,Claude淨係用咗幾秒就喺日誌裏便揾到崩潰原因——慳返重跑測試嘅2分鐘。


🎯 最後嘅啓發

AI編程工具嘅真正瓶頸,從來都唔係模型本身。

係我哋點樣「餵養」佢。

就好似種一棵樹咁:

  • 水太多會爛根(資訊過載)
  • 水太少會枯萎(上下文不足)
  • 恰到好處先可以茁壯成長

💡 金句:Context is King. 喺AI時代,管理上下文嘅能力,就係你嘅核心競爭力。


下一步行動

  1. 檢查你嘅AI工具配置文件
  2. 加入「長響應存檔案」嘅指令
  3. 開啓聊天記錄自動保存

試嚇,你會發現——同樣嘅AI,完全唔同嘅表現。


覺得有用?轉發畀正在俾AI「激到跳起」嘅朋友啦。 😄


一個讓我頓悟的真相

我曾以為,用上最強的AI模型,代碼質量就會自動起飛。

直到我發現:同樣的Claude,同樣的Cursor,有人能一氣呵成完成整個項目,而我卻在第三輪對話後就開始"雞同鴨講"。

問題出在哪?

不是模型不夠聰明。是我餵給它的"上下文"太亂了。

💡 金句:好模型不等於好代碼。你如何管理上下文,才是決定代碼質量的隱藏變量。


🧠 Cursor剛公佈的秘密:動態上下文發現

Cursor最近做了一件大事——他們把"上下文管理"直接內置到產品裏了。

他們的核心發現讓我震驚:

給模型的信息越少,輸出越精準。

聽起來反直覺?但邏輯很簡單:

  • 信息越少 → 噪音越少
  • 噪音越少 → 注意力越集中
  • 注意力集中 → 任務完成度越高

這就像你讓一個人同時處理50件事,vs 只讓他專注1件事。結果天差地別。


📋 5個立刻能用的上下文管理技巧

1️⃣ 長響應?存文件!

MCP工具經常返回超長響應,直接塞進上下文窗口會造成"信息爆炸"。

傳統做法:截斷長響應(但會丟失關鍵信息)

更好的方式

任何超過50行的MCP響應 → 保存到文件 → 需要時再讀取

實際效果:Claude可以反覆分析文件內容,不用重複調用工具,準確率直線上升。

💡 金句:別讓AI一次吃太多。分批餵食,消化更好。


2️⃣ 聊天記錄?別讓它消失!

你有沒有遇到過這種情況:

對話進行到一半,系統自動"壓縮摘要",然後……之前討論的關鍵細節全沒了?

Cursor的解法:把完整聊天記錄存成文件。

當摘要不夠用時,AI可以回溯原始對話,找回那些被"遺忘"的細節。

我的實踐:在claude.md里加一條指令——每輪對話結束後,自動把關鍵決策和步驟記錄到歷史文件夾。

結果:再也不怕"健忘"的AI了。


3️⃣ Agent技能:按需加載,而非全部塞入

Anthropic首創的"Agent技能"概念,被Cursor發揚光大了。

核心思想:漸進式披露(Progressive Disclosure)

  • 只把技能的名稱和描述放進上下文
  • 需要時再通過搜索加載具體內容
  • 5個技能只佔用約**0.2%**的上下文空間

💡 金句:最好的工具箱,不是把所有工具攤在桌上,而是知道什麼時候該拿哪一把。


4️⃣ MCP工具:動態發現,省下46.9%空間!

這是最讓我興奮的數據——

Cursor測試發現:動態發現MCP工具,比全部暴露在上下文裏,節省了46.9%的空間

方法

  • 每個MCP一個文件夾
  • 文件夾裏列出所有工具名
  • AI只在需要時才去查找具體工具

額外好處:當MCP服務器斷開連接時,AI還能提醒你重新認證。


5️⃣ 終端日誌:存文件 + Grep提取

跑了2分鐘的測試,結果報錯了。

傳統做法:重新跑一遍,浪費時間。

更聰明的方式

  1. 把所有終端輸出自動寫入日誌文件
  2. 用Grep命令提取相關錯誤信息
  3. AI直接分析日誌,定位問題

我測試時,Claude只用了幾秒就從日誌裏找到了崩潰原因——省下了重跑測試的2分鐘。


🎯 最後的啓發

AI編程工具的真正瓶頸,從來不是模型本身。

是我們如何"餵養"它。

就像養一棵樹:

  • 水太多會爛根(信息過載)
  • 水太少會枯萎(上下文不足)
  • 恰到好處才能茁壯成長

💡 金句:Context is King. 在AI時代,管理上下文的能力,就是你的核心競爭力。


下一步行動

  1. 檢查你的AI工具配置文件
  2. 加入"長響應存文件"的指令
  3. 開啓聊天記錄自動保存

試試看,你會發現——同樣的AI,完全不一樣的表現。


覺得有用?轉發給正在被AI"氣瘋"的朋友吧。 😄