別再搭AI Agent了——你可能正在浪費生命
整理版優先睇
別再浪費時間搭AI Agent——真正嘅價值係領域專業深度
呢篇文章改編自Medium作家Shenggang Li嘅觀點,佢見過好多聰明人陷入同一個陷阱——花時間搭建RAG管道同Agent工作流,但呢啲系統可能只係裝飾品。作者想解決嘅問題係點解大多數AI Agent係浪費時間,整體結論係Agent唔係進步,而係暫時嘅權宜之計,真正有價值嘅係領域專業深度。
作者逐一拆解五大洞察,每個洞察都顛覆咗主流觀念:第一,Agent只係模型外面嘅保鮮膜,價值取決於基座模型,一旦模型升級,Agent邏輯可能作廢。第二,RAG只係因為當前模型限制而打嘅補丁,隨着模型進步,RAG會變得冇用。第三,Agent對專家係認知降級,因為佢限制咗非線性思考,將智能變成官僚制度。第四,AI係放大器,唔係替代品,專業度先係關鍵,AI只會令差距更極化。第五,週末Agent冇經濟未來,因為冇護城河,唔值得投資。
最後作者提出行動建議:停止追逐Agent工具鏈,投資專業知識,將AI當作放大器,警惕容易搭建嘅項目。呢篇文係對當前AI Agent熱潮嘅冷靜反思,提醒我哋回歸認知深度,避免浪費生命喺裝飾品上。
- 結論:大多數AI Agent只係裝飾品,真正價值來自領域專業深度。
- 方法:唔好花時間搭建Agent,而係專注提升自己嘅領域知識。
- 差異:Agent對專家係倒退,因為佢將認知凍結成模板,限制創造力。
- 啟發:AI係放大器,唔係替代品;專業度為零,再勁嘅AI都冇用。
- 可行動點:停止追逐Agent工具鏈,投資專業,警惕「週末Agent」項目。
Agent只係一層保鮮膜
Agent = 大模型 + 記憶 + 檢索 + 工具 + 工作流
大語言模型本質上係一個函數逼近器,唔會憑空創造信息,只係對輸入進行變換、壓縮、推斷。而AI Agent聽落好勁,但結構上你冇創造新智能,只係喺已有智能外面包咗層保鮮膜。
「保鮮膜」有個致命問題:佢嘅價值完全依賴底層模型。一旦基座模型升級——推理能力變強、上下文變長、記憶更好——你精心搭建嘅Agent邏輯可能一夜之間變成廢代碼。
RAG只係過渡技術,唔係未來
好多人將RAG當成AI應用嘅核心競爭力,但冷靜諗下:點解需要RAG?因為而家大模型有侷限——上下文長度有限、訓練數據凍結、仲會產生幻覺、領域記憶唔完美。
RAG嘅本質係畀大模型打嘅一個「補丁」。但補丁終究係補丁,隨着大模型逐步吸收更長上下文、實時知識、更好嘅記憶壓縮,RAG會變成好似CD-ROM之於雲存儲——一個只在技術過渡期先有意義嘅權宜之計。
CD-ROM之於雲存儲
Agent對專家係倒退,唔係進步
Agent對真正嘅專業人士嚟講,係認知嘅降級。因為Agent預設咗邊啲問題可以問、邊啲路徑被允許、邊啲工具能用、邊啲輸出係「標準答案」,對新手好,但對專家係牢籠。
- 律師唔按工作流思考。
- 數學家唔按管道推理。
- 科學家唔通過菜單驅動嘅方式探索真理。
真正偉大嘅思維係非線性、即興、高度依賴上下文嘅。而Agent將認知凍結成模板,唔係放大智能,而係將智能變成官僚制度。
AI係放大器,唔係替代品。價值公式係:AI能力 × 領域專業深度。如果專業度係零,AI乘零都係零。
真正偉大嘅思維係非線性、即興、高度依賴上下文嘅
「週末Agent」冇經濟未來
如果一個Agent可以喺一個週末搭完,佢就冇護城河——複製成本約等於零,完全依賴基座模型,生命週期以API發佈計算。你唔係建設基礎設施,而係裝修別人嘅屋。
真正有未來的只有兩類人:模型構建者(數學家、統計學家、系統工程師)同被AI放大嘅專業人士(醫生、律師、工程師、科學家、投資人)。
Agent提供心理慰藉,感覺好似擁有咗啲嘢、掌握咗啲嘢、喺進步緊
最終原則:AI唔獎勵工程上嘅化妝術,AI獎勵認知嘅深度。如果一個AI Agent可以喺一個週末搭完,佢大概率唔係一門生意,而係一個玩具。Agent會消退,專業會複利。
你而家應該點做:停止追逐Agent工具鏈——佢哋嘅半衰期比你諗嘅短;投資你嘅領域專業度——呢個係唯一唔會被API更新抹掉嘅資產;將AI當放大器,唔係替代品——先問自己:我有啲咩值得被放大?警惕「週末就搭完」嘅項目——如果太容易,就冇價值。
Agent會消退,專業會複利
過去兩年,我見過好多聰明人都跌入同一個陷阱。
佢哋捱夜整RAG pipeline,精心設計Agent workflow,用各種編排框架將大模型包到實一實,然後威威勢勢咁宣佈:
"我整咗一個AI系統。"
睇落好型。做落好爽。滿足咗工程師"一定要整啲嘢"嘅本能。
但呢度有一個令人不安嘅真相:
大多數AI Agent,唔係進步。
係裝飾品。
💡 第一個扎心嘅見解:Agent只係一層"保鮮紙"
等我哋返去本質。
大型語言模型係咩?本質上係一個函數逼近器。佢唔會無中生有創造資訊,只係將輸入變換、壓縮、推斷。
咁AI Agent呢?
Agent = 大模型 + 記憶 + 檢索 + 工具 + workflow
聽落好勁,係咪?
但係從結構上睇,你並冇創造新嘅智能。
你只係喺現有智能外面,包咗一層保鮮紙。
呢層保鮮紙有一個致命問題:佢嘅價值完全依賴底層模型。
一旦基座模型升級——推理能力變強、上下文變長、記憶更好——你精心搭建嘅Agent邏輯,可能一晚之間變成廢code。
🔥 如果你嘅系統可以被"更大的context window + 更好嘅prompt"取代,你擁有嘅唔係產品,而係一個暫時嘅不便。
💡 第二個扎心嘅見解:RAG係過渡技術,唔係未來
好多人將RAG當做AI應用嘅核心競爭力。
但係冷靜諗嚇:點解需要RAG?
因為而家嘅大模型有限制:
上下文長度有限 訓練數據係凍結咗 仲會產生幻覺 領域記憶唔完美
RAG嘅本質,係俾大模型打嘅一個"補丁"。
但係補丁始終都係補丁。
隨住大模型逐步吸收:更長嘅上下文、即時知識、更好嘅內存壓縮……
RAG會變成咩?
就好似CD-ROM對比雲端儲存——一個只係喺技術過渡期先有意義嘅權宜之計。
🔥 RAG唔係未來,而係而家限制性留低嘅疤痕組織。
💡 第三個扎心嘅見解:Agent對專家係倒退,唔係進步
呢個係最被誤解嘅一點。
Agent睇落好有幫助,但係對真正嘅專業人士嚟講,佢實際上係認知嘅降級。
點解?
因為Agent預設咗:
邊啲問題可以問 邊啲路徑被允許 邊啲工具可以用 邊啲輸出係"標準答案"
呢個對新手好友好。
但係對專家嚟講,呢個係籠牢。
律師唔跟住workflow思考。數學家唔跟住pipeline推理。科學家唔通過menu-driven嘅方式探索真理。
真正偉大嘅思維係:非線性、即興、高度依賴上下文嘅。
而Agent呢?佢將認知凍結成模板。
🔥 Agent唔係喺度放大智能,而係將智能變成官僚制度。
💡 第四個扎心嘅見解:AI係放大器,唔係替代品
好多人以為AI嘅價值公式係:
價值 = AI能力
錯了。
真正嘅公式係:
價值 = AI能力 × 領域專業深度
如果你嘅領域專業度係零,AI乘零,都仲係零。
如果你嘅領域專業度好深,AI就係槓桿。
呢個解釋咗一個殘酷嘅現實:
🔥 AI唔會令到人人平等,佢會令差距更加極化。
💡 第五個扎心嘅見解:"週末Agent"冇經濟未來
如果一個Agent可以喺一個週末整完,佢就冇護城河。
複製成本約等於零 完全依賴基座模型 生命週期以API發佈計算
呢個違背咗持久商業嘅每一條原則:
冇防禦性 冇專屬認知 冇複利優勢
你唔係喺度建設基礎設施,你係喺度裝修人哋嘅屋。
🚨 冇人願意承認嘅教育危機
而家好多家長問:"我嘅細路應該學AI嗎?"
但佢哋誤解咗AI係咩。
真正有未來嘅只有兩類人:
模型構建者:數學家、統計學家、系統工程師 被AI放大嘅專業人士:醫生、律師、工程師、科學家、投資人
中間嗰一類——Agent搭建者——大部分係幻覺。
佢哋生產嘅係演示demo,唔係真正嘅價值。
🔥 我哋正在培養一代人去打磨介面,而唔係去精通領域。呢個係一場災難性嘅人才錯配。
🤔 點解人們仲係鍾意整Agent?
因為Agent提供咗心理慰藉:
感覺好似"擁有咗啲嘢" 感覺好似"掌握咗啲嘢" 感覺好似"喺度進步"
喺智能變得抽象、集中化嘅世界裏面,Agent俾咗人一種掌控感嘅幻覺。
但係幻覺唔係槓桿。
✨ 最終原則
AI唔獎勵工程上嘅化妝術。
AI獎勵認知嘅深度。
更殘酷咁講:
🔥 如果一個AI Agent可以喺一個週末整完,佢大概率唔係一門生意。佢只係一個玩具。
智能嘅未來,唔在於將prompt串聯起來。
而在於將人類嘅理解,同機器嘅放大能力,真正連接起來。
Agent會消退。專業會複利。
AI唔會令人類變得平等。佢會將人類暴露出來。
📌 你而家應該點做?
停止追逐Agent工具鏈——佢哋嘅半衰期比你想象嘅短 投資你嘅領域專業度——呢個係唯一唔會被API更新抹掉嘅資產 將AI當放大器,唔係替代品——先問自己:我有啲咩值得被放大? 警惕"週末就整得完"嘅項目——如果太容易,就冇價值
📖 來源:本文改編自Medium上Shenggang Li嘅文章《Why Building AI Agents Is Mostly a Waste of Time》
過去兩年,我見過無數聰明人陷入同一個陷阱。
他們熬夜搭建RAG管道,精心設計Agent工作流,用各種編排框架把大模型層層包裹,然後驕傲地宣佈:
"我構建了一個AI系統。"
看起來很酷。做起來很爽。滿足了工程師"必須造點什麼"的本能。
但這裏有一個令人不安的真相:
大多數AI Agent,不是進步。
是裝飾品。
💡 第一個扎心洞察:Agent只是一層"保鮮膜"
讓我們回到本質。
大語言模型是什麼?本質上是一個函數逼近器。它不會憑空創造信息,只是對輸入進行變換、壓縮、推斷。
那AI Agent呢?
Agent = 大模型 + 記憶 + 檢索 + 工具 + 工作流
聽起來很厲害,對吧?
但從結構上看,你並沒有創造新的智能。
你只是在已有智能外面,包了一層保鮮膜。
這層保鮮膜有個致命問題:它的價值完全依賴底層模型。
一旦基座模型升級——推理能力變強、上下文變長、記憶更好——你精心搭建的Agent邏輯,可能一夜之間變成廢代碼。
🔥 如果你的系統能被"更大的上下文窗口+更好的提示詞"替代,你擁有的不是產品,是一個臨時的不便利。
💡 第二個扎心洞察:RAG是過渡技術,不是未來
很多人把RAG當成AI應用的核心競爭力。
但冷靜想想:為什麼需要RAG?
因為現在的大模型有侷限:
上下文長度有限 訓練數據是凍結的 還會產生幻覺 領域記憶不完美
RAG的本質,是給大模型打的一個"補丁"。
但補丁終究是補丁。
隨着大模型逐步吸收:更長的上下文、實時知識、更好的內存壓縮……
RAG會變成什麼?
就像CD-ROM之於雲存儲——一個只在技術過渡期才有意義的權宜之計。
🔥 RAG不是未來,而是當前侷限性留下的疤痕組織。
💡 第三個扎心洞察:Agent對專家是倒退,不是進步
這是最被誤解的一點。
Agent看起來很有幫助,但對真正的專業人士來說,它實際上是認知的降級。
為什麼?
因為Agent預設了:
哪些問題可以問 哪些路徑被允許 哪些工具能用 哪些輸出是"標準答案"
這對新手很友好。
但對專家來說,這是牢籠。
律師不按工作流思考。 數學家不按管道推理。 科學家不通過菜單驅動的方式探索真理。
真正偉大的思維是:非線性的、即興的、高度依賴上下文的。
而Agent呢?它把認知凍結成模板。
🔥 Agent不是在放大智能,而是在把智能變成官僚制度。
💡 第四個扎心洞察:AI是放大器,不是替代品
很多人以為AI的價值公式是:
價值 = AI能力
錯了。
真正的公式是:
價值 = AI能力 × 領域專業深度
如果你的領域專業度是零,AI乘以零,還是零。
如果你的領域專業度很深,AI就是槓桿。
這解釋了一個殘酷的現實:
🔥 AI不會讓人人平等,它會讓差距更加極化。
💡 第五個扎心洞察:"週末Agent"沒有經濟未來
如果一個Agent能在一個週末搭完,它就沒有護城河。
複製成本約等於零 完全依賴基座模型 生命週期以API發佈計算
這違背了持久商業的每一條原則:
沒有防禦性 沒有專屬認知 沒有複利優勢
你不是在建設基礎設施,你是在裝修別人的房子。
🚨 沒人願意承認的教育危機
現在很多家長問:"我的孩子應該學AI嗎?"
但他們誤解了AI是什麼。
真正有未來的只有兩類人:
模型構建者:數學家、統計學家、系統工程師 被AI放大的專業人士:醫生、律師、工程師、科學家、投資人
中間那一類——Agent搭建者——大部分是幻覺。
他們生產的是演示demo,不是真正的價值。
🔥 我們正在培養一代人去打磨界面,而不是去精通領域。這是一場災難性的人才錯配。
🤔 為什麼人們還是愛搭Agent?
因為Agent提供了心理慰藉:
感覺像是"擁有了什麼" 感覺像是"掌握了什麼" 感覺像是"在進步"
在智能變得抽象、集中化的世界裏,Agent給了人一種掌控感的幻覺。
但幻覺不是槓桿。
✨ 最終原則
AI不獎勵工程上的化妝術。
AI獎勵認知的深度。
更殘酷地說:
🔥 如果一個AI Agent能在一個週末搭完,它大概率不是一門生意。它只是一個玩具。
智能的未來,不在於把提示詞串聯起來。
而在於把人類的理解,與機器的放大能力,真正連接起來。
Agent會消退。專業會複利。
AI不會讓人類變得平等。它會把人類暴露出來。
📌 你現在該怎麼做?
停止追逐Agent工具鏈——它們的半衰期比你想象的短 投資你的領域專業度——這是唯一不會被API更新抹掉的資產 把AI當放大器,不是替代品——先問自己:我有什麼值得被放大的? 警惕"週末就能搭完"的項目——如果太容易,就沒有價值
📖 來源:本文改編自Medium上Shenggang Li的文章《Why Building AI Agents Is Mostly a Waste of Time》