不是所有事情,都是需要要交給 AI 的,我自己的三不碰

作者:鱸魚聊AI
日期:2026年4月25日 下午10:42
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

鱸魚分享判斷AI自動化嘅三把尺子,核心係「三不碰」:情感體驗、95分事、高風險決策唔好交俾AI。

整理版摘要

呢篇文章係由鱸魚寫嘅,佢幫人搭咗幾十套AI流水線,發現自動化唔等於進步,錯嘅事自動化只會放大錯誤。佢想解決嘅問題係:點樣判斷「呢件事該唔該交俾AI」?整體結論係要用三把尺子嚟決定,唔係所有事都適合自動化。

第一把尺子係「重複三次就封裝」,即係當你做同一樣嘢第三次,就要諗嚇點樣將佢變成skill或工作流。第二把尺子係「三不碰」:涉及情感、故事同真實體驗嘅事;你已經做到95分嘅事;同埋容錯率極低、決策成本高嘅場景。第三把尺子係優先級槓桿,優先做「由60分提升到80分」嘅任務,因為呢類回報最大。

最後,佢提出一個判斷框架:問三個問題——重複過三次未?係咪三不碰之一?AI槓桿有冇+20分以上?全部過關先值得自動化。佢強調AI嘅默認水平係70分,你嘅獨特之處在於70分以上嘅跳躍性突破,所以精準介入、唔好全盤託付先係真正嘅用法。

  • 結論:唔係所有事都要AI,核心係「三不碰」:情感體驗、95分事、高風險決策唔好交。
  • 方法:用三把尺子判斷——重複三次封裝、三不碰、優先做60→80槓桿大嘅事。
  • 差異:AI默認70分穩定輸出,你做到95分就唔好交,否則會被拉低到70分。
  • 啟發:AI負責70分以下嘅標準水平,你負責70分以上嘅跳躍性突破,兩條線唔好交叉。
  • 可行動點:遇到新任務先問三個問題,任何一個卡住就放下,去做你AI做唔到嘅事。
結構示例

內容結構

內容結構 text
┌─ Q1 · 我重複做過 3 次以上嗎?│   否 → 先做一次再說│   是 → 進入 Q2│├─ Q2 · 這件事是三條"不碰"之一嗎?│   是 → 不碰│   否 → 進入 Q3│└─ Q3 · AI 槓桿是 +20 分以上嗎?    是 → 立刻封裝成 skill    否 → 放着,等槓桿大的再做
整理重點

問錯問題:自動化唔等於進步

朋友成日問:「呢個事可唔可以AI自動化?」鱸魚話答案幾乎都係「能」,但你應該先問「該唔該」。自動化唔等於進步,錯嘅事自動化只係將錯誤放大100倍。

自動化唔等於進步,錯嘅事自動化只係將錯誤放大100倍。

佢搭咗大幾十套AI流水線後,反而越嚟越清楚:有些事必須人工,唔係唔想自動化,係唔能夠。呢篇就係講佢用嚟判斷「該唔該」嘅三把尺子。

整理重點

第一把尺子:重複三次就封裝

最簡單嘅尺子:同一操作重複三次以上,就值得封裝成skill或工作流。點解係三次?第一次你唔知會反覆,第二次開始覺得「好似做過」,第三次你就要諗:呢個可唔可以封裝?

重複三次以上嘅操作,就值得封裝成skill或工作流。

鱸魚話佢80%嘅判斷依據大於50%嘅經驗權重。越早沉澱,越早解放自己。但唔係所有重複嘅事都應該封裝,所以要引入第二把尺子。

整理重點

第二把尺子:三條「不碰」

  1. 1 不碰#1:涉及情感、故事同真實體驗嘅節點。信號喺字面之下,AI讀唔到,一線操盤手嘅價值就喺呢度。
  2. 2 不碰#2:你已經做到95分嘅事。AI默認70分,交俾AI等於由95分跳水到70分,仲會反向馴化你嘅判斷力。
  3. 3 不碰#3:極度敏感、決策成本極高嘅場景,例如醫療診斷、法律結論。最後嗰步拍板必須人嚟做。

AI用大模型訓練出穩定70分輸出,但好難有跳躍性突破。你嘅天花板係你,唔好畀AI拉低。

整理重點

第三把尺子:優先級槓桿同判斷三問

第三把尺子係優先級槓桿:優先做「由60分提升到80分」嘅工作,投入相同時間回報最大。原本80分以上嘅事AI槓桿好細,原本40分以下嘅事太大坑救唔返。

  • 原本40→70:+30分槓桿,但要小心坑太大
  • 原本60→80:+20分槓桿,最值得做
  • 原本80→85:+5分槓桿,唔係好值得
  • 原本95→70:-25分,見不碰#2

最後,鱸魚提出判斷三問:Q1重複做過三次以上?Q2係咪三條不碰之一?Q3 AI槓桿係咪+20分以上?全部過關先值得AI化,任何一個卡住就放下。

真正聰明嘅用AI方式唔係全盤託付,而係精準介入—喺最該發力嘅地方放大你嘅能力。

整理重點

數據幻覺同70分天花板

鱸魚提醒,而家好多「AI自動化」案例係假嘅,背後係人手操作。你判斷「能唔能AI」嘅參考系必須係真正嘅AI產品,唔好俾「AI數據幻覺」呃到。

AI默認70分輸出,無論點調prompt,同一模型同一類任務嘅輸出質量有個天然上限。

點解AI到唔到95分?因為95分靠跳躍性突破,而AI被訓練成穩定合理,跳躍本質係唔合理嘅。所以AI負責70分以下,你負責70分以上嘅跳躍。

每一次你決定「呢件事我自己做」,你都在話畀自己知:呢件事上我係不可替代嘅。AI可以幫你做70分,但你嘅獨特性全喺嗰30分裏面。

唔係所有事都要交俾 AI · 我自己定嘅三條「唔掂」

致讀者: 本篇文章 4200+ 字,預計閲讀時間 15min。「做得」唔等於「應該做」——呢個係我砌咗大幾十套 AI 流水線之後最想講嘅一句。如果你正在諗「呢件事得唔得 AI」,建議讀完。


01. 大多數人問錯咗問題

朋友揾我問嘅第一句說話,永遠都係——

鱸魚,呢件事可唔可以用 AI 自動化?

我嘅答案最近幾乎都係一樣——

得。但你應該先問:應唔應該。

自動化唔等於進步。錯嘅事自動化,只係將錯誤放大 100 倍。

呢兩年我幫人整咗大幾十套 AI 流水線,反而越嚟越清楚一件事:有啲事一定要人做,唔係我唔想自動化,係唔可以

今日呢篇,我想講清楚我用嚟判斷「應唔應該」嘅三把尺

能不能 vs 該不該 · 左側一堆工具(AI 圖標)躍躍欲試,右側是一把發光的判斷天平,象徵"不是所有事都要交給 AI"的反思與剋制,背景温暖落日漸變

02. 第一把尺 · 重複 3 次 = 封裝門檻

先講最簡單嘅一把尺——

重複三次以上嘅操作,就值得封裝成一個 skill 或工作流。

呢句話聽起嚟好似廢話。但佢背後有一個閾值——唔係五次、十次,係三次

點解係 3?

第一次做,你冇意識到呢件事會重複。第二次做,你開始覺得「好似做過」。第三次做嘅時候,你心裏面應該自動彈一句:呢個可唔可以封裝?

呢個係我自己嘅習慣。用我原話講——

我 80% 嘅判斷依據,一定大過 50% 嘅經驗權重。

當我做一項工作,某個複雜操作我重複咗三次,我就會習慣性諗:可唔可以將佢封裝成一個獨立嘅模塊?

唔係等到佢變得繁瑣先去優化,而係由第一次執行時,就要有意識咁諗:呢件事可唔可以畀 AI 接住做?

越早沉澱,越早解放自己。

呢個係第一把尺最清晰嘅部分:當你見到自己第三次做同一件事 → 停低,諗封裝

但淨係得呢把尺仲唔夠,因為——

唔係所有「重複嘅事」都應該封裝。

呢個就引出咗第二把尺。

重複 3 次 = 封裝 · 時間軸上三個相同的動作被一個發光的封裝膠囊捕獲,打包成一個獨立的 skill 模塊,從此自動運行

03. 第二把尺 · 三條「唔掂」

呢個係今日嘅重點。

有啲事就算你重複咗 30 次,都絕對唔應該交俾 AI

我自己將呢啲事歸咗類三類——

不碰 #1 · 涉及情感、故事同真實體驗嘅節點

原話——

第一係涉及情感、故事同真實體驗嘅節點。例如你係一線操盤手,好多判斷嚟自現場嘅直覺同細微感受,呢啲係 AI 模擬唔到嘅。

具體場景係咩?

  • 你做內容,某一篇稿嘅「味道」得你先聞得出——邊句話讀起嚟唔順,邊段節奏有問題
  • 你做產品,用戶喺羣組入面一句說話抱怨,你可以即刻判斷背後係真問題定係情緒發洩
  • 你做諮詢,同客戶傾一個鐘,你可以感覺到「佢口講預算,其實心入面糾結嘅係面子」
  • 你做屋企人朋友嘅關係維護,對方一個眼神、一句語氣詞——你嘅直覺係最準嘅

呢類判斷嘅本質係:信號喺字面之下。AI 只能讀到字面。佢永遠讀唔到「字面之下」

唔係 AI 蠢。係因為「字面之下」嘅信號,得你同嗰個具體嘅人/場共同在場時先會產生。AI 唔在場。

一線操盤手嘅價值就喺呢度。將呢件事交俾 AI,你唔見咗嘅唔係效率,係核心競爭力。

不碰 #1 情感和直覺 · 一個人的剪影站在現場捕捉細微信號(眼神、語氣、氣氛),而 AI 在玻璃屏幕外面只能讀到字面上的文字,兩者之間有一道明顯的"信號牆"

不碰 #2 · 你已經做到 95 分嘅事

這條是反常識的。

原話——

第二係你已經做到 95 分嘅事情,交俾 AI 反而可能降到 60 分。呢個時候唔係技術唔得,而係你本身嘅經驗冇咁易被替代。

講清楚點解:

AI 輸出嘅默認水平係咩?用我嘅說話講——

AI 用大模型邏輯訓練出嚟嘅,往往係穩定嘅 70 分輸出。但喺呢種思考框架內,好難有突然嘅跳躍性突破。

AI 嘅天花板係 70 分。你用佢嘅目的,係將原本 40 分嘅事提高到 70 分

但如果你自己做到 95 分,交俾 AI 等於由 95 分跳水到 70 分

呢件事我親眼見過好多次——一個資深編輯,原本寫稿可以到 95 分。自從用 AI 之後,交稿質量反而向 70 分靠。因為 AI 嘅「穩定 70 分」會反向馴化你嘅判斷力:你用耐咗,不自覺咁降低自己嘅標準,覺得 70 分都仲得。

呢個係最可怕嘅地方:AI 唔係將你變更強,係將你變得同佢一樣平庸。

所以:你做到 90 分以上嘅事,唔好掂 AI。畀 AI 去做你做唔到 70 分嘅事。

呢件事同我上一篇(《提示詞唔好再追 95 分啦》)講嘅「85 分穩定 > 95 分偶爾」有個有意思嘅對照——

  • 對 AI 嘅期待:穩定 85 分就夠(唔好追 95 分嘅偶爾驚豔)
  • 對自己嘅期待:你應該做到 95 分嘅地方,唔好畀 AI 將你拉返 70 分

AI 嘅穩定在於佢,你嘅天花板在於你。兩條線唔好交叉。

不碰 #2 · 95 分的事 · 左側是一個 95 分的高光獎盃代表你的專業天花板,右側被 AI 機械手拉下來成 70 分的標準框,中間用紅色警示光帶分隔

不碰 #3 · 極度敏感 + 決策成本極高嘅場景

原話——

第三係極度敏感、決策成本極高嘅場景,例如醫療診斷、法律結論,容錯率太低,目前仲唔適合完全依靠 AI。

典型清單:

場景
點解唔掂
醫療診斷
錯一次 = 一條命
法律結論
錯一次 = 一場官司
金融決策
錯一次 = 一大筆錢
合同條款
錯一次 = 長期責任
危機公關
錯一次 = 品牌崩塌
人事決定
錯一次 = 團隊關係破裂

共同點:容錯率極低 + 決策一旦發生不可逆轉

呢啲地方唔係唔可以用 AI 輔助——可以畀佢幫你做 research、列 pros and cons、起草初稿。但最後嗰一下拍板一定要人嚟

我嘅規矩係:

AI 可以做到 99 步。第 100 步嘅拍板,一定要我親自嚟。

因為前 99 步就算錯咗都改到,第 100 步錯咗改唔番


三條唔掂總覽:

#
類別
點解唔掂
1
情感/故事/真實體驗
信號喺字面之下 · 你唔在場 AI 讀唔到
2
你已經 95 分嘅事
AI 默認 70 分 · 反向馴化你嘅判斷力
3
容錯率極低嘅決策
第 100 步錯咗改唔番
三條不碰總覽 · 三個並排的護盾圖標,分別代表"情感體驗"、"95 分的事"、"容錯極低"三個禁區,每個盾牌上方有一個警示符號,整體温暖又堅定

04. 第三把尺 · 優先級槓桿

第一把尺話畀你知「幾時應該封裝」。
第二把尺話畀你知「邊啲絕對唔好掂」。
第三把尺話畀你知——剩低呢啲「可以用 AI」嘅事,先做邊個

原話——

優先揀嗰啲「由 60 分快速提升到 80 分」嘅工作——投入相同時間,帶嚟嘅回報最大。

解讀:

任務類型
AI 槓桿
優先級
原本 40 分 → AI 後 70 分
+30 分槓桿
⭐⭐⭐
原本 60 分 → AI 後 80 分
+20 分槓桿
⭐⭐⭐
原本 80 分 → AI 後 85 分
+5 分
原本 95 分 → AI 後 70 分
-25 分
(見唔掂 #2)

中段(60-80 分嘅事)槓桿最大。唔係最低分嘅事(太大坑你救唔番),亦都唔係最高分嘅事(AI 拉低你)。

呢個亦都係我唔做冇價值嘅事嘅底層邏輯——

我要做嘅係能產生價值嘅,能令價值流轉嘅——如果冇價值,就唔做。

喺有限時間下,將最大槓桿留畀最值得做嘅事。

優先級槓桿 · 一把放大鏡聚焦在"60 → 80 分"的中段任務上發光最亮,兩端(40 → 70 / 90 → 95)的任務處於暗區,視覺傳達"中段槓桿最大"的判斷法

05. 我嘅判斷三問

三把尺合埋一齊,就係我嘅判斷框架。遇到一件新任務,我問自己三個問題:


┌─ Q1 · 我重複做過 3 次以上嗎?
│   否 → 先做一次再說
│   是 → 進入 Q2

├─ Q2 · 這件事是三條"不碰"之一嗎?
│   是 → 不碰
│   否 → 進入 Q3

└─ Q3 · AI 槓桿是 +20 分以上嗎?
    是 → 立刻封裝成 skill
    否 → 放着,等槓桿大的再做

三個問號全部過 → 值得花時間 AI 化
任何一個卡住 → 放低,唔好搞

呢套問法我用咗一年幾。冇失手過。

06. 數據幻覺警告 · 唔好以為咩都係 AI 做

講到呢度一定要插一句警告。

呢兩年「AI 自動化」成咗流量密碼——朋友圈、短視頻、小紅書上面滿係「我用 AI 做到咗 XX」嘅帖子。

入面一大部分係假嘅

有一個我一直記得嘅例子——

我曾經見到一個所謂嘅模型產品,好相信佢係「自動化處理、自動分配任務嘅系統」。結果後來發現,幕後係一班人喺現場手動回覆。

業內叫呢種「AI 數據幻覺」——令你以為你見到嘅係 AI,其實背後係人在操作

點解要講呢個?

因為呢個會影響你判斷「得唔得 AI」——你見到人哋「AI 做成了」,以為自己都得。結果照搬之後發現完全唔係嗰回事,開始懷疑係咪自己 prompt 寫錯咗。

唔係你嘅錯。係對方根本冇用 AI

識別套路

  • 如果一個產品號稱「AI 全自動」,但定價偏低(比 API 成本仲平)→ 大概率有人喺背後
  • 如果一個案例只畀你睇結果唔畀你睇過程 → 有可能結果係人做嘅
  • 如果一個「AI 工具」喺某個時段特別慢(例如北京時間凌晨快,日頭慢)→ 大概率係人工值班

你判斷「得唔得 AI」嘅參考系,一定要係真正嘅 AI 產品,唔係「睇落似 AI 嘅人工產品」

07. AI 嘅 70 分天花板

返去唔掂 #2 嗰條——AI 默認 70 分輸出

呢件事值得單獨展開講。唔係我危言聳聽。

你用 AI 用耐咗會發現一個規律:

唔理你點樣調 prompt,同一個模型處理同一類任務,輸出質量有一個天然上限

  • 寫文案:穩定喺「通順+標準」呢個檔位
  • 做分析:穩定喺「覆蓋全面但缺洞見」呢個檔位
  • 畀建議:穩定喺「合情合理但唔驚豔」呢個檔位

呢個就係 70 分嘅位置。

點解 AI 永遠到唔到 95 分?

因為 95 分靠嘅係跳躍性突破。跳躍性突破嘅來源,原話——

AI 用大模型邏輯訓練出嚟嘅,往往係穩定嘅 70 分輸出。但喺呢種思考框架內,好難有突然嘅跳躍性突破。而現實中,嗰啲貫穿性嘅邏輯、跨工作場景嘅新需求發現,往往嚟自意外驚喜。

意外驚喜係 AI 最缺嘅嘢。

你喺一個行業做咗十年,突然有一日你見到一個完全冇關嘅嘢,將佢嫁接到自己領域度——呢個跳躍,AI 做唔出嚟。因為佢被訓練成「穩定而合理」,而跳躍本質係唔合理的。

所以——AI 負責 70 分以下嘅「標準水平」,你負責 70 分以上嘅「跳躍」

兩條線永遠唔好交叉。

08. 精準介入 · 唔係全盤託付

三把尺講完咗。總結成一句話——

真正聰明嘅用 AI 方式,唔係全盤託付,而係精準介入——喺最應該發力嘅地方,令工具放大你嘅能力。

全盤託付嘅人會犯兩種錯:

  • 將唔應該 AI 嘅事交俾 AI(踩三條唔掂)
  • 將已經到頂嘅事交俾 AI(降到 70 分)

完全唔掂 AI 嘅人會犯另一種錯:

  • 應該封裝嘅重複勞動唔封裝(將自己累死)
  • 應該放槓桿嘅中段任務放棄(錯過 60→80 嘅跳級)

精準介入意味著:


┌─ AI 做 ───────────────────┐
│ · 重複 3 次以上的事         │
│ · 你原本 40-70 分的事       │
│ · 60→80 分槓桿大的事        │
│ · 初稿 / 篩選 / 打標 / 轉寫 │
└────────────────────────────┘

┌─ 你做 ───────────────────┐
│ · 情感 / 故事 / 體驗判斷   │
│ · 你原本 90+ 分的事        │
│ · 容錯率極低的拍板         │
│ · 跨領域的跳躍性洞見       │
└────────────────────────────┘

┌─ 一起做 ─────────────────┐
│ · AI 打草稿 · 你修 · 你拍板 │
│ · 常見郵件 · 項目報告      │
│ · 會議紀要 · 研究綜述      │
└────────────────────────────┘

三個圈,清清楚楚

AI 做 / 你做 / 一起做 · 三個發光的圓圈並排,中間用光帶相連,左圈是 AI 符號負責"重複/打標/初稿",右圈是人的剪影負責"情感/拍板/跳躍洞見",中圈是"協作打草稿"

你做決策前先問自己:「呢件事應該落喺邊個圈?"

09. 每一步都係創造

寫到呢度諗起我一直講嘅一句話——

每一步都係創造。

呢句話放喺「唔掂 AI」呢件事上特別貼切。

你每一次決定「呢件事我自己做」,你都在話畀自己知:我喺呢件事上係無可替代嘅

  • 你寫一篇屋企人生日祝福 → 你在創造關係
  • 你畀核心客戶手寫長郵件 → 你在創造信任
  • 你親自拍板一個關鍵決策 → 你在創造責任
  • 你為一個你已經做到 95 分嘅事再跑一輪 → 你在創造壁壘

AI 可以幫你做 70 分嘅事,但你嘅獨特性全喺嗰 30 分裏

將 30 分交俾 AI,你就將自己嘅獨特性都交咗出去。

10. 一句話鐵律

AI 令我哋可以做更多事。但「能做」永遠唔等於「應該做」

呢兩年我最深嘅感受係——

真正好用嘅工具,唔需要複雜嘅界面,可能就係一個對話窗口。

但呢個對話窗口背後——

  • 邊啲事問佢
  • 邊啲事唔問佢
  • 問之前先問自己咩

先至係真係用緊 AI

唔明呢三件事嘅人,俾佢再強嘅模型、再大嘅上下文、再完美嘅 prompt,都不過係喺更多地方踩更大嘅坑

明呢三件事嘅人,即使得一個最基本嘅模型,都可以將佢用到出 10 倍價值。


所以下次遇到「呢個得唔得 AI」嘅問題——

先過三把尺:

  1. 重複 3 次以上咗未?
  2. 係三條「唔掂」之一嗎?
  3. 槓桿係 60→80 呢種嗎?

三把尺同時過關 → 值得花時間封裝。

任何一把卡住 → 放低佢,去做你 AI 做唔到嘅事

嗰個先係你嘅核心價值所在

每一步都是創造 · 中央是一個人的手正在親自搭建一座温暖發光的建築,旁邊的 AI 工具作為輔助工具並排擺放但不搶主位,象徵"創造的核心仍是人"

byebye~


不是所有事都要交給 AI · 我自己定的三條"不碰"

致讀者: 本篇文章 4200+ 字,預計閲讀時間 15min。"能做"不等於"該做"——這是我搭了大幾十套 AI 流水線之後最想說的一句。如果你正在考慮"這個事能不能 AI",建議讀完。


01. 大多數人問錯了問題

朋友找我問的第一句話,永遠是——

鱸魚,這個事能不能用 AI 自動化?

我的答案最近幾乎都是一樣的——

能。但你應該先問:該不該。

自動化不等於進步。錯的事自動化,只是把錯誤放大 100 倍。

這兩年我幫人搭了大幾十套 AI 流水線,反而越來越清楚一件事:有些事必須人工,不是我不想自動化,是不能

今天這篇,我想講清楚我用來判斷"該不該"的三把尺子

能不能 vs 該不該 · 左側一堆工具(AI 圖標)躍躍欲試,右側是一把發光的判斷天平,象徵"不是所有事都要交給 AI"的反思與剋制,背景温暖落日漸變

02. 第一把尺子 · 重複 3 次 = 封裝閾值

先說最簡單的一把尺子——

重複三次以上的操作,就值得封裝成一個 skill 或工作流。

這句話聽起來像廢話。但它背後有一個閾值——不是五次、十次,是三次

為什麼是 3?

第一次做,你沒意識到這件事會反覆。第二次做,你開始覺得"好像做過"。第三次做的時候,你心裏應該自動彈一句:這能不能封裝?

這是我自己的習慣。用我原話講——

我 80% 的判斷依據,一定大於 50% 的經驗權重。

當我做一項工作,某個複雜操作我重複了三次,我就會習慣性想:能不能把它封裝成一個獨立的模塊?

不是等到它變得繁瑣才去優化,而是從第一次執行時,就要有意識地想:這件事能不能讓 AI 接下去做?

越早沉澱,越早解放自己。

這是第一把尺子最清晰的部分:當你看到自己第三次做同一件事 → 停下來,想封裝

但光有這把尺子還不夠,因為——

不是所有"重複的事"都該封裝。

這就引出了第二把尺子。

重複 3 次 = 封裝 · 時間軸上三個相同的動作被一個發光的封裝膠囊捕獲,打包成一個獨立的 skill 模塊,從此自動運行

03. 第二把尺子 · 三條"不碰"

這是今天的主戲。

有些事就算你重複了 30 次,也絕對不該交給 AI

我自己把這些事歸成了三類——

不碰 #1 · 涉及情感、故事和真實體驗的節點

原話——

一是涉及情感、故事和真實體驗的節點。比如你是一線操盤手,很多判斷來自現場的直覺和細微感受,這些是 AI 模擬不了的。

具體場景是什麼?

  • 你做內容,某一篇稿子的"味道"只有你能聞出來——哪句話讀起來彆扭,哪段節奏有問題
  • 你做產品,用戶在羣裏一句話抱怨,你能立刻判斷背後是真問題還是情緒發泄
  • 你做諮詢,和客戶聊一小時,你能感覺到"他嘴上說預算,其實心裏糾結的是面子"
  • 你做家人朋友的關係維護,對方一個眼神、一句語氣詞——你的直覺是最準的

這類判斷的本質是:信號在字面之下。AI 只能讀到字面。它永遠讀不到"字面之下"

不是 AI 笨。是因為"字面之下"的信號,只有你和那個具體的人/場共同在場時才會產生。AI 不在場。

一線操盤手的價值就在這裏。把這件事交給 AI,你丟掉的不是效率,是核心競爭力。

不碰 #1 情感和直覺 · 一個人的剪影站在現場捕捉細微信號(眼神、語氣、氣氛),而 AI 在玻璃屏幕外面只能讀到字面上的文字,兩者之間有一道明顯的"信號牆"

不碰 #2 · 你已經做到 95 分的事

這條是反常識的。

原話——

二是你已經做到 95 分的事情,交給 AI 反而可能降到 60 分。這時候不是技術不行,而是你本身的經驗無法被輕易替代。

講清楚為什麼:

AI 輸出的默認水平是什麼?用我的話說——

AI 用大模型邏輯訓練出的,往往是穩定的 70 分輸出。但在這種思考框架內,很難有突然的跳躍性突破。

AI 的天花板是 70 分。你用它的目的,是把原本 40 分的事抬到 70 分

但如果你自己能做到 95 分,交給 AI 等於從 95 分跳水到 70 分

這件事我親眼見過無數次——一個資深編輯,原本寫稿能到 95 分。自從用 AI 之後,交稿質量反而往 70 分靠。因為 AI 的"穩定 70 分"會反向馴化你的判斷力:你用久了,不自覺地降低自己的標準,覺得 70 分也還行。

這是最可怕的地方:AI 不是把你變更強,是把你變得跟它一樣平庸。

所以:你做到 90 分以上的事,別碰 AI。讓 AI 去做你做不到 70 分的事。

這件事和我上一篇(《提示詞別再追 95 分了》)講的"85 分穩定 > 95 分偶爾"有個有意思的對照——

  • 對 AI 的期待:穩定 85 分就夠(別追 95 分的偶爾驚豔)
  • 對自己的期待:你該做到 95 分的地方,別讓 AI 把你拉回 70 分

AI 的穩定在它,你的天花板在你。兩條線不要交叉。

不碰 #2 · 95 分的事 · 左側是一個 95 分的高光獎盃代表你的專業天花板,右側被 AI 機械手拉下來成 70 分的標準框,中間用紅色警示光帶分隔

不碰 #3 · 極度敏感 + 決策成本極高的場景

原話——

三是極度敏感、決策成本極高的場景,比如醫療診斷、法律結論,容錯率太低,目前還不適合完全依賴 AI。

典型清單:

場景
為什麼不碰
醫療診斷
錯一次 = 一條命
法律結論
錯一次 = 一場官司
金融決策
錯一次 = 一大筆錢
合同條款
錯一次 = 長期責任
危機公關
錯一次 = 品牌崩塌
人事決定
錯一次 = 團隊關係破裂

共同點:容錯率極低 + 決策一旦發生不可逆

這些地方不是不能用 AI 輔助——可以讓它幫你做 research、列 pros and cons、起草初稿。但最後那一下拍板必須人來

我的規矩是:

AI 可以做到 99 步。第 100 步的拍板,必須我親自來。

因為前 99 步就算錯了還能改,第 100 步錯了改不回來


三條不碰總覽:

#
類別
為什麼不碰
1
情感/故事/真實體驗
信號在字面之下 · 你不在場 AI 讀不到
2
你已經 95 分的事
AI 默認 70 分 · 反向馴化你的判斷力
3
容錯率極低的決策
第 100 步錯了改不回來
三條不碰總覽 · 三個並排的護盾圖標,分別代表"情感體驗"、"95 分的事"、"容錯極低"三個禁區,每個盾牌上方有一個警示符號,整體温暖又堅定

04. 第三把尺子 · 優先級槓桿

第一把尺子告訴你"何時該封裝"。
第二把尺子告訴你"哪些絕對別碰"。
第三把尺子告訴你——剩下這些'可以 AI'的事,先做哪個

原話——

優先選那些"從 60 分快速提升到 80 分"的工作——投入相同時間,帶來的回報最大。

解讀:

任務類型
AI 槓桿
優先級
原本 40 分 → AI 後 70 分
+30 分槓桿
⭐⭐⭐
原本 60 分 → AI 後 80 分
+20 分槓桿
⭐⭐⭐
原本 80 分 → AI 後 85 分
+5 分
原本 95 分 → AI 後 70 分
-25 分
(見不碰 #2)

中段(60-80 分的事)槓桿最大。不是最低分的事(太大坑你救不回來),也不是最高分的事(AI 拉低你)。

這也是我不做沒價值的事的底層邏輯——

我要做的是能產生價值的,能讓價值流轉的——如果沒價值,就不做。

在有限時間下,把最大槓桿留給最值得做的事。

優先級槓桿 · 一把放大鏡聚焦在"60 → 80 分"的中段任務上發光最亮,兩端(40 → 70 / 90 → 95)的任務處於暗區,視覺傳達"中段槓桿最大"的判斷法

05. 我的判斷三問

三把尺子合起來,就是我的判斷框架。遇到一件新任務,我問自己三個問題:


┌─ Q1 · 我重複做過 3 次以上嗎?
│   否 → 先做一次再說
│   是 → 進入 Q2

├─ Q2 · 這件事是三條"不碰"之一嗎?
│   是 → 不碰
│   否 → 進入 Q3

└─ Q3 · AI 槓桿是 +20 分以上嗎?
    是 → 立刻封裝成 skill
    否 → 放着,等槓桿大的再做

三個問號全部過 → 值得花時間 AI 化
任何一個卡住 → 放下,別折騰

這套問法我用了一年多。沒失手過。

06. 數據幻覺警告 · 別以為什麼都是 AI 做的

講到這裏必須插一句警告。

這兩年"AI 自動化"成了流量密碼——朋友圈、短視頻、小紅書上滿是"我用 AI 做到了 XX"的帖子。

裏面一大部分是假的

有一個我一直記得的例子——

我曾經看到一個所謂的模型產品,非常堅信它是"自動化處理、自動分配任務的系統"。結果後來發現,幕後是一羣人在現場手動回覆。

業內叫這種"AI 數據幻覺"——讓你以為你看到的是 AI,其實背後是人在操作

為什麼要講這個?

因為這會影響你判斷"能不能 AI"——你看到別人"AI 做成了",以為自己也能。結果照搬之後發現完全不是那回事,開始懷疑是不是自己 prompt 寫錯了。

不是你的錯。是對方根本沒用 AI

識別套路

  • 如果一個產品號稱 "AI 全自動",但定價偏低(比 API 成本還便宜)→ 大概率有人在背後
  • 如果一個案例只給你看結果不給你看過程 → 有可能結果是人做的
  • 如果一個"AI 工具"在某個時段特別慢(比如北京時間凌晨快,白天慢)→ 大概率是人工值班

你判斷"能不能 AI"的參考系,必須是真正的 AI 產品,不是"看起來像 AI 的人工產品"

07. AI 的 70 分天花板

回到不碰 #2 那條——AI 默認 70 分輸出

這件事值得單獨展開講。不是我危言聳聽。

你用 AI 用久了會發現一個規律:

不管你怎麼調 prompt,同一個模型處理同一類任務,輸出質量有一個天然上限

  • 寫文案:穩定在"通順+標準"這個檔位
  • 做分析:穩定在"覆蓋全面但缺洞見"這個檔位
  • 給建議:穩定在"合情合理但不驚豔"這個檔位

這就是 70 分的位置。

為什麼 AI 永遠到不了 95 分?

因為 95 分靠的是跳躍性突破。跳躍性突破的來源,原話——

AI 用大模型邏輯訓練出的,往往是穩定的 70 分輸出。但在這種思考框架內,很難有突然的跳躍性突破。而現實中,那些貫穿性的邏輯、跨工作場景的新需求發現,往往來自意外驚喜。

意外驚喜是 AI 最缺的東西。

你在一個行業幹了十年,突然有一天你看到一個完全無關的東西,把它嫁接到自己領域裏——這個跳躍,AI 做不出來。因為它被訓練成"穩定而合理",而跳躍本質是不合理的。

所以——AI 負責 70 分以下的"標準水平",你負責 70 分以上的"跳躍"

兩條線永遠不要交叉。

08. 精準介入 · 不是全盤託付

三把尺子講完了。總結成一句話——

真正聰明的用 AI 方式,不是全盤託付,而是精準介入——在最該發力的地方,讓工具放大你的能力。

全盤託付的人會犯兩種錯:

  • 把不該 AI 的事交給 AI(踩三條不碰)
  • 把已經到頂的事交給 AI(降到 70 分)

完全不碰 AI 的人會犯另一種錯:

  • 該封裝的重複勞動不封裝(把自己累死)
  • 該放槓桿的中段任務放棄(錯過 60→80 的跳級)

精準介入意味着:


┌─ AI 做 ───────────────────┐
│ · 重複 3 次以上的事         │
│ · 你原本 40-70 分的事       │
│ · 60→80 分槓桿大的事        │
│ · 初稿 / 篩選 / 打標 / 轉寫 │
└────────────────────────────┘

┌─ 你做 ───────────────────┐
│ · 情感 / 故事 / 體驗判斷   │
│ · 你原本 90+ 分的事        │
│ · 容錯率極低的拍板         │
│ · 跨領域的跳躍性洞見       │
└────────────────────────────┘

┌─ 一起做 ─────────────────┐
│ · AI 打草稿 · 你修 · 你拍板 │
│ · 常見郵件 · 項目報告      │
│ · 會議紀要 · 研究綜述      │
└────────────────────────────┘

三個圈,清清楚楚

AI 做 / 你做 / 一起做 · 三個發光的圓圈並排,中間用光帶相連,左圈是 AI 符號負責"重複/打標/初稿",右圈是人的剪影負責"情感/拍板/跳躍洞見",中圈是"協作打草稿"

你做決策前先問自己:"這件事應該落在哪個圈?"

09. 每一步都是創造

寫到這裏想起我一直說的一句話——

每一步都是創造。

這句話放在"不碰 AI"這件事上特別貼切。

你每一次決定"這件事我自己做",你都在告訴自己:我在這件事上是不可替代的

  • 你寫一篇家人生日祝福 → 你在創造關係
  • 你給核心客戶手寫長郵件 → 你在創造信任
  • 你親自拍板一個關鍵決策 → 你在創造責任
  • 你為一個你已經做到 95 分的事再跑一輪 → 你在創造壁壘

AI 可以幫你做 70 分的事,但你的獨特性全在那 30 分裏

把 30 分交給 AI,你就把自己的獨特性也交出去了。

10. 一句話鐵律

AI 讓我們能做更多事。但"能做"永遠不等於"該做"

這兩年我最深的感受是——

真正好用的工具,不需要複雜的界面,可能就是一個對話窗口。

但這個對話窗口背後——

  • 哪些事問它
  • 哪些事不問它
  • 問之前先問自己什麼

才是真的在用 AI

不懂這三件事的人,給他再強的模型、再大的上下文、再完美的 prompt,也不過是在更多地方踩更大的坑

懂這三件事的人,即使只有一個最基礎的模型,也能把它用出 10 倍價值。


所以下次遇到"這個能不能 AI"的問題——

先過三把尺子:

  1. 重複 3 次以上了嗎?
  2. 是三條"不碰"之一嗎?
  3. 槓桿是 60→80 這種嗎?

三把尺子同時過關 → 值得花時間封裝。

任何一把卡住 → 放下它,去做你 AI 做不了的事

那才是你的核心價值所在

每一步都是創造 · 中央是一個人的手正在親自搭建一座温暖發光的建築,旁邊的 AI 工具作為輔助工具並排擺放但不搶主位,象徵"創造的核心仍是人"

byebye~