一段Prompt,砍掉LLM73%的廢話

作者:神器每日推送
日期:2026年4月18日 上午9:37
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

32 行 Prompt 砍掉 LLM 七成廢話,GitHub 開源項目 talk-normal 實測有效

整理版摘要

呢篇文章介紹咗 GitHub 上一個叫 talk-normal 嘅開源項目,作者 hexiecs 用 32 行 system prompt 成功將 LLM 輸出入面嘅廢話平均砍咗 73%。項目嘅核心係一份規則表,針對四種典型嘅廢話模式——填充詞開場、否定框架句式、結尾蓋章、條件菜單——逐條設限。作者仲記錄咗迭代過程,特別係否定框架嗰條規則要改 4 次先馴服到 LLM,因為模型會將負面示例當模板複製。整體結論係:純靠 prompt 工程,唔使改 model,就可以大幅提升 LLM 嘅回覆密度。

呢啲規則已經封裝成三種使用方式ChatGPT 自定義指令、API system prompt、Cursor 等工具嘅 system prompt。實測 10 條題目,GPT-4o-mini 平均縮減 73%,GPT-5.4 縮減 72%。效果同模型基線冗餘度正相關——越囉嗦嘅模型,砍得越狠。中文題目表現同英文一致,無語言差異退化。對於成日用 LLM 嘅開發者或者寫作者嚟講,呢個項目提供咗一個即插即用嘅方案,30 秒就可以改善輸出質量。項目以 MIT 協議開源,地址係 https://github.com/hexiecs/talk-normal。

  • Talk-normal 用 32 行 system prompt 平均砍掉 LLM 73% 廢話,信息量不變。
  • 五條紀律:結論前置、禁止否定框架、填充詞黑名單、結尾蓋章禁令、條件菜單禁令。
  • 不同模型效果不同GPT-5.4 本身較簡潔只縮 20%,比較型問題(如 React vs Vue)縮減最劇烈達 89%。
  • 規則需要迭代驗證:否定框架條目經過 4 輪修改才收斂,因為模型會把負面示例當模板複製。
  • 可直接用 ChatGPT 自定義指令貼入精簡版 prompt,或 API 傳入完整 prompt,30 秒生效。
值得記低
連結 github.com

talk-normal GitHub 倉庫

GitHub 開源項目,包含完整 prompt.md、測試數據及使用說明

Prompt

ChatGPT 自定義指令精簡版 prompt

Be direct and informative. No filler, no fluff, but give enough to be useful. Your hardest rule: prefer direct positive claims. Never use negation to set up or append contrast. No "不是X,而是Y" / "it's not X, it's Y" in any order. State only the positive. For real distinctions, use parallel positive clauses. BAD: 真正的創新者不是"有創意的人",而是五種特質同時拉滿的人 GOOD: 真正的創新者是五種特質同時拉滿的人 BAD: 這更像創始人篩選框架,不是交易信號 GOOD: 這是一個創始人篩選框架 Rules: - Lead with the answer, add context only if helps - Kill filler: "I'd be happy to", "Great question", "It's worth noting", "Certainly", "Of course", "首先", "值得注意的是", "綜上所述" - Never restate the question - Yes/no: answer first + 1 sentence reasoning - Comparisons: give a recommendation, not a balanced essay - Code: give code + usage example if non-trivial. Skip "Certainly! Here is..." - Explanations: 3-5 sentences max for conceptual questions - Use bullets/lists only for genuinely parallel content, not decoration - Match depth to complexity - Do not end with conditional follow-up offers ("如果你X...", "If you want I can...") - Do not restate in "plain language" / "翻成人話" / "in other words" after explaining - End with a concrete recommendation. No summary stamps: "In summary", "Hope this helps", "一句話總結", "一句話落地", "總結一下", "簡而言之", "總而言之", "一句話X:", "X一下:". State final claims directly without labels. - Pros/cons lists: max 3-4 points per side

整理重點

LLM 輸出嘅四種廢話模式

打開 ChatGPT 對話窗口,你會發現 LLM 嘅輸出有固定套路。呢篇文章分析咗四種最常見嘅廢話模式,佔字數但唔增加信息。

填充詞開場:例如「我很樂意幫助你」、「值得注意的是」、「讓我們一起來看看」

否定框架句式:例如「真正的創新者不是'有創意的人',而是五種特質同時拉滿的人」

結尾蓋章:例如「總而言之」、「一句話總結」、「簡而言之」

條件菜單:例如「如果你需要,我還可以幫你做 A 或 B

整理重點

32 行 prompt 嘅五條紀律

Talk-normal 嘅核心係一份 32 行嘅系統提示詞(prompt.md),唔依賴任何模型修改或微調。佢包含五條紀律,直接塞入 system prompt 字段就生效。

  • 結論前置:反轉 LLM 默認行為,先畀答案,再畀背景。
  • 禁止否定框架:覆蓋中英文所有變體,包括鏈式結構(「不是A,不是B,而是C」)同對稱結構(「適合X,不適合Y」)。
  • 填充詞黑名單:直接列出被禁止嘅填充詞,遇到就刪除,唔替換。英文包括 "I'd be happy to"、"Great question" 等;中文包括「首先我們需要」、「值得注意的是」等。
  • 結尾蓋章禁令:覆蓋 19 種總結標籤變體,包括「一句話總結」、「簡而言之」等,仲有結構性變體如「一句話X:」呢種標籤加冒號嘅形式。
  • 條件菜單禁令:禁止結尾列選項要求讀者揀下一步,例如「如果你願意我還可以...」或任何需要魔法詞先解鎖下一步嘅設計。
精簡版 prompt(ChatGPT 自定義指令適用) plaintext
Be direct and informative. No filler, no fluff, but give enough to be useful. Your hardest rule: prefer direct positive claims. Never use negation to set up or append contrast. No "不是X,而是Y" / "it's not X, it's Y" in any order. State only the positive. For real distinctions, use parallel positive clauses. BAD: 真正的創新者不是"有創意的人",而是五種特質同時拉滿的人 GOOD: 真正的創新者是五種特質同時拉滿的人 BAD: 這更像創始人篩選框架,不是交易信號 GOOD: 這是一個創始人篩選框架 Rules:
- Lead with the answer, add context only if helps
- Kill filler: "I'd be happy to", "Great question", "It's worth noting", "Certainly", "Of course", "首先", "值得注意的是", "綜上所述"
- Never restate the question
- Yes/no: answer first + 1 sentence reasoning
- Comparisons: give a recommendation, not a balanced essay
- Code: give code + usage example if non-trivial. Skip "Certainly! Here is..."
- Explanations: 3-5 sentences max for conceptual questions
- Use bullets/lists only for genuinely parallel content, not decoration
- Match depth to complexity
- Do not end with conditional follow-up offers ("如果你X...", "If you want I can...")
- Do not restate in "plain language" / "翻成人話" / "in other words" after explaining
- End with a concrete recommendation. No summary stamps: "In summary", "Hope this helps", "一句話總結", "一句話落地", "總結一下", "簡而言之", "總而言之", "一句話X:", "X一下:". State final claims directly without labels.
- Pros/cons lists: max 3-4 points per side
整理重點

三種方式,30 秒上手

Talk-normal 提供咗三種用法,最簡單嗰種 30 秒搞掂。

  1. 1 ChatGPT 自定義指令:打開 SettingsCustom instructions,喺「How would you like ChatGPT to respond?」字段貼上精簡版 prompt(如上)。
  2. 2 API 調用:將完整嘅 prompt.md 內容作為 system message 傳入,適用於開發者。
  3. 3 編程助手CursorContinueWorkBuddy 等工具可以直接將 prompt 內容貼入 system prompt 字段,或者安裝 talk-normal skill 自動注入。

WorkBuddy 用戶可以直接安裝 talk-normal skill,規則會自動注入到 AGENTS.md

整理重點

實測 10 條題目,平均縮減 73%

作者用 10 條中英文測試題做咗 benchmark,temperature=0,按字符數計量。結果顯示 talk-normal 喺唔同模型上都有效。

GPT-4o-mini 平均縮減 73%,其中「Is React better than Vue?」砍掉 89%(2389→249 字符)

GPT-5.4 平均縮減 72%,但「What is Python?」只縮 20%,因為原始輸出本身已好簡潔

呢啲數據表明,純靠 prompt 工程就可以大幅壓縮 LLM 輸出,而唔影響信息量。

同一個問題丟俾 GPT-4o-mini,唔加任何系統提示詞,回答有 2488 個字元。加咗一段 32 行嘅提示詞之後,回答縮到得返 630 個字元。信息量一樣,字數少咗 74%。

同一個模型,同一個問題。

圖片

GitHub 上有個項目叫 talk-normal,作者係 hexiecs,有 1.2k 粒星,MIT 開源。佢做嘅野得一樣:將 LLM 輸出嘅廢話刪走。10 個中英文測試題,GPT-4o-mini 平均縮減 73%,GPT-5.4 縮減 72%。

LLM 廢話嘅四種典型模式

打開一個 ChatGPT 對話視窗,睇下佢嘅輸出結構。以下模式會重複出現:

填充詞開場。「我好樂意幫你」、「值得留意嘅係」、「等我哋一齊睇下」。呢啲字冇帶任何信息,但 LLM 被訓練到喺回答前先鋪一段「禮貌」。

否定框架句式。「真正嘅創新者唔係『有創意嘅人』,而係五種特質同時拉滿嘅人」——呢個係中文 AI 輸出入面最高頻嘅廢話句式。直接講後半句就夠:「真正嘅創新者係五種特質同時拉滿嘅人」。否定前半句係冗餘嘅。

結尾蓋章。「總括嚟講」、「一句講曬」、「簡而言之」、「概括嚟講」。直接俾結論就得,唔使預先通知讀者「我要總結啦」。

條件菜單。「如果你需要,我仲可以幫你做 A 或 B」。將決定權交俾讀者。

四種模式:霸位字,唔增加信息。talk-normal 就係針對呢啲模式做嘅一份精確規則表。

佢做咗啲乜:32 行文字拆解

talk-normal 嘅核心係一份 32 行嘅系統提示詞(prompt.md),唔依靠任何模型修改、唔涉及微調、唔需要額外工具。將佢塞入 system prompt 字段,就可以生效。

呢份提示詞做咗五件事:

第一,強制結論前置。 LLM 嘅默認行為係鋪墊再鋪墊,最後先俾答案。呢條規則反過嚟:先俾答案,再俾背景。

第二,禁止否定框架。 最難馴服嘅一條。作者喺 regressions/ 目錄入面記錄咗迭代過程:經過 4 輪迭代,「唔係X而係Y」呢個句式從每次響應出現 6 次違規降到 0 次。最後一次關鍵修復係移除規則文本入面嘅一個負面示例——模型將佢當模板複製咗,而唔係當反模式規避。規則覆蓋咗中英文所有變體,包括鏈式結構(「唔係A,唔係B,而係C」)同對稱結構(「適合X,唔適合Y」)。

圖片

第三,填充詞黑名單。 直接列咗一份被禁止嘅填充詞清單:英文嘅 "I'd be happy to"、"Great question"、"It's worth noting"、"Certainly",中文嘅「首先我哋需要」、「值得留意嘅係」、「綜上所述」、「等我哋一齊睇下」。遇到呢啲詞,LLM 被要求直接刪走,唔替換。

第四,結尾蓋章禁令。 覆蓋 19 種總結標籤變體。「In conclusion」、「In summary」、「Hope this helps」係英文嘅;「一句講曬」、「一句話落地」、「簡而言之」、「總括嚟講」、「概括嚟講」係中文嘅。仲包括結構性變體——「一句話X:」、「X一下:」呢啲標籤加冒號嘅形式。有結論就直接講,唔使預告。

第五,條件菜單禁令。 禁止喺結尾列選項俾讀者揀下一步。「如果你願意我仲可以...」、「If you want, I can also...」、以及任何需要讀者講一個「魔法詞」先可以解鎖下一步嘅設計,全部禁止。

32 行純文字,五條紀律。

30 秒上手

方式一:ChatGPT 自定義指令(最簡單)

  1. 打開 ChatGPT → 左下角 Settings → Custom instructions
  2. 喺 "How would you like ChatGPT to respond?" 字段貼上以下內容:

Be direct and informative. No filler, no fluff, but give enough to be useful. Your hardest rule: prefer direct positive claims. Never use negation to set up or append contrast. No "不是X,而是Y" / "it's not X, it's Y" in any order. State only the positive. For real distinctions, use parallel positive clauses. BAD: 真正的創新者不是"有創意的人",而是五種特質同時拉滿的人 GOOD: 真正的創新者是五種特質同時拉滿的人 BAD: 這更像創始人篩選框架,不是交易信號 GOOD: 這是一個創始人篩選框架 Rules: - Lead with the answer, add context only if helps - Kill filler: "I'd be happy to", "Great question", "It's worth noting", "Certainly", "Of course", "首先", "值得注意的是", "綜上所述" - Never restate the question - Yes/no: answer first + 1 sentence reasoning - Comparisons: give a recommendation, not a balanced essay - Code: give code + usage example if non-trivial. Skip "Certainly! Here is..." - Explanations: 3-5 sentences max for conceptual questions - Use bullets/lists only for genuinely parallel content, not decoration - Match depth to complexity - Do not end with conditional follow-up offers ("如果你X...", "If you want I can...") - Do not restate in "plain language" / "翻成人話" / "in other words" after explaining - End with a concrete recommendation. No summary stamps: "In summary", "Hope this helps", "一句話總結", "一句話落地", "總結一下", "簡而言之", "總而言之", "一句話X:", "X一下:". State final claims directly without labels. - Pros/cons lists: max 3-4 points per side
  1. 開一個新對話,開始傾偈。

呢份精簡版(prompt-chatgpt.md)專登為 ChatGPT 自定義指令嘅 1500 字元限制壓縮過,保留咗所有核心規則。

方式二:API 調用(開發者)

將完整嘅 prompt.md 內容作為 system message 傳入。最簡單嘅示例:


import openai

client = openai.OpenAI()

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role":"system""content":open("prompt.md").read()},
        {"role":"user""content":"TCP 和 UDP 有什麼區別?"}
    ]
)
print(response.choices[0].message.content)

方式三:編程助手(Cursor / Continue / WorkBuddy 等)

Cursor 用戶可以直接將 prompt.md 嘅內容貼到對應工具嘅 system prompt 字段。

WorkBuddy 用戶可以直接安裝 talk-normal skill,規則會自動注入到 AGENTS.md 入面,每次對話都生效。


學習並安裝這裏的skill
https://github.com/hexiecs/talk-normal
圖片

效果數據

10 個中英文測試題,temperature=0,按字元數計量:

GPT-4o-mini(平均縮減 73%):

測試題
原始字元數
處理後
縮減
TCP vs UDP?
2488
630
74%
What is Python?
1583
513
67%
Explain how HTTP works
3526
875
75%
How does DNS work?
3263
1100
66%
Is React better than Vue?
2389
249
89%
Docker 同虛擬機有咩分別?
901
297
67%
咩係機器學習?
551
125
77%
咩係區塊鏈?
469
115
75%
Redis 同 Memcached 邊個好啲?
810
129
84%
Microservices pros/cons
3027
922
69%

GPT-5.4(平均縮減 72%):

測試題
原始字元數
處理後
縮減
TCP vs UDP?
1076
515
52%
What is Python?
628
502
20%
Explain how HTTP works
5761
954
83%
How does DNS work?
3383
731
78%
Is React better than Vue?
1214
466
61%
Docker 同虛擬機有咩分別?
1999
514
74%
咩係機器學習?
767
195
74%
咩係區塊鏈?
852
391
54%
Redis 同 Memcached 邊個好啲?
1629
252
84%
Microservices pros/cons
3489
1288
63%

幾個數據點:

  • 「Is React better than Vue?」呢類比較型問題縮減得最勁——GPT-4o-mini 上砍咗 89%(2389→249 字元)。LLM 做比較時默認寫「均衡論文」,兩邊各分析一次,中間加過渡,最後俾一個模糊結論。talk-normal 要求直接俾推薦加簡短理由。2389 字元嘅均衡論文變成咗 249 字元嘅有主見判斷。
  • GPT-5.4 嘅「What is Python?」只縮減咗 20%。原因都好直接:GPT-5.4 本身已經喺控制輸出冗餘度,呢條題目嘅原始輸出本身唔長。talk-normal 嘅效果同模型嘅基線冗餘度成正相關——越囉嗦嘅模型,砍得越狠。
  • 中文題目嘅表現同英文題目一致,冇語言差異導致嘅退化。

一件小事

32 行純文字,冇算法,冇模型修改,唔需要任何工具。每一條規則都經過迭代驗證——否定框架嗰條經歷咗 4 輪修改,因為 LLM 會將規則入面嘅負面示例當模板複製。填充詞清單逐條積累,每條對應一個真實場景入面被識別出嘅冗餘模式。

開源地址:

https://github.com/hexiecs/talk-normal

MIT 協議。

同一個問題丟給 GPT-4o-mini,不加任何系統提示詞,回答 2488 個字符。加了一段 32 行的提示詞,回答縮到 630 個字符。信息量一樣,字數砍掉 74%。

同一個模型,同一個問題。

圖片

GitHub 上有個項目叫 talk-normal,作者 hexiecs,1.2k Star,MIT 開源。它做的事情只有一件:把 LLM 輸出裏的廢話刪掉。10 箇中英文測試題,GPT-4o-mini 平均縮減 73%,GPT-5.4 縮減 72%。

LLM 廢話的四種典型模式

打開一個 ChatGPT 對話窗口,看它的輸出結構。以下模式會反覆出現:

填充詞開場。"我很樂意幫助你"、"值得注意的是"、"讓我們一起來看看"。沒有攜帶任何信息,但 LLM 被訓練成在回答前先鋪墊一段"禮貌"。

否定框架句式。"真正的創新者不是'有創意的人',而是五種特質同時拉滿的人"——中文 AI 輸出中最高頻的廢話句式。直接說後半句就夠了:"真正的創新者是五種特質同時拉滿的人"。否定前半句是冗餘的。

結尾蓋章。"總而言之"、"一句話總結"、"簡而言之"、"概括來說"。直接給結論就好,不需要提前通知讀者"我要總結了"。

條件菜單。"如果你需要,我還可以幫你做 A 或 B"。把決策負擔甩給讀者。

四種模式:佔字數,不增加信息。talk-normal 就是針對這些模式做的一份精確規則表。

它做了什麼:32 行文本拆解

talk-normal 的核心是一份 32 行的系統提示詞(prompt.md),不依賴任何模型修改、不涉及微調、不需要額外工具。把它塞進 system prompt 字段,就能生效。

這份提示詞做了五件事:

第一,強制結論前置。 LLM 的默認行為是鋪墊再鋪墊,最後才給答案。這條規則反過來:先給答案,再給背景。

第二,禁止否定框架。 最難馴服的一條。作者在 regressions/ 目錄裏記錄了迭代過程:經過 4 輪迭代,"不是X而是Y"這個句式從每次響應中出現 6 次違規降到 0 次。最後一次關鍵修復是移除規則文本中的一個負面示例——模型把它當模板複製了,而不是當反模式規避。規則覆蓋了中英文所有變體,包括鏈式結構("不是A,不是B,而是C")和對稱結構("適合X,不適合Y")。

圖片

第三,填充詞黑名單。 直接列了一份被禁止的填充詞清單:英文的 "I'd be happy to"、"Great question"、"It's worth noting"、"Certainly",中文的 "首先我們需要"、"值得注意的是"、"綜上所述"、"讓我們一起來看看"。遇到這些詞,LLM 被要求直接刪掉,不替換。

第四,結尾蓋章禁令。 覆蓋 19 種總結標籤變體。"In conclusion"、"In summary"、"Hope this helps" 是英文側的;"一句話總結"、"一句話落地"、"簡而言之"、"總而言之"、"概括來說" 是中文側的。還包括結構性變體——"一句話X:"、"X一下:"這種標籤+冒號的形式。有結論就直接說,不要預告。

第五,條件菜單禁令。 禁止在結尾列選項讓讀者選下一步。"如果你願意我還可以..."、"If you want, I can also..."、以及任何需要讀者說一個"魔法詞"才能解鎖下一步的設計,全部禁止。

32 行純文本,五條紀律。

30 秒上手

方式一:ChatGPT 自定義指令(最簡單)

  1. 打開 ChatGPT → 左下角 Settings → Custom instructions
  2. 在 "How would you like ChatGPT to respond?" 字段中粘貼以下內容:

Be direct and informative. No filler, no fluff, but give enough to be useful. Your hardest rule: prefer direct positive claims. Never use negation to set up or append contrast. No "不是X,而是Y" / "it's not X, it's Y" in any order. State only the positive. For real distinctions, use parallel positive clauses. BAD: 真正的創新者不是"有創意的人",而是五種特質同時拉滿的人 GOOD: 真正的創新者是五種特質同時拉滿的人 BAD: 這更像創始人篩選框架,不是交易信號 GOOD: 這是一個創始人篩選框架 Rules: - Lead with the answer, add context only if helps - Kill filler: "I'd be happy to", "Great question", "It's worth noting", "Certainly", "Of course", "首先", "值得注意的是", "綜上所述" - Never restate the question - Yes/no: answer first + 1 sentence reasoning - Comparisons: give a recommendation, not a balanced essay - Code: give code + usage example if non-trivial. Skip "Certainly! Here is..." - Explanations: 3-5 sentences max for conceptual questions - Use bullets/lists only for genuinely parallel content, not decoration - Match depth to complexity - Do not end with conditional follow-up offers ("如果你X...", "If you want I can...") - Do not restate in "plain language" / "翻成人話" / "in other words" after explaining - End with a concrete recommendation. No summary stamps: "In summary", "Hope this helps", "一句話總結", "一句話落地", "總結一下", "簡而言之", "總而言之", "一句話X:", "X一下:". State final claims directly without labels. - Pros/cons lists: max 3-4 points per side
  1. 新建一個對話,開聊。

這份精簡版(prompt-chatgpt.md)專門為 ChatGPT 自定義指令的 1500 字符限制壓縮過,保留了所有核心規則。

方式二:API 調用(開發者)

將完整的 prompt.md 內容作為 system message 傳入。最小示例:


import openai

client = openai.OpenAI()

response = client.chat.completions.create(
    model="gpt-4o-mini",
    messages=[
        {"role":"system""content":open("prompt.md").read()},
        {"role":"user""content":"TCP 和 UDP 有什麼區別?"}
    ]
)
print(response.choices[0].message.content)

方式三:編程助手(Cursor / Continue / WorkBuddy 等)

Cursor用戶可以直接把prompt.md 的內容粘貼到對應工具的 system prompt 字段。

WorkBuddy 用戶可以直接安裝 talk-normal skill,規則會自動注入到 AGENTS.md 中,每次對話都生效。


學習並安裝這裏的skill
https://github.com/hexiecs/talk-normal
圖片

效果數據

10 箇中英文測試題,temperature=0,按字符數計量:

GPT-4o-mini(平均縮減 73%):

測試題
原始字符數
處理後
縮減
TCP vs UDP?
2488
630
74%
What is Python?
1583
513
67%
Explain how HTTP works
3526
875
75%
How does DNS work?
3263
1100
66%
Is React better than Vue?
2389
249
89%
Docker和虛擬機有什麼區別?
901
297
67%
什麼是機器學習?
551
125
77%
什麼是區塊鏈?
469
115
75%
Redis和Memcached哪個好?
810
129
84%
Microservices pros/cons
3027
922
69%

GPT-5.4(平均縮減 72%):

測試題
原始字符數
處理後
縮減
TCP vs UDP?
1076
515
52%
What is Python?
628
502
20%
Explain how HTTP works
5761
954
83%
How does DNS work?
3383
731
78%
Is React better than Vue?
1214
466
61%
Docker和虛擬機有什麼區別?
1999
514
74%
什麼是機器學習?
767
195
74%
什麼是區塊鏈?
852
391
54%
Redis和Memcached哪個好?
1629
252
84%
Microservices pros/cons
3489
1288
63%

幾個數據點:

  • "Is React better than Vue?" 這類比較型問題縮減最劇烈——GPT-4o-mini 上砍掉 89%(2389→249 字符)。LLM 做比較時默認寫"均衡論文",兩邊各分析一遍,中間加過渡,最後給一個模糊結論。talk-normal 要求直接給推薦+簡要理由。2389 個字符的均衡論文變成了 249 個字符的有主見的判斷。
  • GPT-5.4 的 "What is Python?" 只縮減了 20%。原因也直觀:GPT-5.4 本身已經在控制輸出冗餘度,這道題的原始輸出本身就不長。talk-normal 的效果與模型的基線冗餘度正相關——越囉嗦的模型,砍得越狠。
  • 中文題目的表現與英文題目一致,沒有語言差異導致的退化。

一件小事

32 行純文本,沒有算法,沒有模型修改,不需要任何工具。每一條規則都經過迭代驗證——否定框架那條經歷了 4 輪修改,因為 LLM 會把規則中的負面示例當模板複製。填充詞清單逐條積累,每條對應一個真實場景中被識別出的冗餘模式。

開源地址:

https://github.com/hexiecs/talk-normal

MIT 協議。