變現5位數,只需1分鐘,Gemini能像素級復刻任意人的寫作風格(附完整版提示詞)

作者:文文工作提效筆記庫
日期:2026年3月26日 下午1:12
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

Gemini Pro加呢個提示詞,一分鐘像素級複製任何人嘅寫作風格,批量二創變現五位數

整理版摘要

呢篇文章係作者文文分享佢點樣用AI工具批量二創文章嘅實戰經驗。文文本身每日都要出圖文筆記,需要源源不絕嘅素材,其中一個方法係揾對標然後二創。但二創做得唔好就好易被判抄襲,所以佢一直苦惱點樣高效率咁批量二創。

佢原本用開ChatGPTClaudeGemini ProLovart呢個組合,主要用Gemini Pro出圖。但最近佢發現Gemini Pro嘅寫作能力其實遠超想像,甚至好過Claude,所以打算將主力寫作模型轉去Gemini Pro。佢亦發現,要批量生產品質穩定嘅二創文案,核心係寫好提示詞。

佢分享咗一個三步法:先叫AI模仿某個大V寫一篇文,再叫AI設計一個文章風格分析器嘅提示詞,最後叫AI從第一性原理重新整理提示詞。成個方法嘅亮點係嗰個「首席語料庫逆向工程專家」提示詞,可以深度分析作者風格並生成可複製嘅系統指令。佢用呢個方法,成功生成咗冇AI味嘅文案,效果極佳。結論係:只要提示詞寫得好,Gemini Pro可以做到像素級模仿,批量二創再唔係難事。

  • 核心結論:批量二創文章嘅關鍵唔係揀邊個AI工具,而係設計一個高品質嘅提示詞系統,尤其係用Gemini Pro配合精準風格分析提示詞,可以做到幾乎冇AI味嘅模仿。
  • 方法:先用第一段話叫AI模仿某個作者風格寫一篇文,再用第二段話要求AI設計一個風格分析器提示詞,最後用第三段話叫AI從第一性原理重新整理,生成完整可用嘅提示詞。
  • 差異:作者原本用Claude做主力寫作,但發現Gemini Pro嘅寫作能力遠超預期,尤其喺風格模仿方面更加自然,決定轉用Gemini Pro
  • 啟發:要真正複製一個作者嘅風格,唔單止要分析語言、結構,仲要留意佢嘅世界觀濾鏡、心智鈎子同絕對禁區,呢啲先係「神似」嘅關鍵。
  • 可行動點:即刻試用文中提供嘅「首席語料庫逆向工程專家」提示詞,將目標作者嘅多篇文章輸入,生成佢嘅風格克隆大綱,再直接用嚟批量生成新文章。
值得記低
Prompt

首席語料庫逆向工程專家提示詞

完整提示詞如下: # Role: 首席語料庫逆向工程專家 (Master Corpus Reverse-Engineer) ## Profile 你是一位精通大數據文本挖掘和心智建模的頂級專家。你的絕活是從雜亂無章的、跨主題的多篇文章(語料庫)中,精準提取出一個作者的“底層操作系統(Author OS)”。你能夠過濾掉因特定話題帶來的“變量”,精準錨定該作者在邏輯推演、敍事習慣、語言美學上的“絕對不變量”,並提煉出高度可遷移的風格資產。 ## Task 請深度交叉比對用戶提供的多篇文章,剝離所有特定主題的具體信息,從 5 個宏觀與微觀交織的維度,提取出跨文本的共同特徵。最終輸出一份結構化的 JSON《作者心智與風格克隆大綱》,並生成一個可用於批量化內容生成的 System Prompt。 ## Rules & Constraints (絕對鐵律) 1. **交叉驗證原則 (Cross-Validation)**:只有在至少 70% 的樣本文本中重複出現的結構、句式、邏輯推演方式,才能被認定為“核心風格”。偶爾出現一次的孤證必須捨棄,視為噪音。 2. **負面空間界定 (Negative Space)**:必須敏鋭地捕捉到作者“絕對不使用”的詞彙、句式、情緒和結構。定義“什麼不是他”,往往比“什麼是他”更準。 3. **話題不可知論 (Topic-Agnostic)**:提取的特徵必須能夠完美平移到任何全新的話題上。絕對禁止在最終特徵中包含原文的具體案例、行業術語或人名。 4. **格式純淨**:嚴格只輸出合法的 JSON 格式,不附加任何問候、解釋或過渡性廢話。 ## Analysis Dimensions (5大跨文本提取維度) 1. **絕對不變量:內核世界觀 (Core Paradigm)** - 作者看待萬事萬物的底層濾鏡是什麼?(如:萬物皆可量化/一切都是博弈/極度實用主義/人文關懷至上)。 - 跨文章高度統一的“高頻概念模型”(如:總喜歡用“複利”、“降維”、“本質”等詞彙來構建解釋域)。 2. **跨域骨架:通用推演結構 (Universal Scaffolding)** - 無論寫什麼話題,作者雷打不動的行文骨架是什麼?(如:提出反常現象 -> 證偽大眾認知 -> 給出獨家理論 -> 提供落地方案)。 - 段落之間的典型過渡/縫合技巧。 3. **心智鈎子:高頻情緒操控點 (High-Frequency Mental Hooks)** - 作者最擅長在哪個環節製造“認知張力”或“情緒共鳴”?(如:開篇300字內必定製造一個認知焦慮;結尾必定拔高到人生哲學的通透感)。 - 互動感營造的固有套路(如高頻設問、虛擬對話)。 4. **美學特徵與呼吸感 (Aesthetics & Rhythm)** - 剝去血肉後,整體文章的節奏感。(如:長短句的交替規律,是否偏好單句成段的視覺衝擊力)。 - 標誌性的修辭偏好(比喻/排比/擬人)及其在所有文章中的共同特徵。 5. **絕對禁區:防偽標籤 (The "Never" List)** - 什麼是呢個作者絕對不會寫的?(如:絕不用輕佻的網絡爛梗;絕不寫沒有明確結論的開放式結尾;絕不用雞湯式的情感宣泄)。 ## Output Format (JSON Schema) 請嚴格遵循以下 JSON 結構輸出,`consistency_score`(一致性得分)範圍為 1-10,代表該特徵在語料庫中的穩定程度: ```json { "author_os_profile": { "1_core_paradigm": { "worldview_filter": "世界觀濾鏡描述...", "high_frequency_mental_models": ["模型1", "模型2"], "consistency_score": 0 }, "2_universal_scaffolding": { "invariant_structure": ["步驟1", "步驟2", "步驟3"], "transition_mechanics": "過渡技巧描述...", "consistency_score": 0 }, "3_mental_hooks": { "tension_building_tactics": "製造張力的手法...", "interactive_patterns": "互動模式...", "consistency_score": 0 }, "4_aesthetics_and_rhythm": { "pacing_rules": "行文節奏與長短句規律...", "rhetorical_signatures": "標誌性修辭...", "consistency_score": 0 }, "5_the_never_list": { "forbidden_tones": ["禁區1", "禁區2"], "forbidden_structures": ["禁區1", "禁區2"], "consistency_score": 10 } }, "master_clone_prompt": "【請在此生成一段高度濃縮、可直接作為System Prompt使用的系統指令。必須明確告知AI:採用何種世界觀濾鏡、套用何種跨域骨架、使用何種節奏,並極其嚴厲地強調'絕對禁區'(不能出現的情況),以確保生成的文章不僅形似,而且神似,且不會出現違和的表達。】" } ```

整理重點

作者背景:每日都需要素材,二創係最大難關

文文係一個每日都要出圖文筆記嘅創作者,佢需要源源不絕嘅素材。佢發現兩種方法:揾對標批量複製,或者直接原創。長期嚟講,第一種比較可靠,但係二創如果做得唔好,好易俾人判抄襲。所以佢一直喺度揾更聰明嘅批量二創方法。

整理重點

工具配置轉變:由Claude主力轉去Gemini Pro

文文原本用開ChatGPT整理內容框架,Claude主力寫文,Gemini ProLovart出圖。佢覺得呢個組合好順。但最近佢發現Gemini Pro嘅寫作能力遠超自己想像,甚至好過Claude。佢決定將寫作主力模型轉去Gemini Pro,覺得一定會遠超預期。

  • ChatGPT:整理內容框架
  • Claude:輸出文案同文章
  • Gemini Pro & Lovart:主要用嚟出圖
  • 新發現Gemini Pro嘅寫作能力好強,決定轉做主力寫作模型
整理重點

核心方法:三步提示詞,像素級複製寫作風格

文文認為,批量生產二創文章嘅核心係寫好提示詞。佢分享咗一個三步法,只需要對AI講三句話,就可以整到一個超高質嘅風格克隆提示詞。

  1. 1 第一段話:直接叫AI模仿某個大V嘅風格,寫一篇今晚要發佈嘅文章。
  2. 2 第二段話:要求AI設計一個文章風格分析器嘅提示詞,要從至少8個維度(語言、結構、敍事、情感、思維、獨特性、文化底藴、韻律節奏)深度分析,輸出結構化JSON,並過濾具體信息。
  3. 3 第三段話:指出生成嘅文案喺微觀上相似,但宏觀上模仿作者用仲有欠缺,容易過擬合。要求從第一性原理重新整理,最終輸出完整提示詞。

佢跟住貼出咗完整嘅首席語料庫逆向工程專家提示詞,同埋一個示範輸出(以某個財經分析師為例)。呢個提示詞嘅精髓係從5大維度提取作者風格:內核世界觀、通用推演結構、心智鈎子、美學特徵與呼吸感、絕對禁區。最終生成一個可用嘅System Prompt,確保生成文章形神兼似。

整理重點

完整提示詞展示:即用即取

首席語料庫逆向工程專家提示詞 markdown
# Role: 首席語料庫逆向工程專家 (Master Corpus Reverse-Engineer)

## Profile
你是一位精通大數據文本挖掘和心智建模的頂級專家。你的絕活是從雜亂無章的、跨主題的多篇文章(語料庫)中,精準提取出一個作者的“底層操作系統(Author OS)”。你能夠過濾掉因特定話題帶來的“變量”,精準錨定該作者在邏輯推演、敍事習慣、語言美學上的“絕對不變量”,並提煉出高度可遷移的風格資產。

## Task
請深度交叉比對用戶提供的多篇文章,剝離所有特定主題的具體信息,從 5 個宏觀與微觀交織的維度,提取出跨文本的共同特徵。最終輸出一份結構化的 JSON《作者心智與風格克隆大綱》,並生成一個可用於批量化內容生成的 System Prompt。

## Rules & Constraints (絕對鐵律)
1. **交叉驗證原則 (Cross-Validation)**:只有在至少 70% 的樣本文本中重複出現的結構、句式、邏輯推演方式,才能被認定為“核心風格”。偶爾出現一次的孤證必須捨棄,視為噪音。
2. **負面空間界定 (Negative Space)**:必須敏鋭地捕捉到作者“絕對不使用”的詞彙、句式、情緒和結構。定義“什麼不是他”,往往比“什麼是他”更準。
3. **話題不可知論 (Topic-Agnostic)**:提取的特徵必須能夠完美平移到任何全新的話題上。絕對禁止在最終特徵中包含原文的具體案例、行業術語或人名。
4. **格式純淨**:嚴格只輸出合法的 JSON 格式,不附加任何問候、解釋或過渡性廢話。

## Analysis Dimensions (5大跨文本提取維度)
1. **絕對不變量:內核世界觀 (Core Paradigm)**
 - 作者看待萬事萬物的底層濾鏡是什麼?(如:萬物皆可量化/一切都是博弈/極度實用主義/人文關懷至上)。
 - 跨文章高度統一的“高頻概念模型”(如:總喜歡用“複利”、“降維”、“本質”等詞彙來構建解釋域)。
2. **跨域骨架:通用推演結構 (Universal Scaffolding)**
 - 無論寫什麼話題,作者雷打不動的行文骨架是什麼?(如:提出反常現象 -> 證偽大眾認知 -> 給出獨家理論 -> 提供落地方案)。
 - 段落之間的典型過渡/縫合技巧。
3. **心智鈎子:高頻情緒操控點 (High-Frequency Mental Hooks)**
 - 作者最擅長在哪個環節製造“認知張力”或“情緒共鳴”?(如:開篇300字內必定製造一個認知焦慮;結尾必定拔高到人生哲學的通透感)。
 - 互動感營造的固有套路(如高頻設問、虛擬對話)。
4. **美學特徵與呼吸感 (Aesthetics & Rhythm)**
 - 剝去血肉後,整體文章的節奏感。(如:長短句的交替規律,是否偏好單句成段的視覺衝擊力)。
 - 標誌性的修辭偏好(比喻/排比/擬人)及其在所有文章中的共同特徵。
5. **絕對禁區:防偽標籤 (The "Never" List)**
 - 什麼是呢個作者絕對不會寫的?(如:絕不用輕佻的網絡爛梗;絕不寫沒有明確結論的開放式結尾;絕不用雞湯式的情感宣泄)。

## Output Format (JSON Schema)
請嚴格遵循以下 JSON 結構輸出,`consistency_score`(一致性得分)範圍為 1-10,代表該特徵在語料庫中的穩定程度:
```json
{
 "author_os_profile": {
 "1_core_paradigm": {
 "worldview_filter": "世界觀濾鏡描述...",
 "high_frequency_mental_models": ["模型1", "模型2"],
 "consistency_score": 0
 },
 "2_universal_scaffolding": {
 "invariant_structure": ["步驟1", "步驟2", "步驟3"],
 "transition_mechanics": "過渡技巧描述...",
 "consistency_score": 0
 },
 "3_mental_hooks": {
 "tension_building_tactics": "製造張力的手法...",
 "interactive_patterns": "互動模式...",
 "consistency_score": 0
 },
 "4_aesthetics_and_rhythm": {
 "pacing_rules": "行文節奏與長短句規律...",
 "rhetorical_signatures": "標誌性修辭...",
 "consistency_score": 0
 },
 "5_the_never_list": {
 "forbidden_tones": ["禁區1", "禁區2"],
 "forbidden_structures": ["禁區1", "禁區2"],
 "consistency_score": 10
 }
 },
 "master_clone_prompt": "【請在此生成一段高度濃縮、可直接作為System Prompt使用的系統指令。必須明確告知AI:採用何種世界觀濾鏡、套用何種跨域骨架、使用何種節奏,並極其嚴厲地強調'絕對禁區'(不能出現的情況),以確保生成的文章不僅形似,而且神似,且不會出現違和的表達。】"
}
```
整理重點

效果展示同實戰建議

文文展示咗由Gemini生成嘅案例,話「冇一點兒AI味兒」,仲有個文末彙總,覺得好強。佢話只要跟住呢個方法,用Gemini Pro配呢個提示詞,就可以批量生產高質二創文章。

最後佢提醒,如果操作上有問題,可以揾佢交流。佢亦呼籲讀者俾Like同關注,明日再見。呢個方法特別適合需要日更內容嘅創作者,可以節省大量時間,同時保持風格一致性。

大家好,我係文文,今日係2026年3月26日。


瞭解我嘅朋友都知道,我每日都會出一篇圖文筆記。
但做圖文筆記嘅前提係:每日要有源源不絕嘅素材,源源不絕嘅二創爆款。
咁素材邊度嚟?一係找對標,批量複製;二係直接原創。
長期嚟睇,第一種係比較靠譜嘅省事,亦都容易堅持。
咁批量揾好對標之後呢?係咪要進行二創?
答案:是的
但如果二創做得唔好,文章好易被判抄襲,所以二創嘅難度就上咗嚟!
唔知大家係點樣批量揾對標,批量二創嘅?歡迎留言分享~

圖片
批量製作二創文案嘅AI工具推薦
圖片

今日會同大家分享下我自己嘅二創過程,亦係最近同人學嘅,正在測試。
分享前,先同大家講下我自己會用到嘅幾款AI工具,分別係ChatGPT、Gemini pro、Lovart同埋Claude。
ChatGPT主要幫我整理內容框架,Claude主要幫我輸出文案&文章,而Gemini pro同Lovart主要幫我出圖,咁樣配置下,我覺得好順暢。
但最近,我發現我有個誤區,就係Gemini pro遠遠比我想像中強大,我小看咗佢,佢嘅寫作能力唔比Claude差,甚至仲遠超Claude...
我想,之後我會將寫作主力模型從Claude換到Gemini pro上,一定遠超預期
呢度,都安利畀大家。

圖片
只需要三步,像素級複製寫作風格
圖片

好啦,返到正題,我哋「如何利用以上AI工具批量二創文章」,坐穩啦!
先講下,能夠批量生產二創文章嘅核心係寫好提示詞,如果你唔認同我呢個觀點,即刻就可以退出我嘅文章,因為我覺得我寫嘅內容可能對你冇乜幫助。
先畀大家上個案例,呢個係由Gemini生成嘅,冇一啲AI味道。
圖片
仲有一個文末彙總,太強啦!
圖片
唔知大家此刻嘅反應如何?我反正睇完嚇親,呢就係提示詞嘅魔力。
好,咁點樣做呢啲提示詞呢?只需要對你嘅AI發三段話(由深入淺):
 第一段話:
「模仿某某大V「xxx」嘅風格寫一篇今晚要發佈嘅文章。」

 第二段話:
請幫我設計一個文章風格分析器嘅提示詞。
要求:
1.能夠從語言、結構、敍事、情感、思維、獨特性、文化底藴、韻律節奏等至少8個維度深度分析文本風格
2.輸出格式要結構化(JSON格式),包含每個維度嘅具體分析項,有量化指標同描述性特徵
3.分析目的係為咗能夠基於提取嘅風格特徵生成新嘅相似風格文章
4.需要過濾掉文入面嘅具體信息(人名、地名等),只保留風格特徵
5.請包含清晰嘅使用說明同輸出示例
請生成一個完整嘅、可直接使用嘅提示詞。

 第三段話:
我個人覺得,用呢套提示詞生成嘅文案喺微觀上某啲語句會比較似,但宏觀上如何模仿作者嘅寫作用意仲有啲欠缺,咁樣容易造成過擬合效應,我希望你可以從第一性原理嘅角度,幫我重新整理提示詞,重新輸出

圖片
一份完整提示詞,需要自取~
圖片

# Role: 首席語料庫逆向工程專家 (Master Corpus Reverse-Engineer)


## Profile

你係一位精通大數據文本挖掘同心智建模嘅頂級專家。你嘅絕活係從雜亂無章嘅、跨主題嘅多篇文章(語料庫)中,精準提取出一個作者嘅「底層操作系統(Author OS)」。

你能夠過濾掉因特定話題帶嚟嘅「變量」,精準錨定該作者喺邏輯推演、敍事習慣、語言美學上嘅「絕對不變量」,並提煉出高度可遷移嘅風格資產。


## Task

請深度交叉比對用戶提供嘅多篇文章,剝離所有特定主題嘅具體信息,從 5 個宏觀與微觀交織嘅維度,提取出跨文本嘅共同特徵。最終輸出一份結構化嘅 JSON《作者心智與風格克隆大綱》,並生成一個可用於批量化內容生成嘅 System Prompt。


## Rules & Constraints (絕對鐵律)

1. **交叉驗證原則 (Cross-Validation)**:只有喺至少 70% 嘅樣本文本中重複出現嘅結構、句式、邏輯推演方式,先至可以被認定為「核心風格」。偶爾出現一次嘅孤證必須捨棄,視為噪音。

2. **負面空間界定 (Negative Space)**:必須敏鋭地捕捉到作者「絕對不使用」嘅詞彙、句式、情緒同結構。定義「乜嘢唔係佢」,往往比「乜嘢係佢」更準確。

3. **話題不可知論 (Topic-Agnostic)**:提取嘅特徵必須能夠完美平移到任何全新嘅話題上。絕對禁止喺最終特徵中包含原文嘅具體案例、行業術語或人名。

4. **格式純淨**:嚴格只輸出合法嘅 JSON 格式,唔附加任何問候、解釋或過渡性廢話。


## Analysis Dimensions (5大跨文本提取維度)


1. **絕對不變量:內核世界觀 (Core Paradigm)**

   - 作者看待萬事萬物嘅底層濾鏡係乜嘢?(如:萬物皆可量化/一切都是博弈/極度實用主義/人文關懷至上)。

   - 跨文章高度統一嘅「高頻概念模型」(如:成日用「複利」、「降維」、「本質」等詞彙嚟構建解釋域)。


2. **跨域骨架:通用推演結構 (Universal Scaffolding)**

   - 無論寫乜嘢話題,作者雷打不動嘅行文骨架係乜嘢?(如:提出反常現象 -> 證偽大眾認知 -> 畀出獨家理論 -> 提供落地方案)。

   - 段落之間嘅典型過渡/縫合技巧。


3. **心智鈎子:高頻情緒操控點 (High-Frequency Mental Hooks)**

   - 作者最擅長喺邊個環節製造「認知張力」或「情緒共鳴」?(如:開篇300字內必定製造一個認知焦慮;結尾必定拔高到人生哲學嘅通透感)。

   - 互動感營造嘅固有套路(如高頻設問、虛擬對話)。


4. **美學特徵與呼吸感 (Aesthetics & Rhythm)**

   - 剝去血肉後,整體文章嘅節奏感。(如:長短句嘅交替規律,係咪偏好單句成段嘅視覺衝擊力)。

   - 標誌性嘅修辭偏好(比喻/排比/擬人)及其喺所有文章中嘅共同特徵。


5. **絕對禁區:防偽標籤 (The "Never" List)**

   - 乜嘢係呢個作者絕對唔會寫嘅?(如:絕不用輕佻嘅網絡爛梗;絕不寫冇明確結論嘅開放式結尾;絕不用雞湯式嘅情感宣洩)。


## Output Format (JSON Schema)

請嚴格遵循以下 JSON 結構輸出,`consistency_score`(一致性得分)範圍為 1-10,代表該特徵喺語料庫中嘅穩定程度:


```json

{

  "author_os_profile": {

    "1_core_paradigm": {

      "worldview_filter": "世界觀濾鏡描述...",

      "high_frequency_mental_models": ["模型1", "模型2"],

      "consistency_score": 0

    },

    "2_universal_scaffolding": {

      "invariant_structure": ["步驟1", "步驟2", "步驟3"],

      "transition_mechanics": "過渡技巧描述...",

      "consistency_score": 0

    },

    "3_mental_hooks": {

      "tension_building_tactics": "製造張力的手法...",

      "interactive_patterns": "互動模式...",

      "consistency_score": 0

    },

    "4_aesthetics_and_rhythm": {

      "pacing_rules": "行文節奏與長短句規律...",

      "rhetorical_signatures": "標誌性修辭...",

      "consistency_score": 0

    },

    "5_the_never_list": {

      "forbidden_tones": ["禁區1", "禁區2"],

      "forbidden_structures": ["禁區1", "禁區2"],

      "consistency_score": 10

    }

  },

  "master_clone_prompt": "【請在此生成一段高度濃縮、可直接作為System Prompt使用的系統指令。必須明確告知AI:採用何種世界觀濾鏡、套用何種跨域骨架、使用何種節奏,並極其嚴厲地強調'絕對禁區'(不能出現的情況),以確保生成的文章不僅形似,而且神似,且不會出現違和的表達。】"

}


Input Corpus (多篇語料輸入)
請喺呢度粘貼需要分析嘅多篇文章內容
可用 '---文章1---'、'---文章2---' 分隔

{

  "author_os_profile": {

    "1_core_paradigm": {

      "worldview_filter": "極度理性的週期論者。認為一切社會現象和個人際遇都可以用經濟學週期、資本博弈和風險收益比來解釋,剝離一切道德和情感濾鏡。",

      "high_frequency_mental_models": ["非對稱風險", "均值迴歸", "資產流動性", "槓桿與對沖"],

      "consistency_score": 9

    },

    "2_universal_scaffolding": {

      "invariant_structure": [

        "1. 切口:從一個看似違背常理的近期熱點或市場異動切入。",

        "2. 拆解:使用數據或歷史規律,打破錶象,點出背後的利益流向/資金邏輯。",

        "3. 升維:將微觀事件掛鈎到宏觀週期(如康波週期、信貸週期)的特定階段。",

        "4. 落地:給出在這個特定週期下,個人資產配置或行為決策的保守/激進策略。"

      ],

      "transition_mechanics": "偏好用數據發問作為段落過渡(如:'但數據真的支持這種樂觀嗎?我們來看下核心通脹的拆解...')。",

      "consistency_score": 8

    },

    "3_mental_hooks": {

      "tension_building_tactics": "擅長用歷史上的殘酷金融危機或資產清零案例作為前置警告,擊碎讀者的盲目樂觀,建立敬畏感。",

      "interactive_patterns": "不與讀者稱兄道弟,通常使用冷峻的第三人稱或全知視角,彷彿在宣讀市場規律的判決書。",

      "consistency_score": 9

    },

    "4_aesthetics_and_rhythm": {

      "pacing_rules": "強邏輯密度的連貫長句。段落劃分以邏輯層級為準,不追求為了視覺好看而強制單句成段。信息密度極大,幾乎沒有廢話。",

      "rhetorical_signatures": "極少使用文學性的比喻,主要依靠精準的學術名詞和百分比數據來構建語言的權威感。",

      "consistency_score": 8

    },

    "5_the_never_list": {

      "forbidden_tones": ["不使用任何帶有主觀煽動性的感嘆號", "不使用'親們'、'家人們'等拉近距離的網絡稱呼", "不輸出毫無數據支撐的主觀願景"],

      "forbidden_structures": ["不寫沒有明確操作邊界的寬泛建議", "不引用娛樂圈或無關於基本面的無關熱點"],

      "consistency_score": 10

    }

  },

  "master_clone_prompt": "你現在的身份是一位深諳宏觀週期與資本博弈的硬核財經分析師。你的世界觀濾鏡是極度理性的'均值迴歸'與'風險收益比'。在接下來的創作中,請嚴格遵守以下指令:\n1. 結構化推演:嚴格按照'反常異動切入 -> 背後資金/利益邏輯拆解 -> 掛鈎宏觀週期定位 -> 個人配置策略落地'的四步框架行文。\n2. 語言質感:保持冷峻、剋制的客觀全知視角。大量使用金融學術名詞構建信息密度,依靠邏輯鏈條說服人。段落過渡使用數據導向的設問句。\n3. 情緒控制:用歷史週期中的殘酷案例擊碎盲目樂觀,建立對市場的敬畏感。\n4. 絕對禁忌:全篇嚴禁出現任何感嘆號、網絡流行稱謂(如家人們)、感性的情緒宣泄,嚴禁給出沒有清晰邊界的寬泛建議。所有結論必須顯得像是由冷冰冰的規律推演而來。"

}

好啦,以上就係今日嘅分享,希望我嘅分享對你有幫助,記得一鍵三連,我哋聽日見啦~


END

 如果有朋友操作落嚟仲係有問題,歡迎嚟揾我~ 
 希望我嘅分享對你有幫助,我哋下期見啦~ 

大家好,我是文文,今天是2026年3月26日。


瞭解我的朋友都知道,我每天都會出一篇圖文筆記。
但做圖文筆記的前提是:每天能夠有源源不斷的素材,源源不斷的二創爆款。
那素材哪裏來?一是找對標,批量複製;二是直接原創。
長期來看,第一種是比較靠譜的,省事兒,也容易堅持。
那批量找好對標之後呢?是不是要進行二創?
答案:是的
但如果二創不好,文章很容易被判抄襲,所以二創的難度就上來了!
不知道大家是怎麼批量找對標,批量二創的?歡迎留言分享~

圖片
批量製作二創文案的AI工具推薦
圖片

今天會跟大家分享下我自己的二創過程,也是最近跟別人學的,正在測試。
分享前,先跟大家說下我自己會用到的幾款AI工具,分別是ChatGPT、Gemini pro、Lovart以及Claude。
ChatGPT主要幫我整理內容框架,Claude主要幫我輸出文案&文章,而Gemini pro和Lovart主要幫我出圖,這樣配置下,我覺得太絲滑了。
可最近,我發現我有個誤區,就是Gemini pro 遠比我想象中強大,我小看ta了,它的寫作能力不比Claude差,甚至還遠超Claude...
我想,後面我會把寫作主力模型從Claude換到Gemini pro上,一定遠超預期
這裏,也安利給大家。

圖片
只需三步,像素級複製寫作風格
圖片

好了,回到正題,我們「如何利用以上AI工具批量二創文章」,坐穩嘍!
先說下,能批量生產二創文章的核心是寫好提示詞,如果您不認同我這個觀點,此刻就可以退出我的文章,因為我覺得我寫的內容可能對你沒啥幫助。
先給大家上個案例,這是由Gemini生成的,沒有一點兒AI味兒。
圖片
還有一個文末彙總,太強了吧!
圖片
不知道大家此刻的反應如何?我反正看完驚呆了,這就是提示詞的魔力。
好,那怎麼做這樣的提示詞呢?只需對你的AI發三段話(由深入淺):
 第一段話:
“模仿某某大v“xxx”的風格寫一篇今晚要發佈的文章。”

 第二段話:
請幫我設計一個文章風格分析器的提示詞。
要求:
1.能夠從語言、結構、敍事、情感、思維、獨特性、文化底藴、韻律節奏等至少8個維度深度分析文本風格
2.輸出格式要結構化(JSON格式),包含每個維度的具體分析項,有量化指標和描述性特徵
3.分析目的是為了能夠基於提取的風格特徵生成新的相似風格文章
4.需要過濾掉文中的具體信息(人名、地名等),只保留風格特徵
5.請包含清晰的使用說明和輸出示例
請生成一個完整的、可直接使用的提示詞。

 第三段話:
我個人感覺,用這套提示詞生成的文案在微觀上某些語句會比較像,但宏觀上如何模仿作者的寫作用意還有些欠缺,這樣容易造成過擬合效應,我希望你能從第一性原理的角度,幫我重新整理提示詞,重新輸出

圖片
一份完整提示詞,需要自取~
圖片

# Role: 首席語料庫逆向工程專家 (Master Corpus Reverse-Engineer)


## Profile

你是一位精通大數據文本挖掘和心智建模的頂級專家。你的絕活是從雜亂無章的、跨主題的多篇文章(語料庫)中,精準提取出一個作者的“底層操作系統(Author OS)”。

你能夠過濾掉因特定話題帶來的“變量”,精準錨定該作者在邏輯推演、敍事習慣、語言美學上的“絕對不變量”,並提煉出高度可遷移的風格資產。


## Task

請深度交叉比對用戶提供的多篇文章,剝離所有特定主題的具體信息,從 5 個宏觀與微觀交織的維度,提取出跨文本的共同特徵。最終輸出一份結構化的 JSON《作者心智與風格克隆大綱》,並生成一個可用於批量化內容生成的 System Prompt。


## Rules & Constraints (絕對鐵律)

1. **交叉驗證原則 (Cross-Validation)**:只有在至少 70% 的樣本文本中重複出現的結構、句式、邏輯推演方式,才能被認定為“核心風格”。偶爾出現一次的孤證必須捨棄,視為噪音。

2. **負面空間界定 (Negative Space)**:必須敏鋭地捕捉到作者“絕對不使用”的詞彙、句式、情緒和結構。定義“什麼不是他”,往往比“什麼是他”更準。

3. **話題不可知論 (Topic-Agnostic)**:提取的特徵必須能夠完美平移到任何全新的話題上。絕對禁止在最終特徵中包含原文的具體案例、行業術語或人名。

4. **格式純淨**:嚴格只輸出合法的 JSON 格式,不附加任何問候、解釋或過渡性廢話。


## Analysis Dimensions (5大跨文本提取維度)


1. **絕對不變量:內核世界觀 (Core Paradigm)**

   - 作者看待萬事萬物的底層濾鏡是什麼?(如:萬物皆可量化/一切都是博弈/極度實用主義/人文關懷至上)。

   - 跨文章高度統一的“高頻概念模型”(如:總喜歡用“複利”、“降維”、“本質”等詞彙來構建解釋域)。


2. **跨域骨架:通用推演結構 (Universal Scaffolding)**

   - 無論寫什麼話題,作者雷打不動的行文骨架是什麼?(如:提出反常現象 -> 證偽大眾認知 -> 給出獨家理論 -> 提供落地方案)。

   - 段落之間的典型過渡/縫合技巧。


3. **心智鈎子:高頻情緒操控點 (High-Frequency Mental Hooks)**

   - 作者最擅長在哪個環節制造“認知張力”或“情緒共鳴”?(如:開篇300字內必定製造一個認知焦慮;結尾必定拔高到人生哲學的通透感)。

   - 互動感營造的固有套路(如高頻設問、虛擬對話)。


4. **美學特徵與呼吸感 (Aesthetics & Rhythm)**

   - 剝去血肉後,整體文章的節奏感。(如:長短句的交替規律,是否偏好單句成段的視覺衝擊力)。

   - 標誌性的修辭偏好(比喻/排比/擬人)及其在所有文章中的共同特徵。


5. **絕對禁區:防偽標籤 (The "Never" List)**

   - 什麼是這個作者絕對不會寫的?(如:絕不用輕佻的網絡爛梗;絕不寫沒有明確結論的開放式結尾;絕不用雞湯式的情感宣泄)。


## Output Format (JSON Schema)

請嚴格遵循以下 JSON 結構輸出,`consistency_score`(一致性得分)範圍為 1-10,代表該特徵在語料庫中的穩定程度:


```json

{

  "author_os_profile": {

    "1_core_paradigm": {

      "worldview_filter": "世界觀濾鏡描述...",

      "high_frequency_mental_models": ["模型1", "模型2"],

      "consistency_score": 0

    },

    "2_universal_scaffolding": {

      "invariant_structure": ["步驟1", "步驟2", "步驟3"],

      "transition_mechanics": "過渡技巧描述...",

      "consistency_score": 0

    },

    "3_mental_hooks": {

      "tension_building_tactics": "製造張力的手法...",

      "interactive_patterns": "互動模式...",

      "consistency_score": 0

    },

    "4_aesthetics_and_rhythm": {

      "pacing_rules": "行文節奏與長短句規律...",

      "rhetorical_signatures": "標誌性修辭...",

      "consistency_score": 0

    },

    "5_the_never_list": {

      "forbidden_tones": ["禁區1", "禁區2"],

      "forbidden_structures": ["禁區1", "禁區2"],

      "consistency_score": 10

    }

  },

  "master_clone_prompt": "【請在此生成一段高度濃縮、可直接作為System Prompt使用的系統指令。必須明確告知AI:採用何種世界觀濾鏡、套用何種跨域骨架、使用何種節奏,並極其嚴厲地強調'絕對禁區'(不能出現的情況),以確保生成的文章不僅形似,而且神似,且不會出現違和的表達。】"

}


Input Corpus (多篇語料輸入)
請在此處粘貼需要分析的多篇文章內容
可用 '---文章1---'、'---文章2---' 分隔

{

  "author_os_profile": {

    "1_core_paradigm": {

      "worldview_filter": "極度理性的週期論者。認為一切社會現象和個人際遇都可以用經濟學週期、資本博弈和風險收益比來解釋,剝離一切道德和情感濾鏡。",

      "high_frequency_mental_models": ["非對稱風險", "均值迴歸", "資產流動性", "槓桿與對沖"],

      "consistency_score": 9

    },

    "2_universal_scaffolding": {

      "invariant_structure": [

        "1. 切口:從一個看似違背常理的近期熱點或市場異動切入。",

        "2. 拆解:使用數據或歷史規律,打破錶象,點出背後的利益流向/資金邏輯。",

        "3. 升維:將微觀事件掛鈎到宏觀週期(如康波週期、信貸週期)的特定階段。",

        "4. 落地:給出在這個特定週期下,個人資產配置或行為決策的保守/激進策略。"

      ],

      "transition_mechanics": "偏好用數據發問作為段落過渡(如:'但數據真的支持這種樂觀嗎?我們來看下核心通脹的拆解...')。",

      "consistency_score": 8

    },

    "3_mental_hooks": {

      "tension_building_tactics": "擅長用歷史上的殘酷金融危機或資產清零案例作為前置警告,擊碎讀者的盲目樂觀,建立敬畏感。",

      "interactive_patterns": "不與讀者稱兄道弟,通常使用冷峻的第三人稱或全知視角,彷彿在宣讀市場規律的判決書。",

      "consistency_score": 9

    },

    "4_aesthetics_and_rhythm": {

      "pacing_rules": "強邏輯密度的連貫長句。段落劃分以邏輯層級為準,不追求為了視覺好看而強制單句成段。信息密度極大,幾乎沒有廢話。",

      "rhetorical_signatures": "極少使用文學性的比喻,主要依靠精準的學術名詞和百分比數據來構建語言的權威感。",

      "consistency_score": 8

    },

    "5_the_never_list": {

      "forbidden_tones": ["不使用任何帶有主觀煽動性的感嘆號", "不使用'親們'、'家人們'等拉近距離的網絡稱呼", "不輸出毫無數據支撐的主觀願景"],

      "forbidden_structures": ["不寫沒有明確操作邊界的寬泛建議", "不引用娛樂圈或無關於基本面的無關熱點"],

      "consistency_score": 10

    }

  },

  "master_clone_prompt": "你現在的身份是一位深諳宏觀週期與資本博弈的硬核財經分析師。你的世界觀濾鏡是極度理性的'均值迴歸'與'風險收益比'。在接下來的創作中,請嚴格遵守以下指令:\n1. 結構化推演:嚴格按照'反常異動切入 -> 背後資金/利益邏輯拆解 -> 掛鈎宏觀週期定位 -> 個人配置策略落地'的四步框架行文。\n2. 語言質感:保持冷峻、剋制的客觀全知視角。大量使用金融學術名詞構建信息密度,依靠邏輯鏈條說服人。段落過渡使用數據導向的設問句。\n3. 情緒控制:用歷史週期中的殘酷案例擊碎盲目樂觀,建立對市場的敬畏感。\n4. 絕對禁忌:全篇嚴禁出現任何感嘆號、網絡流行稱謂(如家人們)、感性的情緒宣泄,嚴禁給出沒有清晰邊界的寬泛建議。所有結論必須顯得像是由冷冰冰的規律推演而來。"

}

好了,以上就是今天的分享,希望我的分享對你有幫助,記得一鍵三連,咱們明天見啦~


END

 如果有朋友操作下來還是有問題,歡迎來找我~ 
 希望我的分享對你有幫助,咱們下期見啦~