月入百萬的 AI中轉站,錢到底從哪來?
整理版優先睇
AI中轉站賺的是入口、額度同不透明度嘅錢,真係抵用要靠路徑透明
呢篇文章由深潮 TechFlow 嘅報導引伸,作者自己調研咗 AI 中轉站嘅運作模式,想解答一個核心問題:月入百萬嘅中轉站,錢到底從邊度嚟?作者結論係,中轉站唔係靠模型能力賺錢,而係賺三筆錢:訪問門檻嘅錢、額度管理嘅錢、同信息不透明嘅錢。
文章唔係教人點樣搭站,而係從用戶角度拆解一次提示詞請求嘅完整路徑——從客戶端出發,經過接入層、鑑權層、計費層、路由層,再到真實模型服務器,最後返回。作者比較咗三種上游模式:官方 API Key 轉發、訂閲賬號池逆向、小中轉接大中轉,指出每種模式嘅風險同侷限。
最後,作者提出一個重要判斷:真正靠譜嘅中轉站應該似網關,能夠講清楚調用路徑、日誌邊界同故障歸因;如果淨係掛住平,就可能只係將別人不確定性轉賣俾用戶。用戶將工作現場(源碼、內部文檔)交出去嘅時候,要諗清楚背後有冇私隱風險。
- AI中轉站賺嘅係入口、額度管理同信息不透明,唔係模型能力。
- 一次提示詞請求會經過接入層、鑑權層、計費層、路由層,先至去到真實模型。
- 三種上游模式:官方 Key 轉發(最乾淨但成本高)、訂閲賬號池逆向(易封號)、小中轉接大中轉(責任邊界消失)。
- 返回路徑中,中轉站理論上可以睇曬用戶嘅 prompt 同 response,存在私隱洩漏風險。
- 靠譜中轉站應該似網關,講得清路徑、日誌邊界同故障歸因;淨係話「上游炸咗」嘅大多唔可靠。
OpenClaw 淘金熱,誰在暴富?
引發作者關注嘅原始報導
New API 項目
常見嘅中轉站開源網關項目
LiteLLM 項目
另一個常見嘅中轉站開源網關
Anthropic Streaming Messages 文檔
官方流式輸出機制說明
中轉站賣嘅唔係模型,係入口
官方 API 對國內用戶有四個門檻:網絡、支付、賬號、協議。中轉站將呢啲麻煩包裝成一個 base_url 同一個 sk-xxx,用戶喺 Cursor、Claude Code 呢類工具一填就用得。
第一筆錢嚟自支付同匯率——用戶用人民幣充值,後台用虛擬美元計價,甚至出現「1元人民幣=1美刀額度」嘅玩法。第二筆錢嚟自額度池:輕度用戶充咗100蚊只用10蚊,重度用戶跑一晚,站長靠限速、排隊、換上游去扛。第三筆錢嚟自模型同渠道不透明——用戶好少驗證背後係邊條通道。
一次提示詞請求嘅完整路徑
客戶端輸入 prompt 後,唔會直接去 Anthropic,而係先到中轉站。第一層係接入層(Cloudflare、Nginx 等),負責擋異常流量同保持長連接。第二層係鑑權層,查用戶 Key、餘額、分組同模型權限。第三層係計費預估,凍結一部分額度。
到呢度,請求仲未碰到 Claude。一個能賺錢嘅中轉站,前半段最重要係賬本、分組同限流,因為用戶用量唔平均——有人一日問兩句,有人將 AI 編程工具接到真實項目連續跑。
- 1 官方 API Key 轉發:中轉站自己持有 Anthropic、OpenAI、Azure 等真實 Key,轉發到真實 API。最乾淨,但成本高,價格難離譜。
- 2 訂閲賬號池逆向:買大量 Claude Pro/ Max 賬號,用腳本包裝成 API。易封號、限流、協議唔穩定,Claude Code tool use 會怪。
- 3 小中轉接大中轉:自己冇 Key 冇賬號,只係再包裝另一間中轉站。最大問題係責任邊界消失——解釋唔到故障。
返回路徑最敏感:中轉站睇得見內容
請求去到真實模型後,流式輸出經 SSE 返回。但中間經過中轉站嘅格式轉換、日誌同計費,最終先到用戶客戶端。最敏感嘅係日誌——中轉站理論上可以記錄曬 prompt 同 response。
如果用戶用 AI 編程工具跑項目,prompt 入面可能包含 .env、客戶數據、源碼、數據庫結構、內部文檔。中轉站唔係單純網絡代理,而係能讀到內容嘅中間人。作者提到最離譜嘅賺錢方式:將信息賣俾廠商,尤其係大量免費用 xx 模型嘅中轉站。
常見故障暴露上游結構
中轉站日常出問題,唔好淨係睇報錯文本,要睇佢暴露咗邊一層。例如:經常 401/Key invalid 可能係鑑權層或上游 Key 被封;經常 429/rate limit 反映上游額度池唔夠;高峯期排隊耐,可能站長用低成本池子對賭輕度用戶;Claude Code tool use 異常 多數係協議轉換層未適配好。
最值得留意兩個信號:第一,模型能力突然唔穩定(同一模型名上晝得夜晚唔得),似路由換咗;第二,站長永遠用「上游問題」解釋一切——真正直連官方嘅至少講到係 RPM 限流、TPM 限流定係賬號封禁。只會話「上游炸咗」,多半佢自己都唔知上游係邊個。
- 模型能力突然不穩定 -> 可能路由換咗
- 永遠用上游問題解釋 -> 自身冇可驗證信息
靠譜中轉站似網閘,唔係倒賣攤位
合規 AI Gateway 同灰色中轉站表面都畀一個 API 地址,但運營目標唔同。網關關心權限、成本、可觀測、故障切換、日誌邊界;灰色中轉關心低價、引流、充值、上游套利。
作者判斷:如果中轉站能夠講清楚調用路徑、日誌邊界、故障歸因,就有機會變成基礎設施;淨係將「低價 Claude」寫得好大,就只係將別人不確定性轉賣俾用戶。
2026 年 3 月,深潮 TechFlow 寫 OpenClaw 淘金熱時提到一件事:倒賣 Token API 嘅中轉站,有人單月盈利上百萬。

呢個數字唔一定代表行業平均水平。
但佢解釋咗一個現象:點解最近周圍都係「低價 Claude」「滿血模型」「國內直連」。
我呢幾日做咗個調研,先講結論:AI 中轉站賺錢,靠嘅唔係模型能力。
佢賺嘅係三筆錢:訪問門檻嘅錢、額度管理嘅錢、同埋信息唔透明嘅錢。
真正值得講清楚嘅唔係「點樣搭站」。嗰啲嘢一寫就容易變成灰色教程,冇意思。
我更關心另一個問題:我喺客戶端裏面輸入一句提示詞,最後到底係咪去咗 Anthropic 嘅 Claude 真實服務器?
中間經過咗幾層?
返嚟嘅時候又經過咗邊個嘅手?
呢條路徑講唔清楚,低價就冇意義。

01
中轉站賣嘅唔係模型,係入口
官方 API 對國內好多用戶有四個門檻:網絡、支付、賬號、協議。中轉站將呢四個問題包起,俾一個 base_url 和一個 sk-xxx,用戶喺 Cursor、Claude Code、Chatbox 或者自己嘅腳本度一填,就搞得掂。
講白咗就係將麻煩收埋。
呢度第一筆錢嚟自支付同站內匯率。用戶用人民幣充值,後台用虛擬美元計價,甚至出現「1 元人民幣 = 1 美刀額度」,即係話,所謂「刀」往往唔係銀行匯率意義上嘅美元,而係站內額度單位。
第二筆錢嚟自額度池。輕度用戶充咗 100 元,只用咗 10 元就停咗;重度用戶將 Claude Code 接到項目度跑一晚,站長再靠限速、排隊、換上游去頂。
第三筆錢嚟自模型同渠道嘅唔透明。
用戶買嘅係「我可以用到 Claude」呢個結果,但好少能夠驗證背後到底係邊條通道。

02
一次提示詞請求,先過嘅係中轉站自己嘅賬本
先將一條正常請求拆開。
我喺客戶端輸入:
客戶端唔會直接去 Anthropic。
佢會將請求發到中轉站提供嘅地址,例如:
第一層係接入層。可能係 Cloudflare、Nginx、APISIX 或者其他網關,負責擋走異常流量,保持長連接,處理跨域同超時。
第二層係鑑權層。中轉站會查呢個 sk-relay-user-key 屬於邊個,餘額仲有幾多,用戶喺邊個分組,可唔可以調用呢個模型。
第三層係計費預估。系統會粗略估算輸入 Token 數,檢查餘額,有需要時先凍結一部分額度。
到呢度,請求仲未碰到 Claude。
好多人以為中轉站就係一個反向代理:入嚟、轉發、返出去。
實際唔係。
一個賺到錢嘅中轉站,前半段最重要嘅係賬本、分組同限流。
因為用戶唔會平均咁用模型。有人一日問兩句,有人將 AI 編程工具接到真實項目度連續跑。站長賺唔賺錢,首先要睇能唔能夠識別呢種用量差異。
03
真正分叉喺路由層
請求通過賬本之後,會進入路由層。
呢一步決定咗錢從邊度嚟,亦決定咗風險從邊度嚟。
我將佢拆成三種模式。
第一種係最乾淨嘅。
中轉站自己持有 Anthropic、OpenAI、Azure、AWS Bedrock 等官方或準官方渠道嘅 Key。用戶請求入嚟之後,中轉站將用戶 Key 換成自己嘅官方 Key,再將請求轉發到真實 API。
New API 同 LiteLLM 呢類項目,做嘅就係呢類網關能力:多模型接入、協議轉換、路由、計費、失敗重試、成本統計。
呢個模式唔係天然有問題。
好多企業內部都會自建 AI Gateway,將 OpenAI、Claude、Gemini 統一成一個入口,方便做權限、成本同審計。
問題在於,企業自用網關嘅目標係可控,中轉站嘅目標通常係平同可以賣。
呢兩個目標會衝突。
第二種係訂閲賬號池逆向。
站長買好多 Claude Pro、Max 或其他訂閲賬號,再用自動化腳本登入網頁或客戶端,將用戶嘅提示詞塞入去,等網頁返結果,再抽返出嚟包裝成 API 響應。
用戶以為自己喺度調 API,其實後面可能係瀏覽器自動化、客戶端逆向、Cookie 池、代理 IP 池。
呢度有個陷阱:網頁同客戶端唔係為 API 服務設計嘅。
佢哋自己有系統提示詞、頻率限制、風控策略同會話狀態。中轉站硬將佢包裝成 API,就會出現奇怪嘅問題:同樣嘅提示詞今日跑得到,聽日 403;短問題答得到,長上下文突然斷;Claude Code 嘅 tool use 表現唔穩定。
呢個唔係用戶寫錯。
係中轉站將非 API 通道扮成 API。
第三種係細中轉接大中轉。
我以為自己買嘅係某個中轉站,實際上佢後面又接咗另一個中轉站。佢自己冇官方 Key,亦冇穩定賬號池,只係拎人哋嘅接口再包一層。
呢類站最大嘅特點係解釋唔到故障。
用戶問點解 429,佢話上游限流;問點解模型唔啱,佢話上游兜底;問點解釦費異常,佢話上游計費延遲。
聽落都合理,但冇任何可驗證嘅信息。
呢個就係我最唔鍾意嘅一類。
因為佢唔只係平唔平嘅問題,而係責任邊界消失咗。
04
返回路徑更敏感,因為中轉站睇得到內容
請求到咗真實模型服務器,Claude 或 OpenAI 開始生成內容。
如果係流式輸出,官方會經 SSE 返一段段事件。
Anthropic 嘅官方文檔寫得好清楚,創建 Message 時設置 "stream": true,就會經 Server-Sent Events 增量返;OpenAI 嘅 Responses API 都係類似機制。
呢個解釋咗點解客戶端裏面會一個字一個字咁出。
但中轉站喺中間,所以返回都唔係「官方直接返畀用戶」。
真實路徑大約係:
呢度最敏感嘅係日誌。
中轉站理論上睇到用戶發出嘅 prompt,亦睇到模型返嘅 response。
佢可以選擇只紀錄用量、狀態碼、需時、Token 數,亦可以將完整對話儲起。
我以前覺得「我又唔寫乜嘢機密,怕乜」。
後來我諗咗一下,如果我將成個項目目錄交畀 AI 編程工具,中轉站攞到嘅就唔係一句聊天,而係一部分工作現場。
呢件事性質就唔同咗。
用戶喺 Claude Code 度跑項目時,提示詞裏面可能包含 .env、客戶數據、源碼、數據庫結構、內部文檔。
就算我自己做咗 .gitignore,都唔代表 AI 工具唔會喺上下文裏面帶出敏感片段。
中轉站唔係單純網絡代理。
佢係讀得到內容嘅中間人。
所以呢度就有最離譜嘅賺錢方式:將信息賣畀廠商。有啲大量免費用 xx 模型嘅中轉站,可能就係噉。
05
常見故障,其實係暴露緊上游結構
中轉站日常出問題,唔好淨係睇報錯文字。
要睇佢暴露咗邊一層。
呢度最值得睇實嘅係兩個信號。
第一,模型能力突然唔穩定。
如果同一個模型名,朝早處理到複雜代碼,夜晚連工具調用都亂曬,呢啲唔似正常波動,似係路由換咗。
第二,站長永遠用「上游問題」解釋一切。
真正直連官方或自持穩定渠道嘅服務商,至少講到係邊類錯誤:餘額不足、RPM 限流、TPM 限流、模型維護、賬號封禁、協議轉換失敗。淨係話「上游炸咗」,多數說明佢自己都唔知上游係邊個。

07
靠譜中轉站似網關多啲,唔似倒賣攤位
合規嘅 AI Gateway 同灰色中轉站,表面都俾一個 API 地址。
分別在於運營目標。
靠譜網關心嘅係:權限、成本、可觀測、故障切換、日誌邊界、協議兼容。
灰色中轉關心嘅係:低價、引流、充值、上游套利、盡量唔好俾人封。
呢兩樣嘢睇落都用得,但唔係同一樣嘢。

我嘅判斷好簡單:中轉站如果講得清調用路徑、講得清日誌邊界、講得清故障歸因,佢就有機會變成基礎設施;
如果佢淨係將「低價 Claude」四個字寫到好大,佢大概率只係將人哋嘅唔確定性轉賣畀我。
AI 時代最貴嘅唔係 Token。
係我將工作現場交出去之後,仲以為自己只係慳咗幾蚊。
當然,我自己冇做過中轉站,講得唔啱嘅,仲請各位評論區指教~
參考資料
[1] OpenClaw 淘金熱,邊個發達緊? — https://finance.sina.com.cn/wm/2026-03-11/doc-inhqrfcr5593259.shtml
[2] AI 中轉站黑話大全整理 — https://www.v2ex.com/t/1196011
[3] AI 中轉站嘅底褲,剝畀你睇 — https://www.v2ex.com/t/1200135
[4] New API 項目說明 — https://github.com/QuantumNous/new-api
[5] LiteLLM 項目說明 — https://github.com/BerriAI/litellm
[6] Anthropic Streaming Messages — https://docs.anthropic.com/claude/reference/messages-streaming
[7] OpenAI Streaming Responses — https://platform.openai.com/docs/guides/streaming-responses
2026 年 3 月,深潮 TechFlow 寫 OpenClaw 淘金熱時提到一件事:倒賣 Token API 的中轉站,有人單月盈利上百萬。

這個數字不一定代表行業平均水平。
但它解釋了一個現象:為什麼最近到處都是「低價 Claude」「滿血模型」「國內直連」。
我這幾天把調研了一遍,先說結論:AI 中轉站賺錢,靠的不是模型能力。
它賺的是三筆錢:訪問門檻的錢、額度管理的錢、以及信息不透明的錢。
真正值得講清楚的也不是「怎麼搭站」。那東西一寫就容易變成灰色教程,沒意思。
我更關心另一個問題:我在客戶端裏輸入一句提示詞,最後到底是不是去了 Anthropic 的 Claude 真實服務器?
中間經過了幾層?
返回時又經過了誰的手?
這條路徑說不清,低價就沒有意義。

01
中轉站賣的不是模型,是入口
官方 API 對國內很多用戶有四個門檻:網絡、支付、賬號、協議。中轉站把這四個問題包起來,給一個 base_url 和一個 sk-xxx,用戶在 Cursor、Claude Code、Chatbox 或自己的腳本里一填,就能跑。
說白了就是把麻煩藏起來。
這裏面第一筆錢來自支付和站內匯率。用戶用人民幣充值,後台用虛擬美元計價,甚至出現「1 元人民幣 = 1 美刀額度」,也就是說,所謂「刀」往往不是銀行匯率意義上的美元,而是站內額度單位。
第二筆錢來自額度池。輕度用戶充了 100 元,只用了 10 元就停了;重度用戶把 Claude Code 接到項目裏跑一晚上,站長再靠限速、排隊、換上游去扛。
第三筆錢來自模型和渠道的不透明。
用戶買的是「我能用上 Claude」這個結果,但很少能驗證背後到底是哪條通道。

02
一次提示詞請求,先過的是中轉站自己的賬本
先把一條正常請求拆開。
我在客戶端輸入:
客戶端不會直接去 Anthropic。
它會把請求發到中轉站提供的地址,比如:
第一層是接入層。可能是 Cloudflare、Nginx、APISIX 或其他網關,負責擋掉異常流量,保持長連接,處理跨域和超時。
第二層是鑑權層。中轉站會查這個 sk-relay-user-key 屬於誰,餘額還有多少,用戶在哪個分組,能不能調用這個模型。
第三層是計費預估。系統會粗略估算輸入 Token 數,檢查餘額,必要時先凍結一部分額度。
到這裏,請求還沒碰到 Claude。
很多人以為中轉站就是一個反向代理:進來、轉發、回來。
實際不是。
一個能賺錢的中轉站,前半段最重要的是賬本、分組和限流。
因為用戶不會平均地用模型。有人一天問兩句,有人把 AI 編程工具接到真實項目裏連續跑。站長賺不賺錢,先看能不能識別這種用量差異。
03
真正分叉在路由層
請求通過賬本之後,會進入路由層。
這一步決定了錢從哪裏來,也決定了風險從哪裏來。
我把它拆成三種模式。
第一種是最乾淨的。
中轉站自己持有 Anthropic、OpenAI、Azure、AWS Bedrock 等官方或準官方渠道的 Key。用戶請求進來後,中轉站把用戶 Key 換成自己的官方 Key,再把請求轉發到真實 API。
New API 和 LiteLLM 這類項目,做的就是這類網關能力:多模型接入、協議轉換、路由、計費、失敗重試、成本統計。
這個模式不是天然有問題。
很多企業內部也會自建 AI Gateway,把 OpenAI、Claude、Gemini 統一到一個入口,方便做權限、成本和審計。
問題在於,企業自用網關的目標是可控,中轉站的目標通常是便宜和可售賣。
這兩個目標會衝突。
第二種是訂閲賬號池逆向。
站長買很多 Claude Pro、Max 或其他訂閲賬號,再用自動化腳本登錄網頁或客戶端,把用戶的提示詞塞進去,等網頁返回結果,再抓出來包裝成 API 響應。
用戶以為自己在調 API,其實後面可能是瀏覽器自動化、客戶端逆向、Cookie 池、代理 IP 池。
這裏有個坑:網頁和客戶端不是為 API 服務設計的。
它們有自己的系統提示詞、頻率限制、風控策略和會話狀態。中轉站硬把它包裝成 API,就會出現奇怪的問題:同樣的提示詞今天能跑,明天 403;短問題能回答,長上下文突然斷;Claude Code 的 tool use 表現不穩定。
這不是用戶寫錯了。
這是中轉站把非 API 通道偽裝成了 API。
第三種是小中轉接大中轉。
我以為自己買的是某個中轉站,實際上它後面又接了另一箇中轉站。它自己沒有官方 Key,也沒有穩定賬號池,只是拿別人的接口再包裝一層。
這類站最大的特點是解釋不了故障。
用戶問為什麼 429,它說上游限流;問為什麼模型不對,它說上游兜底;問為什麼扣費異常,它說上游計費延遲。
聽起來都合理,但沒有任何可驗證信息。
這就是我最不喜歡的一類。
因為它不只是便宜不便宜的問題,而是責任邊界消失了。
04
返回路徑更敏感,因為中轉站看得見內容
請求到了真實模型服務器,Claude 或 OpenAI 開始生成內容。
如果是流式輸出,官方會通過 SSE 返回一段一段事件。
Anthropic 的官方文檔寫得很清楚,創建 Message 時設置 "stream": true,就會通過 Server-Sent Events 增量返回;OpenAI 的 Responses API 也是類似機制。
這解釋了為什麼客戶端裏會一個字一個字出來。
但中轉站在中間,所以返回也不是「官方直接回到用戶」。
真實路徑大概是:
這裏最敏感的是日誌。
中轉站理論上可以看到用戶發出的 prompt,也可以看到模型返回的 response。
它可以選擇只記錄用量、狀態碼、耗時、Token 數,也可以把完整對話存下來。
我以前覺得「我又不寫什麼機密,怕什麼」。
後來我想了一下,如果我把整個項目目錄交給 AI 編程工具,中轉站拿到的就不是一句聊天,而是一部分工作現場。
這件事性質就變了。
用戶在 Claude Code 裏跑項目時,提示詞裏可能包含 .env、客戶數據、源碼、數據庫結構、內部文檔。
哪怕我自己做了 .gitignore,也不代表 AI 工具不會在上下文裏帶出敏感片段。
中轉站不是單純網絡代理。
它是能讀到內容的中間人。
所以這裏就有最離譜的賺錢方式:把信息賣給廠商。有些大量免費用 xx 模型的中轉站,可能就是了。
05
常見故障,其實是在暴露上游結構
中轉站日常出問題,不要只看報錯文本。
要看它暴露了哪一層。
這裏最值得盯的是兩個信號。
第一,模型能力突然不穩定。
如果同一個模型名,上午能處理複雜代碼,晚上連工具調用都亂掉,這不像正常波動,更像路由換了。
第二,站長永遠用「上游問題」解釋一切。
真正直連官方或自持穩定渠道的服務商,至少能告訴我是哪類錯誤:餘額不足、RPM 限流、TPM 限流、模型維護、賬號封禁、協議轉換失敗。只會說「上游炸了」,多半說明它自己也不知道上游是誰。

07
靠譜中轉站更像網關,不像倒賣攤位
合規的 AI Gateway 和灰色中轉站,表面都給一個 API 地址。
區別在運營目標。
靠譜網關關心的是:權限、成本、可觀測、故障切換、日誌邊界、協議兼容。
灰色中轉關心的是:低價、引流、充值、上游套利、儘量別被封。
這兩個東西看起來都能用,但不是一個物種。

我的判斷很簡單:中轉站如果能把調用路徑講清楚,把日誌邊界講清楚,把故障歸因講清楚,它就有機會變成基礎設施;
如果它只能把「低價 Claude」四個字寫得很大,它大概率只是把別人的不確定性轉賣給我。
AI 時代最貴的不是 Token。
是我把工作現場交出去之後,還以為自己只是省了幾塊錢。
當然,我自己沒有做過中轉站,說得不對的,還請各位評論區指教~
參考資料
[1] OpenClaw 淘金熱,誰在暴富? — https://finance.sina.com.cn/wm/2026-03-11/doc-inhqrfcr5593259.shtml
[2] AI 中轉站黑話大全整理 — https://www.v2ex.com/t/1196011
[3] AI 中轉站的底褲,扒給你看 — https://www.v2ex.com/t/1200135
[4] New API 項目說明 — https://github.com/QuantumNous/new-api
[5] LiteLLM 項目說明 — https://github.com/BerriAI/litellm
[6] Anthropic Streaming Messages — https://docs.anthropic.com/claude/reference/messages-streaming
[7] OpenAI Streaming Responses — https://platform.openai.com/docs/guides/streaming-responses