月入百萬的 AI中轉站,錢到底從哪來?

作者:餅乾哥哥AGI
日期:2026年4月26日 下午12:19
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

AI中轉站賺的是入口、額度同不透明度嘅錢,真係抵用要靠路徑透明

整理版摘要

呢篇文章由深潮 TechFlow 嘅報導引伸,作者自己調研咗 AI 中轉站嘅運作模式,想解答一個核心問題:月入百萬嘅中轉站,錢到底從邊度嚟?作者結論係,中轉站唔係靠模型能力賺錢,而係賺三筆錢:訪問門檻嘅錢、額度管理嘅錢、同信息不透明嘅錢。

文章唔係教人點樣搭站,而係從用戶角度拆解一次提示詞請求嘅完整路徑——從客戶端出發,經過接入層、鑑權層、計費層、路由層,再到真實模型服務器,最後返回。作者比較咗三種上游模式:官方 API Key 轉發、訂閲賬號池逆向、小中轉接大中轉,指出每種模式嘅風險同侷限。

最後,作者提出一個重要判斷:真正靠譜嘅中轉站應該似網關,能夠講清楚調用路徑、日誌邊界同故障歸因;如果淨係掛住平,就可能只係將別人不確定性轉賣俾用戶。用戶將工作現場(源碼、內部文檔)交出去嘅時候,要諗清楚背後有冇私隱風險。

  • AI中轉站賺嘅係入口、額度管理同信息不透明,唔係模型能力。
  • 一次提示詞請求會經過接入層、鑑權層、計費層、路由層,先至去到真實模型。
  • 三種上游模式:官方 Key 轉發(最乾淨但成本高)、訂閲賬號池逆向(易封號)、小中轉接大中轉(責任邊界消失)。
  • 返回路徑中,中轉站理論上可以睇曬用戶嘅 prompt 同 response,存在私隱洩漏風險。
  • 靠譜中轉站應該似網關,講得清路徑、日誌邊界同故障歸因;淨係話「上游炸咗」嘅大多唔可靠。
值得記低
連結 finance.sina.com.cn

OpenClaw 淘金熱,誰在暴富?

引發作者關注嘅原始報導

連結 github.com

New API 項目

常見嘅中轉站開源網關項目

連結 github.com

LiteLLM 項目

另一個常見嘅中轉站開源網關

連結 docs.anthropic.com

Anthropic Streaming Messages 文檔

官方流式輸出機制說明

整理重點

中轉站賣嘅唔係模型,係入口

官方 API 對國內用戶有四個門檻:網絡、支付、賬號、協議。中轉站將呢啲麻煩包裝成一個 base_url 同一個 sk-xxx,用戶喺 CursorClaude Code 呢類工具一填就用得。

第一筆錢嚟自支付同匯率——用戶用人民幣充值,後台用虛擬美元計價,甚至出現「1元人民幣=1美刀額度」嘅玩法。第二筆錢嚟自額度池:輕度用戶充咗100蚊只用10蚊,重度用戶跑一晚,站長靠限速、排隊、換上游去扛。第三筆錢嚟自模型同渠道不透明——用戶好少驗證背後係邊條通道。

整理重點

一次提示詞請求嘅完整路徑

客戶端輸入 prompt 後,唔會直接去 Anthropic,而係先到中轉站。第一層係接入層(CloudflareNginx 等),負責擋異常流量同保持長連接。第二層係鑑權層,查用戶 Key、餘額、分組同模型權限。第三層係計費預估,凍結一部分額度。

到呢度,請求仲未碰到 Claude。一個能賺錢嘅中轉站,前半段最重要係賬本、分組同限流,因為用戶用量唔平均——有人一日問兩句,有人將 AI 編程工具接到真實項目連續跑。

  1. 1 官方 API Key 轉發:中轉站自己持有 AnthropicOpenAIAzure 等真實 Key,轉發到真實 API。最乾淨,但成本高,價格難離譜。
  2. 2 訂閲賬號池逆向:買大量 Claude Pro/ Max 賬號,用腳本包裝成 API。易封號、限流、協議唔穩定,Claude Code tool use 會怪。
  3. 3 小中轉接大中轉:自己冇 Key 冇賬號,只係再包裝另一間中轉站。最大問題係責任邊界消失——解釋唔到故障。
整理重點

返回路徑最敏感:中轉站睇得見內容

請求去到真實模型後,流式輸出經 SSE 返回。但中間經過中轉站嘅格式轉換、日誌同計費,最終先到用戶客戶端。最敏感嘅係日誌——中轉站理論上可以記錄曬 prompt 同 response。

如果用戶用 AI 編程工具跑項目,prompt 入面可能包含 .env、客戶數據、源碼、數據庫結構、內部文檔。中轉站唔係單純網絡代理,而係能讀到內容嘅中間人。作者提到最離譜嘅賺錢方式:將信息賣俾廠商,尤其係大量免費用 xx 模型嘅中轉站。

整理重點

常見故障暴露上游結構

中轉站日常出問題,唔好淨係睇報錯文本,要睇佢暴露咗邊一層。例如:經常 401/Key invalid 可能係鑑權層或上游 Key 被封;經常 429/rate limit 反映上游額度池唔夠;高峯期排隊耐,可能站長用低成本池子對賭輕度用戶;Claude Code tool use 異常 多數係協議轉換層未適配好。

最值得留意兩個信號:第一,模型能力突然唔穩定(同一模型名上晝得夜晚唔得),似路由換咗;第二,站長永遠用「上游問題」解釋一切——真正直連官方嘅至少講到係 RPM 限流、TPM 限流定係賬號封禁。只會話「上游炸咗」,多半佢自己都唔知上游係邊個。

  • 模型能力突然不穩定 -> 可能路由換咗
  • 永遠用上游問題解釋 -> 自身冇可驗證信息
整理重點

靠譜中轉站似網閘,唔係倒賣攤位

合規 AI Gateway 同灰色中轉站表面都畀一個 API 地址,但運營目標唔同。網關關心權限、成本、可觀測、故障切換、日誌邊界;灰色中轉關心低價、引流、充值、上游套利。

作者判斷:如果中轉站能夠講清楚調用路徑、日誌邊界、故障歸因,就有機會變成基礎設施;淨係將「低價 Claude」寫得好大,就只係將別人不確定性轉賣俾用戶。

2026 年 3 月,深潮 TechFlow 寫 OpenClaw 淘金熱時提到一件事:倒賣 Token API 嘅中轉站,有人單月盈利上百萬。

圖片

呢個數字唔一定代表行業平均水平。

但佢解釋咗一個現象:點解最近周圍都係「低價 Claude」「滿血模型」「國內直連」。

我呢幾日做咗個調研,先講結論:AI 中轉站賺錢,靠嘅唔係模型能力。

佢賺嘅係三筆錢:訪問門檻嘅錢、額度管理嘅錢、同埋信息唔透明嘅錢。

真正值得講清楚嘅唔係「點樣搭站」。嗰啲嘢一寫就容易變成灰色教程,冇意思。

我更關心另一個問題:我喺客戶端裏面輸入一句提示詞,最後到底係咪去咗 Anthropic 嘅 Claude 真實服務器?

中間經過咗幾層?

返嚟嘅時候又經過咗邊個嘅手?

呢條路徑講唔清楚,低價就冇意義。

圖片

01

中轉站賣嘅唔係模型,係入口

官方 API 對國內好多用戶有四個門檻:網絡、支付、賬號、協議。中轉站將呢四個問題包起,俾一個 base_url 和一個 sk-xxx,用戶喺 Cursor、Claude Code、Chatbox 或者自己嘅腳本度一填,就搞得掂。

講白咗就係將麻煩收埋。

呢度第一筆錢嚟自支付同站內匯率。用戶用人民幣充值,後台用虛擬美元計價,甚至出現「1 元人民幣 = 1 美刀額度」,即係話,所謂「刀」往往唔係銀行匯率意義上嘅美元,而係站內額度單位。

第二筆錢嚟自額度池。輕度用戶充咗 100 元,只用咗 10 元就停咗;重度用戶將 Claude Code 接到項目度跑一晚,站長再靠限速、排隊、換上游去頂。

第三筆錢嚟自模型同渠道嘅唔透明。

用戶買嘅係「我可以用到 Claude」呢個結果,但好少能夠驗證背後到底係邊條通道。

中轉站利潤不是來自模型本身,而是來自入口、額度和不透明路由
中轉站利潤唔係嚟自模型本身,而係嚟自入口、額度同唔透明路由

02

一次提示詞請求,先過嘅係中轉站自己嘅賬本


先將一條正常請求拆開。

我喺客戶端輸入:

json
{
  "model": "claude-sonnet-4-5",
  "messages": [
    { "role": "user", "content": "幫我分析這段代碼的問題" }
  ],
  "stream": true
}

客戶端唔會直接去 Anthropic。

佢會將請求發到中轉站提供嘅地址,例如:

bash
POST https://api.example-relay.com/v1/chat/completions
Authorization: Bearer sk-relay-user-key

第一層係接入層。可能係 Cloudflare、Nginx、APISIX 或者其他網關,負責擋走異常流量,保持長連接,處理跨域同超時。

第二層係鑑權層。中轉站會查呢個 sk-relay-user-key 屬於邊個,餘額仲有幾多,用戶喺邊個分組,可唔可以調用呢個模型。

第三層係計費預估。系統會粗略估算輸入 Token 數,檢查餘額,有需要時先凍結一部分額度。

到呢度,請求仲未碰到 Claude。

好多人以為中轉站就係一個反向代理:入嚟、轉發、返出去。

實際唔係。

一個賺到錢嘅中轉站,前半段最重要嘅係賬本、分組同限流。

因為用戶唔會平均咁用模型。有人一日問兩句,有人將 AI 編程工具接到真實項目度連續跑。站長賺唔賺錢,首先要睇能唔能夠識別呢種用量差異。從用戶提示詞到 Claude 真實服務器的請求路徑

從用戶提示詞到 Claude 真實服務器嘅請求路徑


03

真正分叉喺路由層


請求通過賬本之後,會進入路由層。

呢一步決定咗錢從邊度嚟,亦決定咗風險從邊度嚟。

我將佢拆成三種模式。

模式
背後係乜
平嘅原因
主要風險
官方 API Key 轉發
Anthropic、OpenAI、Azure、AWS Bedrock 等真實 API
批量採購、匯率、統一計費
成本高,價格好難低得離譜
訂閲賬號池逆向
網頁或客戶端訂閲賬號,俾腳本包裝成 API
訂閲額度俾多人共享
易封號、限流、協議唔穩定
細中轉接大中轉
自己冇穩定上游,再接人哋接口
再包裝賺差價
故障冇得解釋,責任邊界消失


第一種係最乾淨嘅。

中轉站自己持有 Anthropic、OpenAI、Azure、AWS Bedrock 等官方或準官方渠道嘅 Key。用戶請求入嚟之後,中轉站將用戶 Key 換成自己嘅官方 Key,再將請求轉發到真實 API。

New API 同 LiteLLM 呢類項目,做嘅就係呢類網關能力:多模型接入、協議轉換、路由、計費、失敗重試、成本統計。

呢個模式唔係天然有問題。

好多企業內部都會自建 AI Gateway,將 OpenAI、Claude、Gemini 統一成一個入口,方便做權限、成本同審計。

問題在於,企業自用網關嘅目標係可控,中轉站嘅目標通常係平同可以賣。

呢兩個目標會衝突。

第二種係訂閲賬號池逆向。

站長買好多 Claude Pro、Max 或其他訂閲賬號,再用自動化腳本登入網頁或客戶端,將用戶嘅提示詞塞入去,等網頁返結果,再抽返出嚟包裝成 API 響應。

用戶以為自己喺度調 API,其實後面可能係瀏覽器自動化、客戶端逆向、Cookie 池、代理 IP 池。

呢度有個陷阱:網頁同客戶端唔係為 API 服務設計嘅。

佢哋自己有系統提示詞、頻率限制、風控策略同會話狀態。中轉站硬將佢包裝成 API,就會出現奇怪嘅問題:同樣嘅提示詞今日跑得到,聽日 403;短問題答得到,長上下文突然斷;Claude Code 嘅 tool use 表現唔穩定。

呢個唔係用戶寫錯。

係中轉站將非 API 通道扮成 API。

第三種係細中轉接大中轉。

我以為自己買嘅係某個中轉站,實際上佢後面又接咗另一個中轉站。佢自己冇官方 Key,亦冇穩定賬號池,只係拎人哋嘅接口再包一層。

呢類站最大嘅特點係解釋唔到故障。

用戶問點解 429,佢話上游限流;問點解模型唔啱,佢話上游兜底;問點解釦費異常,佢話上游計費延遲。

聽落都合理,但冇任何可驗證嘅信息。

呢個就係我最唔鍾意嘅一類。

因為佢唔只係平唔平嘅問題,而係責任邊界消失咗。三種上遊模式的成本、穩定性和風險對比

三種上游模式嘅成本、穩定性同風險對比


04

返回路徑更敏感,因為中轉站睇得到內容


請求到咗真實模型服務器,Claude 或 OpenAI 開始生成內容。

如果係流式輸出,官方會經 SSE 返一段段事件。

Anthropic 嘅官方文檔寫得好清楚,創建 Message 時設置 "stream": true,就會經 Server-Sent Events 增量返;OpenAI 嘅 Responses API 都係類似機制。

呢個解釋咗點解客戶端裏面會一個字一個字咁出。

但中轉站喺中間,所以返回都唔係「官方直接返畀用戶」。

真實路徑大約係:

text
官方模型服務器
→ 中轉站上游連接
→ 中轉站格式轉換和日誌
→ 中轉站計費結算
→ 用戶客戶端

呢度最敏感嘅係日誌。

中轉站理論上睇到用戶發出嘅 prompt,亦睇到模型返嘅 response。

佢可以選擇只紀錄用量、狀態碼、需時、Token 數,亦可以將完整對話儲起。

我以前覺得「我又唔寫乜嘢機密,怕乜」。

後來我諗咗一下,如果我將成個項目目錄交畀 AI 編程工具,中轉站攞到嘅就唔係一句聊天,而係一部分工作現場。

呢件事性質就唔同咗。

用戶喺 Claude Code 度跑項目時,提示詞裏面可能包含 .env、客戶數據、源碼、數據庫結構、內部文檔。

就算我自己做咗 .gitignore,都唔代表 AI 工具唔會喺上下文裏面帶出敏感片段。

中轉站唔係單純網絡代理。

佢係讀得到內容嘅中間人。

所以呢度就有最離譜嘅賺錢方式:將信息賣畀廠商。有啲大量免費用 xx 模型嘅中轉站,可能就係噉。

05

常見故障,其實係暴露緊上游結構


中轉站日常出問題,唔好淨係睇報錯文字。

要睇佢暴露咗邊一層。

現象
可能位置
暴露嘅問題
成日 401 / Key invalid
鑑權層或上游 Key
用戶 Key 管理混亂,或真實 Key 被封
成日 429 / rate limit
上游額度池
官方 Key 額度不足,或訂閲賬號池被打爆
高峯時段排隊好耐
路由同賬號池
站長用低成本池子對賭輕度用戶
Claude Code tool use 異常
協議轉換層
OpenAI 格式硬轉 Claude 格式,細節冇適配
模型自稱同面板唔一致
路由層或提示詞層
可能被降級,或被系統提示詞冒充
輸出風格突然變咗
上游渠道切換
真實模型可能換咗,或中間被加咗系統提示詞
長上下文突然截斷
網關或上游限制
上下文上限、請求體大小或流式轉發有問題
扣費同用量對唔上
計費層
Token 估算、緩存計費或倍率配置有問題


呢度最值得睇實嘅係兩個信號。

第一,模型能力突然唔穩定。

如果同一個模型名,朝早處理到複雜代碼,夜晚連工具調用都亂曬,呢啲唔似正常波動,似係路由換咗。

第二,站長永遠用「上游問題」解釋一切。

真正直連官方或自持穩定渠道嘅服務商,至少講到係邊類錯誤:餘額不足、RPM 限流、TPM 限流、模型維護、賬號封禁、協議轉換失敗。淨係話「上游炸咗」,多數說明佢自己都唔知上游係邊個。

用故障信號反推問題發生在哪一層
用故障信號反推問題發生喺邊一層


07

靠譜中轉站似網關多啲,唔似倒賣攤位


合規嘅 AI Gateway 同灰色中轉站,表面都俾一個 API 地址。

分別在於運營目標。

靠譜網關心嘅係:權限、成本、可觀測、故障切換、日誌邊界、協議兼容。

灰色中轉關心嘅係:低價、引流、充值、上游套利、盡量唔好俾人封。

呢兩樣嘢睇落都用得,但唔係同一樣嘢。

圖片

我嘅判斷好簡單:中轉站如果講得清調用路徑、講得清日誌邊界、講得清故障歸因,佢就有機會變成基礎設施;

如果佢淨係將「低價 Claude」四個字寫到好大,佢大概率只係將人哋嘅唔確定性轉賣畀我。

AI 時代最貴嘅唔係 Token。

係我將工作現場交出去之後,仲以為自己只係慳咗幾蚊。

當然,我自己冇做過中轉站,講得唔啱嘅,仲請各位評論區指教~

參考資料

[1] OpenClaw 淘金熱,邊個發達緊? — https://finance.sina.com.cn/wm/2026-03-11/doc-inhqrfcr5593259.shtml

[2] AI 中轉站黑話大全整理 — https://www.v2ex.com/t/1196011

[3] AI 中轉站嘅底褲,剝畀你睇 — https://www.v2ex.com/t/1200135

[4] New API 項目說明 — https://github.com/QuantumNous/new-api

[5] LiteLLM 項目說明 — https://github.com/BerriAI/litellm

[6] Anthropic Streaming Messages — https://docs.anthropic.com/claude/reference/messages-streaming

[7] OpenAI Streaming Responses — https://platform.openai.com/docs/guides/streaming-responses


2026 年 3 月,深潮 TechFlow 寫 OpenClaw 淘金熱時提到一件事:倒賣 Token API 的中轉站,有人單月盈利上百萬。

圖片

這個數字不一定代表行業平均水平。

但它解釋了一個現象:為什麼最近到處都是「低價 Claude」「滿血模型」「國內直連」。

我這幾天把調研了一遍,先說結論:AI 中轉站賺錢,靠的不是模型能力。

它賺的是三筆錢:訪問門檻的錢、額度管理的錢、以及信息不透明的錢。

真正值得講清楚的也不是「怎麼搭站」。那東西一寫就容易變成灰色教程,沒意思。

我更關心另一個問題:我在客戶端裏輸入一句提示詞,最後到底是不是去了 Anthropic 的 Claude 真實服務器?

中間經過了幾層?

返回時又經過了誰的手?

這條路徑說不清,低價就沒有意義。

圖片

01

中轉站賣的不是模型,是入口

官方 API 對國內很多用戶有四個門檻:網絡、支付、賬號、協議。中轉站把這四個問題包起來,給一個 base_url 和一個 sk-xxx,用戶在 Cursor、Claude Code、Chatbox 或自己的腳本里一填,就能跑。

說白了就是把麻煩藏起來。

這裏面第一筆錢來自支付和站內匯率。用戶用人民幣充值,後台用虛擬美元計價,甚至出現「1 元人民幣 = 1 美刀額度」,也就是說,所謂「刀」往往不是銀行匯率意義上的美元,而是站內額度單位。

第二筆錢來自額度池。輕度用戶充了 100 元,只用了 10 元就停了;重度用戶把 Claude Code 接到項目裏跑一晚上,站長再靠限速、排隊、換上游去扛。

第三筆錢來自模型和渠道的不透明。

用戶買的是「我能用上 Claude」這個結果,但很少能驗證背後到底是哪條通道。

中轉站利潤不是來自模型本身,而是來自入口、額度和不透明路由
中轉站利潤不是來自模型本身,而是來自入口、額度和不透明路由

02

一次提示詞請求,先過的是中轉站自己的賬本


先把一條正常請求拆開。

我在客戶端輸入:

json
{
  "model": "claude-sonnet-4-5",
  "messages": [
    { "role": "user", "content": "幫我分析這段代碼的問題" }
  ],
  "stream": true
}

客戶端不會直接去 Anthropic。

它會把請求發到中轉站提供的地址,比如:

bash
POST https://api.example-relay.com/v1/chat/completions
Authorization: Bearer sk-relay-user-key

第一層是接入層。可能是 Cloudflare、Nginx、APISIX 或其他網關,負責擋掉異常流量,保持長連接,處理跨域和超時。

第二層是鑑權層。中轉站會查這個 sk-relay-user-key 屬於誰,餘額還有多少,用戶在哪個分組,能不能調用這個模型。

第三層是計費預估。系統會粗略估算輸入 Token 數,檢查餘額,必要時先凍結一部分額度。

到這裏,請求還沒碰到 Claude。

很多人以為中轉站就是一個反向代理:進來、轉發、回來。

實際不是。

一個能賺錢的中轉站,前半段最重要的是賬本、分組和限流。

因為用戶不會平均地用模型。有人一天問兩句,有人把 AI 編程工具接到真實項目裏連續跑。站長賺不賺錢,先看能不能識別這種用量差異。從用戶提示詞到 Claude 真實服務器的請求路徑

從用戶提示詞到 Claude 真實服務器的請求路徑


03

真正分叉在路由層


請求通過賬本之後,會進入路由層。

這一步決定了錢從哪裏來,也決定了風險從哪裏來。

我把它拆成三種模式。

模式
背後是什麼
便宜原因
主要風險
官方 API Key 轉發
Anthropic、OpenAI、Azure、AWS Bedrock 等真實 API
批量採購、匯率、統一計費
成本高,價格很難離譜低
訂閲賬號池逆向
網頁或客戶端訂閲賬號,被腳本包裝成 API
訂閲額度被多人共享
易封號、限流、協議不穩定
小中轉接大中轉
自己不持有穩定上游,再接別人接口
再包裝賺差價
故障不可解釋,責任邊界消失


第一種是最乾淨的。

中轉站自己持有 Anthropic、OpenAI、Azure、AWS Bedrock 等官方或準官方渠道的 Key。用戶請求進來後,中轉站把用戶 Key 換成自己的官方 Key,再把請求轉發到真實 API。

New API 和 LiteLLM 這類項目,做的就是這類網關能力:多模型接入、協議轉換、路由、計費、失敗重試、成本統計。

這個模式不是天然有問題。

很多企業內部也會自建 AI Gateway,把 OpenAI、Claude、Gemini 統一到一個入口,方便做權限、成本和審計。

問題在於,企業自用網關的目標是可控,中轉站的目標通常是便宜和可售賣。

這兩個目標會衝突。

第二種是訂閲賬號池逆向。

站長買很多 Claude Pro、Max 或其他訂閲賬號,再用自動化腳本登錄網頁或客戶端,把用戶的提示詞塞進去,等網頁返回結果,再抓出來包裝成 API 響應。

用戶以為自己在調 API,其實後面可能是瀏覽器自動化、客戶端逆向、Cookie 池、代理 IP 池。

這裏有個坑:網頁和客戶端不是為 API 服務設計的。

它們有自己的系統提示詞、頻率限制、風控策略和會話狀態。中轉站硬把它包裝成 API,就會出現奇怪的問題:同樣的提示詞今天能跑,明天 403;短問題能回答,長上下文突然斷;Claude Code 的 tool use 表現不穩定。

這不是用戶寫錯了。

這是中轉站把非 API 通道偽裝成了 API。

第三種是小中轉接大中轉。

我以為自己買的是某個中轉站,實際上它後面又接了另一箇中轉站。它自己沒有官方 Key,也沒有穩定賬號池,只是拿別人的接口再包裝一層。

這類站最大的特點是解釋不了故障。

用戶問為什麼 429,它說上游限流;問為什麼模型不對,它說上游兜底;問為什麼扣費異常,它說上游計費延遲。

聽起來都合理,但沒有任何可驗證信息。

這就是我最不喜歡的一類。

因為它不只是便宜不便宜的問題,而是責任邊界消失了。三種上遊模式的成本、穩定性和風險對比

三種上遊模式的成本、穩定性和風險對比


04

返回路徑更敏感,因為中轉站看得見內容


請求到了真實模型服務器,Claude 或 OpenAI 開始生成內容。

如果是流式輸出,官方會通過 SSE 返回一段一段事件。

Anthropic 的官方文檔寫得很清楚,創建 Message 時設置 "stream": true,就會通過 Server-Sent Events 增量返回;OpenAI 的 Responses API 也是類似機制。

這解釋了為什麼客戶端裏會一個字一個字出來。

但中轉站在中間,所以返回也不是「官方直接回到用戶」。

真實路徑大概是:

text
官方模型服務器
→ 中轉站上游連接
→ 中轉站格式轉換和日誌
→ 中轉站計費結算
→ 用戶客戶端

這裏最敏感的是日誌。

中轉站理論上可以看到用戶發出的 prompt,也可以看到模型返回的 response。

它可以選擇只記錄用量、狀態碼、耗時、Token 數,也可以把完整對話存下來。

我以前覺得「我又不寫什麼機密,怕什麼」。

後來我想了一下,如果我把整個項目目錄交給 AI 編程工具,中轉站拿到的就不是一句聊天,而是一部分工作現場。

這件事性質就變了。

用戶在 Claude Code 裏跑項目時,提示詞裏可能包含 .env、客戶數據、源碼、數據庫結構、內部文檔。

哪怕我自己做了 .gitignore,也不代表 AI 工具不會在上下文裏帶出敏感片段。

中轉站不是單純網絡代理。

它是能讀到內容的中間人。

所以這裏就有最離譜的賺錢方式:把信息賣給廠商。有些大量免費用 xx 模型的中轉站,可能就是了。

05

常見故障,其實是在暴露上游結構


中轉站日常出問題,不要只看報錯文本。

要看它暴露了哪一層。

現象
可能位置
暴露的問題
經常 401 / Key invalid
鑑權層或上游 Key
用戶 Key 管理混亂,或真實 Key 被封
經常 429 / rate limit
上游額度池
官方 Key 額度不足,或訂閲賬號池被打滿
高峯期排隊很久
路由和賬號池
站長用低成本池子對賭輕度用戶
Claude Code tool use 異常
協議轉換層
OpenAI 格式硬轉 Claude 格式,細節沒適配
模型自稱和麪板不一致
路由層或提示詞層
可能被降級,或被系統提示詞偽裝
輸出風格突然變化
上游渠道切換
真實模型可能換了,或中間被加了系統提示詞
長上下文突然截斷
網關或上游限制
上下文上限、請求體大小或流式轉發有問題
扣費和用量對不上
計費層
Token 估算、緩存計費或倍率配置有問題


這裏最值得盯的是兩個信號。

第一,模型能力突然不穩定。

如果同一個模型名,上午能處理複雜代碼,晚上連工具調用都亂掉,這不像正常波動,更像路由換了。

第二,站長永遠用「上游問題」解釋一切。

真正直連官方或自持穩定渠道的服務商,至少能告訴我是哪類錯誤:餘額不足、RPM 限流、TPM 限流、模型維護、賬號封禁、協議轉換失敗。只會說「上游炸了」,多半說明它自己也不知道上游是誰。

用故障信號反推問題發生在哪一層
用故障信號反推問題發生在哪一層


07

靠譜中轉站更像網關,不像倒賣攤位


合規的 AI Gateway 和灰色中轉站,表面都給一個 API 地址。

區別在運營目標。

靠譜網關關心的是:權限、成本、可觀測、故障切換、日誌邊界、協議兼容。

灰色中轉關心的是:低價、引流、充值、上游套利、儘量別被封。

這兩個東西看起來都能用,但不是一個物種。

圖片

我的判斷很簡單:中轉站如果能把調用路徑講清楚,把日誌邊界講清楚,把故障歸因講清楚,它就有機會變成基礎設施;

如果它只能把「低價 Claude」四個字寫得很大,它大概率只是把別人的不確定性轉賣給我。

AI 時代最貴的不是 Token。

是我把工作現場交出去之後,還以為自己只是省了幾塊錢。

當然,我自己沒有做過中轉站,說得不對的,還請各位評論區指教~

參考資料

[1] OpenClaw 淘金熱,誰在暴富? — https://finance.sina.com.cn/wm/2026-03-11/doc-inhqrfcr5593259.shtml

[2] AI 中轉站黑話大全整理 — https://www.v2ex.com/t/1196011

[3] AI 中轉站的底褲,扒給你看 — https://www.v2ex.com/t/1200135

[4] New API 項目說明 — https://github.com/QuantumNous/new-api

[5] LiteLLM 項目說明 — https://github.com/BerriAI/litellm

[6] Anthropic Streaming Messages — https://docs.anthropic.com/claude/reference/messages-streaming

[7] OpenAI Streaming Responses — https://platform.openai.com/docs/guides/streaming-responses