AI 的經濟賬根本算不通

作者:寶玉AI
日期:2026年4月28日 下午11:05
來源:WeChat 原文

整理版優先睇

速讀 5 個重點 高亮

AI 月費訂閲的經濟賬根本算唔通,用戶遲早要面對真實成本

整理版摘要

作者 Ed Zitron 原文探討 GitHub Copilot 轉向按用量計費嘅事件,指出呢個唔係孤立個案,而係整個生成式 AI 行業嘅結構性問題。佢認為月費訂閲模式根本唔適合基於 LLM 嘅服務,因為每個用戶實際消耗嘅 token 成本可以差好遠,公司一直靠補貼嚟吸引用戶,但呢個模式無可能持續。

文章用 Uber 做比喻,話如果 Uber 每月收 20 美元就俾你任坐,但油錢由佢俾,最後佢實要改收費。而家 AI 公司就係咁,用戶習慣咗低價無限用,一旦改按 token 收費,就會發現真實成本高到離譜。作者仲分析咗 AI 數據中心嘅經濟模型,指出佢哋建造成本極高,但主要客戶係唔賺錢嘅 AI 初創,一旦佢哋冇錢找數,就會爆煲。

整體結論係:生成式 AI 嘅經濟基礎好脆弱,用戶同投資者都被補貼誤導,以為呢項技術好有價值,但其實佢嘅真實成本遠超想像,最終只會迎來大規模調整甚至崩潰。

  • GitHub Copilot 由 2026 年 6 月起按用量計費,結束補貼模式,反映用戶每月消耗嘅 token 成本遠超訂閲費。
  • 月費訂閲唔適合 LLM 服務,因為每個用戶嘅 token 消耗可以差好遠,成本波動大,公司根本無法控制。
  • AI 公司刻意隱藏真實成本,用補貼養成用戶習慣,一旦轉按 token 計費,用戶會發現自己根本負擔唔起。
  • AI 數據中心嘅經濟模型一樣唔合理,建造成本幾十億美元,但客戶多數係唔賺錢嘅初創,風險極高。
  • 整個生成式 AI 行業嘅經濟賬算唔通,最終必然會爆煲,用戶同投資者都係受害者。
整理重點

GitHub Copilot 改為按用量計費

GitHub Copilot 宣佈由 2026 年 6 月 1 日起,所有計劃改為按用量計費。以前用戶每月俾固定錢就可以用一定數量嘅請求,而家會根據實際用嘅 token 收費。微軟話呢個係「邁向可持續業務嘅重要一步」,即係承認之前補貼得太勁,頂唔順。

從 2026 年 6 月 1 日起,所有 GitHub Copilot 計劃都將改為按用量計費

以前每月 19 美元嘅套餐,而家只係俾你同等價值嘅 token

整理重點

月費訂閲根本唔合理

作者用一個 Uber 嘅比喻解釋點解月費訂閲唔適合 LLM:想像 Uber 每月收你 20 美元,然後俾你任坐 100 次車,油錢由 Uber 俾。最後 Uber 一定會改為收月費再加按汽油量收費。AI 公司就係咁,用戶用緊嘅服務其實係燒緊大量 token,但公司用補貼嚟隱藏真實成本。

  • 月費訂閲只適合成本穩定嘅業務,例如 Google Workspace 或健身室,因為每個用戶嘅使用量唔會太大變化。
  • LLM 服務嘅成本可以劇烈波動:一個用戶可能只係問幾個問題,另一個用戶可能塞入成個 codebase 重構,token 消耗差天共地。
  • 公司為咗控制成本,會限制上下文窗口、推用戶去較差嘅模型,但用戶根本唔知道自己用咗幾多 token,每次改限都令人好睏擾。

Anthropic 曾允許用戶每花 1 美元訂閲費,就燒掉超過 8 美元嘅計算成本

生成式 AI 服務嘅經濟核心已經壞咗,月費訂閲從來都唔合理

LLM 容易產生幻覺,如果你係按 token 付費,每一次失敗都係真金白銀

整理重點

數據中心經濟賬都算唔通

作者詳細分析咗 AI 數據中心嘅成本結構。一個 100MW 嘅數據中心,初始 IT 設備同建設成本約 44 億美元,每年折舊同營運成本加埋要成 8.37 億美元,但即使 100% 滿租,毛利率得 16.7%。如果係借錢起,利息同還款會令毛利率變負數。

  1. 1 一個 100MW 數據中心每年收入約 10.6 億美元,但折舊同營運成本已達 8.37 億美元,毛利率 16.7%。
  2. 2 如果借錢起,利息同還款令毛利率變負 40%,即係蝕錢做。
  3. 3 Stargate Abilene 總共 1.2GW,目前只有 200MW 投入運行,其餘延誤。
  4. 4 OpenAI 要喺 2030 年底前實現 6,730 億美元收入,先至可以支持到呢啲數據中心,但呢個目標荒謬到極。

作者指出,AI 算力嘅客戶主要係唔賺錢嘅初創公司,例如 OpenAIAnthropic。如果佢哋冇錢找數,整個供應鏈就會爆煲。目前在建嘅 15.2GW 數據中心需要每年 1,568 億美元收入先至有意義,但最大嘅新雲廠商 CoreWeave 預測 2026 年收入都只係 120 億美元,完全對唔上。

AI 算力收入嘅大部分依賴風險投資同債務嘅持續流入

如果 OpenAI 無法付款,Oracle 就死咗

任何重複 OpenAI 預計收入數字而唔話佢荒唐嘅記者都應該慚愧

整理重點

整個行業不可持續

作者總結話,生成式 AI 嘅經濟模型本質上係欺騙。月費訂閲歪曲咗真實嘅單位經濟,令用戶同投資者以為呢項技術好有價值。但其實成本嘅上升速度只會愈嚟愈快,而 AI 公司並冇真正嘅盈利路徑。

訂閲制 AI 服務係一種近乎欺詐嘅欺騙行為

生成式 AI 唔盈利、不可持續,而且只會愈嚟愈貴

用戶每支付 1 美元訂閲費,就燒掉 8 到 13.5 美元嘅 token 成本

AnthropicOpenAI 嘅利潤率低過預期,成本仲喺度飆升

作者:Ed Zitron
原文:AI's Economics Don't Make Sense[1]


昨天早上,GitHub Copilot 用戶終於得到了一個確認:我一週前報道過的那件事[2]成真了——從 2026 年 6 月 1 日起,所有 GitHub Copilot 計劃都將改為按用量計費(usage-based pricing)[3]

以前,微軟會給用戶一定數量的“請求(requests)[4]”。現在,它要根據用戶實際使用模型的成本來收費。微軟把這稱為“……朝着一個可持續、可靠、面向所有用戶的 Copilot 業務和體驗邁出的重要一步”。換句話說,用戶每月訂閲 GitHub Copilot 花多少錢,就得到等值的 token(詞元,token)額度,比如每月 19 美元的套餐,就給你 19 美元的 token。

翻譯一下:“我們不能再繼續補貼 GitHub Copilot 用戶的算力了,否則 Amy Hood 會拿棒球棍開始揍人。

不管怎樣,這份公告本身很有意思。它提前展示了這些漲價將會被包裝成什麼樣:

Copilot 已經不是一年前的那個產品了。

它已經從編輯器裏的助手,演變成了一個智能體式平台(agentic platform)。它能運行長時間、多步驟的編程會話,使用最新模型,並在整個代碼庫中反覆迭代。智能體式使用正在成為默認方式,而這會帶來明顯更高的計算和推理(inference)需求。

今天,一個快速的聊天問題,和一次持續數小時的自主編程會話,可能讓用戶付出同樣的價格。GitHub 一直承擔了這類使用背後不斷攀升的推理成本,但目前的高級請求模式已經不可持續。

按用量計費可以解決這個問題。它能讓定價更好地對應實際使用情況,幫助我們維持長期服務可靠性,也減少我們限制重度用戶的必要。

你看,問題並不是“微軟一直在補貼將近 200 萬人的計算成本”,而是“AI 已經變得太強、太 powerful、太複雜了,所以它基本上已經是另一個產品了!

也許 Copilot 的確已經不是“……一年前的那個產品”,但底層的經濟錯配並沒有發生太大變化:微軟連續 三年 允許用戶每個月燒掉超過訂閲費本身的 token 成本。根據 《華爾街日報》2023 年 10 月的報道[5]

個人用戶每月為這款 AI 助手支付 10 美元。今年最初幾個月,該公司平均每位用戶每月虧損超過 20 美元。一位熟悉相關數字的人士說,有些用戶每月給公司造成的成本高達 80 美元。

圖片

很自然,GitHub Copilot 用戶正在反抗[6]。他們說這個產品已經“死了”,已經“徹底毀了”。

而我兩年前就在《次貸式 AI 危機》(Subprime AI Crisis)裏預言過這一點[7]

我假設一種次貸式 AI 危機正在醖釀:幾乎整個科技行業都買進了一項以極低折扣出售的技術,而這項技術高度集中,並由大型科技公司大量補貼。總有一天,生成式 AI(Generative AI)那驚人且有毒的燒錢速度會追上它們。結果就是漲價,或者公司推出新產品和新功能時附帶極其苛刻的費率——比如 Salesforce 的“Agentforce”產品那種離譜的每次對話 2 美元收費[8]——最後連那些預算充足、最忠誠的企業客戶也無法證明這筆支出是合理的。

如今,這一天終於到了。因為你使用的每一項 AI 服務都在補貼算力[9],也因為每一項服務都因此在虧錢:

當你付費使用一家 AI 創業公司的服務時——當然,這也包括 OpenAI 和 Anthropic——你通常是按月付費,比如 Anthropic 的 Claude 有 20 美元、100 美元或 200 美元/月的計劃[10],Perplexity 有 20 美元或 200 美元/月的計劃[11],OpenAI 則有 8 美元、20 美元或 200 美元/月的訂閲[12]。在一些企業使用場景中,你會拿到用於完成某些工作單位的“點數(credits)”。比如 Lovable 的 25 美元/月訂閲給用戶“每月 100 點”[13],還附帶 25 美元(截至 2026 年第一季度末)的雲託管額度,未用完的點數還能跨月滾存。

當你使用這些服務時,相關公司就要為你調用的 AI 模型付錢。它們要麼按每百萬 token 的價格向某個 AI 實驗室付費,要麼——像 Anthropic 和 OpenAI 那樣——向出租 GPU 運行模型的雲服務商付費。一個 token 大約相當於 3/4 個單詞。

作為用戶,你感受到的不是 token 的燃燒,而只是輸入和輸出的過程。AI 實驗室用“token”“消息”或者 5 小時速率限制加百分比進度條來掩蓋服務成本。你作為用戶,並不知道這些東西到底值多少錢。而在後台,AI 創業公司正在瘋狂燒錢,直到最近之前都是如此。

Anthropic 曾允許你每花 1 美元訂閲費,就燒掉超過 8 美元的計算成本[14]。OpenAI 也允許類似的事情發生,只是很難衡量具體比例。

AI 創業公司和超大規模雲服務商(hyperscalers)曾以為,只要用補貼過的虧錢產品把足夠多的人拉進門,讓他們深度依賴這些服務,等公司大幅漲價時,用戶就不會離開。我想,它們還以為 token 成本會隨時間下降。但現實恰恰相反:雖然_某些_模型的價格可能下降了,新的“推理模型(reasoning models)”卻會燒掉更多 token,這意味着推理成本不知怎麼地反而隨着時間變高了[15]

這兩個假設都是錯的。因為對於任何接入大語言模型(Large Language Model,LLM)的服務來說,按月訂閲模式_根本不合理_。

生成式 AI 的核心經濟賬已經壞了

可以這樣想。當 Uber(不,這件事一點也不像 Uber[16])開始提高打車價格時,它的底層經濟結構並沒有改變,呈現給乘客和司機的結構也沒有變:用戶為一次乘車付錢,司機為一次接單獲得報酬。司機仍然要支付油費、車險、地方政府可能要求的各種許可證費用,以及車輛融資相關成本;這些成本並沒有由 Uber 補貼。Uber 的鉅額虧損來自補貼、無休止的營銷支出,以及在無人駕駛汽車等方向上註定失敗的研發投入。

生成式 AI 訂閲和 Uber 完全不是一回事

為了說明 AI 定價錯配的規模,我想讓你想象另一個歷史版本:在那個世界裏,Uber 的商業模式完全不同。

生成式 AI 訂閲就像 Uber 每月向用戶收 20 美元,然後允許用戶坐 100 次車,只要每次不超過 100 英里都行;與此同時,汽油價格是每加侖 150 美元,而且油錢由 Uber 來付,因為有人堅持認為總有一天石油會便宜到不值得計量[17]

最終,Uber 會決定開始向用戶收取一個月費,讓他們獲得叫車資格,然後再按他們消耗的汽油收費。突然之間,用戶從每月 20 美元坐 100 次車,變成了先付 20 美元才能接觸到司機,再為一次 10 英里的車程支付 26 美元。可以理解,用戶會有點不爽。

圖片

這聽起來有點誇張,但其實相當準確地描述了生成式 AI 行業正在發生的事,尤其是 GitHub Copilot 正在發生的事。

GitHub Copilot 之前的定價允許用戶每月使用 300 次高級請求,同時還可以使用 GPT-5 mini 之類的模型發送“無限聊天請求”。每一次請求,用微軟自己的話說,就是“……你要求 Copilot 為你做某事的任何互動”。在請求制生命週期的後期,更昂貴的模型會消耗更多請求額度[18],比如 Claude Opus 4.6 會消耗 3 次高級請求。當你用完高級請求後,Copilot 會允許你在當月剩餘時間裏隨便使用那些更便宜的模型。

而且這甚至還不是一開始的情況。直到 2025 年 5 月之前[19],微軟都在給用戶無限制使用模型的權限。即便後來只是開始加一點限制,用戶也已經非常憤怒[20],因為他們不接受這個產品有_任何_限制。

微軟——就像每一家 AI 公司一樣——用一個不可持續的服務騙了自己的客戶。因為用月費訂閲來銷售由 LLM 驅動的服務,從來、從來就沒有合理過

如果你想知道按 token 計費後服務可能會有多貴,GitHub Copilot Subreddit 上有位用戶[21]發現,過去一次高級請求的 token 消耗大約價值 11 美元。原因是一次“請求”可能會在上下文窗口(context window)裏使用 60,000 個 token,調用幾個工具,並經歷一堆內部“輪次(turns)”——也就是模型為了生成結果在後台做的那些步驟。

這裏還存在一個更底層的問題:大語言模型很容易產生幻覺(hallucination)。當一次高級請求原地打轉、吐出一堆半壞不壞的代碼時,這當然很煩。但如果你是自己為這次失敗買單,這種失誤就沒那麼容易原諒了。

用戶也已經被訓練成用一種完全不同於 token 計費的方式來使用產品。我想,很多人根本沒有真正意識到自己會燒掉多少“token”,也不知道某個具體任務需要多少 token。而這個數字還會根據你使用的模型不同而變化。

這_絕對不是 Uber 那套邏輯_。任何告訴你兩者相同的人,都是在為糟糕行為找藉口。Uber 可能漲過價,但它並不需要徹底改變平台的底層經濟結構,用戶也不需要因為 Uber 突然按每加侖汽油計費,就完全改變自己使用產品的方式。

AI 月費訂閲全都是 AI 補貼騙局的一部分:它們故意把生成式 AI 和真實成本切開

如果不按每個用戶_實際燒掉的 token_ 來收費,基於 LLM 的服務從來就沒有、也永遠不會有經濟上可行的提供方式。而這些公司在欺騙用戶的過程中,創造出了一批收益虛幻、投資回報可疑的產品。

這一點其實_多年來都明擺着_。

從經濟學上講,月費訂閲只適用於成本相對穩定的業務。健身房可以賣會員,因為它大致知道器材會有多少磨損,課程運行成本是多少,以及一定時間內電費、人工、水費等開銷大概是多少。

Google Workspace 的客戶——至少在 AI 進入之前——成本主要來自訪問或存儲文檔的成本,以及 Google Docs 和其他服務的持續運行成本。數字存儲成本相對低,而且不像 LLM,Google Workspace 對計算資源的需求並不特別高。所以即便某個 Google Drive 用戶特別重度使用,也不太可能吃掉其月費訂閲的利潤率。

但 AI 訂閲用戶的成本可能_劇烈波動_。一個用戶可能只是偶爾用 ChatGPT 搜索一下;另一個用戶可能塞進大批文檔,或者嘗試重構整個代碼庫,或者讓它幫自己做 PowerPoint 演示文稿。而服務提供方——無論是 OpenAI 或 Anthropic 這樣的模型實驗室,還是 Cursor 這樣的創業公司——除了讓產品變差之外,幾乎沒有真正辦法控制用戶會怎麼用。比如設置使用上限、縮小上下文窗口、把用戶推向更小也更差的模型,或者改變價格來嚇退那些會發起大量消耗 GPU 請求的用戶。

可是,這些服務有意隱藏 token 數量,也隱藏某項活動到底花了多少錢。結果就是,用戶並不真正知道速率限制意味着什麼。於是每一次突然調整速率限制[22],都會讓客戶手忙腳亂地試圖弄清楚自己到底還能用這項服務完成多少實際工作。

這是一種虐待式、操縱式、欺騙式的做生意方式。它存在的唯一原因,就是 Anthropic、OpenAI 和其他 AI 公司要擴大用戶基數。因為大多數 AI 用戶感受到的真實或想象中的收益,都建立在這樣一個前提上:他們每支付 1 美元訂閲費,就能燒掉8 到 13.50 美元不等的 token[14]

圖片

這種有意的欺騙只有一個目標:確保大多數人永遠不會接觸到生成式 AI 的真實成本。當 《大西洋月刊》激情洋溢地把 Claude Code 描述成 Anthropic 的“ChatGPT 時刻”[23]時,它討論的是一個每月 20 美元的訂閲,而不是 Anthropic 為提供這項服務在底層實際燒掉的 token 成本。也正因為如此,作者才會原諒模型犯下的“輕微錯誤”,或者原諒它在“更復雜的編程任務上卡住”。

如果那位作者支付的是自己真實燒掉的 token 成本,而且每次模型“卡住”都會帶來 15 美元的 token 賬單,我不認為她會對這些失敗如此寬容。

但這正是騙局的一部分。

非常、非常重要的一點是:主流媒體中寫 AI 的人絕不能真正理解這些服務的成本。任何關於 ChatGPT 或 Claude Code 這類服務的主流文章,都最好由那些幾乎不知道單個任務會讓用戶花多少錢的人來寫。

請記住:生成式 AI 服務在很大程度上是實驗性產品。它們不像任何其他現代軟件或硬件那樣運行。你不能只是走到 ChatGPT 或 Claude 面前,就讓它開始為你幹活。

我的意思是,你_當然可以_這麼做。但如果你的提示詞寫得不對,不理解它的工作方式,輸入材料有錯誤,或者它自己就是弄錯了,它就會吐出你不滿意的結果。然後你又得重新提示它。LLM 本質上不可預測。

你無法保證某個 LLM 一定會執行某個動作,也無法保證它會給出基於現實的結果。你無法確定某個任務——哪怕是你過去用 LLM 做過很多次的任務——到底會花多少錢。你也無法確定模型什麼時候會突然發瘋並刪除某些東西,或者根本沒做某件事卻聲稱自己做了。

如果你不是按 token 付費,這些問題會更容易被原諒。因為在訂閲用戶心裏,這只是和聊天機器人多來一兩輪,而不是正在產生真實成本。人們也不會太嚴厲地批評所謂的“鋸齒狀智能(jagged intelligence)”——(指 AI 在某些任務上表現驚人,在另一些看似簡單的任務上卻莫名失敗,能力邊界很不平滑)——因為大家默認你現在遇到的問題未來總會被解決,而且反正你也沒有為失敗額外付錢。

如果用戶一開始就必須按真實費率付費,我想很多人會立刻放棄這個產品。因為當你只是胡亂探索 LLM 能做什麼時,非常非常容易就燒掉 5 美元的 token。

旁註:事實上,你可能花掉一大筆錢,卻始終得不到想要的結果,因為 LLM 根本不是真正意義上的人工智能!一個並不瞭解其侷限的人,很容易花掉 30 美元、50 美元,甚至 100 美元,去試圖說服一個 LLM 做某件它_堅稱_自己能做的事。

這裏有個術語:諂媚(sycophancy)。LLM 常常被設計成會肯定用戶,哪怕用戶在

說一些危險而失控的話[24]。這種傾向也可能延伸到這種場景:“你想要這個巨大到技術上或財務上都一點也不可行的東西?”沒問題!

這就是為什麼整個行業如此努力地掩蓋這些成本——因為這他媽就是在宰人!

我認為,大多數 AI 訂閲服務轉向按 token 計費是不可避免的。尤其是 Anthropic[25] 和 OpenAI 現在都已經對企業客戶這麼做了。

微軟把 GitHub Copilot 訂閲用戶改成按 token 計費,同樣是一個非常、非常糟糕的信號。微軟可以說是資本最充足、利潤最高、也最有條件繼續補貼算力的公司。如果連它都負擔不起繼續補貼,那麼其他公司也負擔不起。

真正需要關注的信號——一匹真正的蒼白之馬[26]——會是 Anthropic 或 OpenAI 這樣的主要 AI 實驗室,把_所有_訂閲用戶都轉向按 token 計費。(“蒼白之馬”暗指《啓示錄》中象徵死亡的馬,這裏指災難性轉折信號。)一旦那件事發生,你就會知道:打烊時間到了。

普通公司負擔得起按 token 計費嗎?Anthropic 估計 Claude Code 用戶每天花 13 到 30 美元,每年 7,000 美元以上;大型組織每年會花幾十萬甚至幾百萬美元

正如我上週討論過的,Uber 的 CTO 在一次會議上說,公司在幾個月內就花完了 2026 年的全部 AI 預算[27]。高盛也指出,有些公司在 AI token 上的支出,已經高達其人力成本的 10%,並且可能在接下來幾個季度升至 100%

這是訓練每個 AI 用戶儘可能多地使用這些服務、同時掩蓋真實成本的直接結果。每一家要求所有員工“儘可能多用 AI”的大公司,要麼從根本上忽視了自己的真實 token 消耗,要麼與這件事完全脱節。而當公司被迫支付_實際成本_時,我不確定你還能如何從經濟上證明對這項技術的_任何_投資是合理的。

當然,當然,你會說工程師“交付代碼更快”之類的屁話,我懂。但問題是:到底快了多少?因此你賺了多少錢,或者省了多少錢? 如果你把相當於人力成本 10% 的錢花在 AI token 上,你是否在其他地方獲得了抵消這筆額外支出的收益?我不確定你有。我也不確定_任何_一家把鉅額資金投入 token 的企業,看到了_任何_投資回報。這也就是為什麼每一項[28]關於 AI 投資回報率的研究[29],都很難找到它存在的證據。

大體上,你讀到的那些對生成式 AI 的各種可能性興奮到失態的人,都沒有支付過它的真實成本。每一個在 Twitter 上長篇大論,說自己整個工程團隊都在猛敲 Claude Code 的瘋子,用的都是每人每月 125 美元的 Teams 訂閲[30],其使用限制和 Anthropic 每月 100 美元的消費者訂閲相近。每一個在 LinkedIn 上像怪物一樣宣稱自己用某個 Perplexity 產品“幾分鐘完成了幾個小時工作”的人,最多也只是為 Perplexity 的 Max 訂閲每月支付 200 美元。

現實中,一個 10 人團隊、每月 1,250 美元的 Teams 訂閲,很可能每月在 API 調用上燒掉 5,000 到 10,000 美元,甚至更多。Anthropic 增長負責人 Amol Avasare 上週說,其 Max 訂閲本來是為重度聊天使用而設計的[31],並不是為人們用 Claude Code 和 Cowork 做的那些事情設計的。他還明確表示,Anthropic 現在正在尋找“不同選項,以繼續提供優秀體驗[32]”。換句話說,就是“我們遲早要改價格”。

我不確定人們是否意識到這些 token 有多貴,尤其是涉及大型代碼庫、並且經常調用編程工具和基礎設施工具的編碼項目。一個每月支付 200 美元的人,能預見性地承擔 350、400 或 500 美元嗎?他們能承受某個月花得_比這還多_嗎?如果他們超預算了怎麼辦?如果他們真的付不起完成工作所必需的錢,又怎麼辦?

舉個更實際的例子。直到 4 月初,Anthropic 自家的 Claude Code 開發者文檔(存檔[33])還寫着:“Claude Code 用戶的平均成本是每位開發者每天 6 美元,90% 用戶的每日成本低於 12 美元。”截至本週,文檔已經改成了這樣[34]

Claude Code 按 API token 消耗量收費。訂閲計劃價格(Pro、Max、Team、Enterprise)請見 claude.com/pricing。每位開發者的成本差異很大,取決於模型選擇、代碼庫大小,以及使用模式,比如運行多個實例或自動化流程。

在企業部署中,平均成本約為每位開發者每個活躍日 13 美元,每位開發者每月 150 到 250 美元;90% 用戶每個活躍日成本低於 30 美元。若要估算自己團隊的支出,請先從小規模試點小組開始,並使用下面的跟蹤工具建立基線,再進行更廣泛部署。

如果我們假設一個月平均有 21 個工作日,那麼 Claude Code 用戶的平均成本約為每月 273 美元,或每年 3,276 美元。如果按每個工作日 30 美元計算,就是每月 630 美元,或每年 7,560 美元。

這些數字_驚人_,更驚人的是:如果你使用 Anthropic 最近的任何模型,你根本不可能只花每天 30 美元。Claude Opus 4.7 的價格是每百萬輸入 token 5 美元、每百萬輸出 token 25 美元。“100 萬 token 大約等於 50,000 行代碼[35]”。如果你使用所謂最先進的模型,你不可能不跑過_至少_100 萬 token;如果你並不特別清楚某項任務該用哪個模型,這個數字還會大幅上升。

我們再拿每天 30 美元這個數字多算幾下。

  • • 對一個 10 人開發團隊來說,這就是每年 75,600 美元,而且我們只算工作日。
  • • 如果僅僅三個月的平均費用升到每個工作日 50 美元,總額就會變成 88,200 美元。
  • • 如果再有一個月每天超過 100 美元,你一年就要花 102,900 美元。
  • • 如果你每天花 300 美元,那麼一個 10 人團隊一年在 token 上就要花 756,000 美元。
圖片

在資金充裕的創業公司那種“小金庫心態”裏,或者像 Meta 這樣的香蕉共和國裏,這也許還能發生。但任何真正關心成本的企業,都會非常難以證明:為一個“提高生產力”的服務多花五位數或六位數成本是合理的,而這種生產力提升又似乎沒人能衡量。

現在我認為大多數公司分成三類:


  • • 像 Spotify 或 Uber 這樣的大型組織,企業部署規模巨大,CEO 已經被 AI 洗腦,允許預算失控。
    • • 我也會說,大型、資金充裕的創業公司也屬於這一類。
  • • 使用有補貼的“Teams”訂閲的小型創業公司。
  • • 每月付費使用 Claude 或其他 AI 訂閲的個人用戶。

大型組織現在仍然可以拿到一張免罪牌,說自己在 AI token 上為軟件工程師燒掉幾百萬美元,並把理由包裝成它們“最優秀的工程師”不再寫一行代碼[36]這樣可疑的好處。

但只要一次糟糕的財報電話會議,這個敍事就會改變。某個時候,投資者——哪怕是那些一直把 AI 泡沫吹起來的沒腦子的蠢貨——也會開始質疑不斷上升的研發成本(AI token 消耗通常就藏在這裏),尤其當公司的收入增長跟不上時。這可能會導致更多裁員,以趕上成本,就像 Meta 的情況[37]一樣。然後,當有人問出“這些玩意兒到底有沒有讓我們更快或更好地完成工作?”時,最終就會出現收縮。

我還認為,那些在 AI token 上燒掉相當於人力成本 10% 甚至更多的創業公司,六個月後會很難說服投資者:這麼做是必要的。

一旦所有人都切換到按 token 計費,我不確定我們還能看到圍繞生成式 AI 的這麼多炒作。

AI 數據中心和算力的經濟賬也算不通

人們談論 AI 數據中心的方式,已經完全脱離現實。我不認為他們意識到整個時代已經荒唐到什麼程度。

AI 數據中心建起來很貴,運行起來也很貴,但實際收入很少

根據 TD Cowen 的 Jerome Darling 的說法,每兆瓦數據中心容量需要約 3,000 萬美元的關鍵 IT 設備(GPU 及相關硬件),以及 1,400 萬美元的數據中心容量成本。數據中心看起來需要一年到三年不等才能建成,具體取決於規模,而且前提是電力供應可用。

在據稱到 2028 年底要建成的 114GW 數據中心中,只有 15.2GW 處於某種形式的建設狀態[38]。而“在建”可以只是“地上挖了個坑”。這絕不意味着、也不應該意味着該設施即將提供的容量馬上就能上線。

側欄:如果你對這裏更深入的數學感興趣,請訂閲我的付費通訊,這樣你就能看到我的 “混蛋數據中心模型”[39]。這個模型是在多位分析師和超大規模雲服務商消息源協助下建立的。

我們先從簡單的開始:以後每當你想到“100MW”,就把它理解成“44 億美元”,其中相當大一部分會花在 NVIDIA GPU 上。

結果就是,每個 AI 數據中心一開始就揹着數百萬美元的坑。即便採用 6 年折舊(depreciation)週期,也需要_很多年_才能回本。而且由於 NVIDIA 的年度升級週期[40],等你完成第一份客戶合同後,那些 GPU 很可能已經賺不了多少錢了。

目前還不清楚,除了 OpenAI 和 Anthropic 之外,AI 算力是否真的存在足夠大的客戶羣。OpenAI 和 Anthropic 的需求佔在建 AI 數據中心的 50%[41]。如果其中任何一家沒有錢付款,就會形成巨大的系統性弱點。

無論如何,這些數據中心的持續收費標準也並不清楚。雖然 B200 GPU 的現貨價格可能在每小時 4.50 美元左右,但長期合同通常價格低得多。根據 The Information[42] 的報道,一位創始人說他們為期一年的承諾,價格約為每 GPU 每小時 3.70 美元。

必須說清楚的是,我們_必須_區分_現貨_成本和合同算力。現貨成本指的是你隨機在別人服務器上啓動 GPU 的價格;合同算力則構成了大多數數據中心資本開支(capex)。大多數數據中心都是為了擁有_一兩個大客戶_而建設的,這意味着這些客戶很可能會談到更低的綜合價格。

結果是,很多數據中心每小時拿到的錢遠低於 3.70 美元,因為它們按每兆瓦(或千瓦)收費。

而經濟賬就是從這裏開始崩的。

圖片

一個 100MW 數據中心壞掉的經濟賬:每小時 2.55 美元、滿租時毛利率 16%,但由於債務仍然不賺錢

這是一個 100 兆瓦數據中心的起始成本。一個 100MW 數據中心可能只有 85MW 的實際_可計費設備負載_。根據我與熟悉超大規模雲服務商計費的人士的討論,它們每兆瓦預計能帶來約 1,250 萬美元收入,也就是約 10.63 億美元年收入。

我要說明一點:你知道的大多數數據中心公司其實並不親自建設數據中心,而是把這項工作交給 Applied Digital 這樣的公司,它們也被稱為“主機託管合作方(colocation partners)”。例如,CoreWeave 向 Applied Digital 支付託管費,以使用其北達科他州的數據中心[43]。CoreWeave 則負責數據中心內部所有 GPU 和其他技術設備。

為了說明這種經濟錯配,我會用一個_理論上的_例子:一個數據中心租給一家_理論上的_ AI 算力公司。

這個數據中心裏的 GPU 很可能是 NVIDIA 的 Blackwell 芯片。更可能的是,該數據中心使用的是由 8 塊 B200 GPU 組成的 pod,每個 pod 零售價約為 45 萬美元,也就是每塊 GPU 56,250 美元。假設有 85MW 關鍵 IT 負載,每兆瓦的全包資本開支約為 3,678 萬美元,總 IT 資本開支約為 31.26 億美元,其中約 26.7 億美元花在 GPU 上。

我們假設這個數據中心位於北達科他州 Ellendale。那裏的工業電價約為每千瓦時 6.31 美分,摺合一年電費約 5,540 萬美元。根據與消息源的討論,我估計維護、人力、電源供應更換等持續成本約佔收入的 12%,也就是每年約 1.28 億美元。這樣成本就到了 1.834 億美元。

等等,抱歉。你還得基於關鍵 IT 負載支付主機託管費。根據 Brightlio 的說法,這項費用通常是每千瓦每月 180 到 200 美元[44],具體取決於部署規模和地點;不過我也見過低至 130 美元的價格,這裏就用 130 美元計算,也就是每年約 1.33 億美元。於是總成本上升到 3.164 億美元。

好吧,這還是低於 10.6 億美元,所以我們還不錯,對吧?

錯!你還有 31.26 億美元的 IT 設備需要折舊。按照 6 年折舊算,每年約 5.21 億美元。這樣每年總成本就是 8.374 億美元,剩下約 1.686 億美元年利潤,也就是約 16.7% 的毛利率(gross margin)……

……前提是你始終 100% 滿租! 你看,數據中心可能需要一兩個月才能把 GPU 裝進去並讓客戶上線。在這段時間裏,你一分錢收入都沒有,卻還要虧掉更多錢,因為你得繼續支付託管、電費和運營成本,只是電費和託管/運營成本會以較低比例計算(我模型裏按 10% 電費、15% 託管/運營成本估算)。這意味着你每天要虧約 327 萬美元。

為了這個例子,我們假設你額外花了一個月才讓它開始運行。這意味着你已經支付了約 1.02 億美元,且永遠拿不回來。把這筆錢算進第一年總成本和折舊後,總成本達到 9.394 億美元,毛利率只剩 6.6%。

等等,見鬼,你該不會是借錢買這些 GPU 的吧?你還真借了? 這有多糟?哦_天哪_——你拿的是一筆 6 年期資產抵押貸款(asset-backed loan),貸款價值比(loan-to-value ratio,LTV)為 80%。也就是說,你以 6% 利率借了 28 億美元。

你的銀行以它永恆的慷慨給了你一個方案:12 個月寬限期,只付利息……這意味着利息約為 1.68 億美元。這會把第一年總成本(為了公平起見,不算那一個月延遲)推到約 10.05 億美元,而你的收入是 10.6 億美元。

毛利率只有 5.19%,而你甚至還沒開始還本金。一旦開始還本金,你每月要支付 5,410 萬美元貸款,總計接下來五年每年約 6.49 億美元。這會把成本推到約 14.8 億美元,也就是毛利率約為負 40%。

而我必須強調:這一切的前提,是你有 100% 利用率和一個永遠準時付款的租户。

圖片

Stargate Abilene 是一場災難:每 GPU 每小時 2.94 美元、年收入 100 億美元、進度落後數年,而且只有一個每年虧掉幾十億美元的租户

我們來談談本該是數據中心史上經濟上最可行的項目:一個為世界上最大的 AI 公司建設的大型園區,由 Oracle 這樣一家有幾十年歷史、接近超大規模雲服務商的公司來建。Oracle 過去一直向企業和政府銷售昂貴的數據庫與企業管理軟件。

哈哈,當然我是開玩笑的。這個地方就是一場該死的噩夢。

Stargate Abilene 是一個由 8 棟樓組成、總規模 1.2GW、關鍵 IT 負載約 824MW 的數據中心園區,最早在 2024 年 7 月宣佈[45]。截至 2026 年 4 月 27 日,只有兩棟樓已經運營併產生收入,第三棟樓裏幾乎還沒有多少 IT 設備。我估計 Stargate Abilene 的總成本約為 528 億美元。

根據我自己的報道[46],Oracle 預計 Stargate Abilene 每年會帶來約 100 億美元收入。我還估計,它為單一客戶 OpenAI 建設的 7.1GW 數據中心容量,總收入約為 750 億美元。正如我也報道過的,Oracle 在 2024 年估計,Abilene 每年僅託管和電費就至少需要 21.4 億美元,這筆錢要支付給土地開發商 Crusoe。

我還要補充一點:看起來 Oracle 正在支付 Abilene 的全部建設成本。

根據我的計算和報道,我估計 Abilene 完全運營後的粗略毛利率約為 37.47%:

圖片

我必須說明,這個 37.47% 的毛利率很可能偏高,因為我並不知道 Oracle 真實保險成本或人力成本的精確數字,只能基於本刊看到的文件做估算。我還要說清楚:Oracle 正在把_自己的整個該死未來_押在 Stargate Abilene 這樣的項目上。它前期承擔數十億美元成本,而這個業務即便 OpenAI 每一筆款項都按時支付,也需要多年才能盈利。

遺憾的是,我無法確認 Abilene 有多少是通過債務支付的。我只知道,Oracle 在 2025 年 9 月發行了約 180 億美元的不同規模債券[47],期限從 7 年到 40 年不等,並且在最近一個季度財報中自由現金流為負 247 億美元[48]

我還知道,它與開發商 Crusoe 簽了一份 15 年租約[49]。Oracle 的未來在很大程度上取決於 OpenAI 持續付款的能力,而 OpenAI 持續付款的能力又取決於 Oracle 完成 Stargate Abilene 的能力。

我還需要說清楚:那 38.5 億美元的年利潤,只有在 OpenAI 按時付款、以最快速度接收 Abilene 租用權,並且一切都按計劃進行時才可能實現。

如果 OpenAI 未來 4 年無法通過收入、融資和債務籌到 8,520 億美元,Stargate 數據中心項目會殺死 Oracle

遺憾的是,實際發生的是完全相反的事:

根據 DatacenterDynamics 的報道,第一批 200MW 電力原本計劃“在 2025 年[45]”通電。隨着時間推移,入駐時間被說成是 2025 年上半年[50];又說“有潛力在 2025 年達到 1GW[51]”;還說要在 2026 年中前完成全部 1.2GW 容量[52];再說會在 2026 年中通電[53];還說到 2026 年底會有 64,000 塊 GPU[54]。截至 2025 年 9 月 30 日,報道稱“兩棟樓已上線[55]”。截至 2025 年 12 月 12 日,Oracle 聯席 CEO Clay Magouyurk 說[56],Abilene“按計劃推進”,且“超過 96,000 塊 NVIDIA Grace Blackwell GB200 已交付”,換句話說,也就是兩棟樓所需的 GPU。

四個月後的 2026 年 4 月 22 日,

Oracle 發推稱[57]:“……在 Abilene,200MW 已經投入運行,八棟樓園區的交付仍按計劃進行。”目前不清楚這裏的 200MW 指的是關鍵 IT 容量,還是 Abilene 園區的總可用電力。無論哪種情況,這都只夠兩棟樓用。這意味着 Oracle 絕對稱不上“按計劃”。

這是一個巨大問題。OpenAI 只能為實際存在的算力付款,而現在實際產生收入的關鍵 IT 容量只有 206MW。第三棟樓至少還要一個月,甚至一個季度,才能做到這一點。

圖片

但整個 Stargate 數據中心項目還存在一個更大、更具生死意義的問題:只有當 OpenAI 實現它那荒唐到像漫畫一樣的預測時,這一切才說得通。

正如我上週五討論的[58]

我再重複一遍這些數字:正在推進中的 7.1GW Stargate 數據中心建成後,每年會帶來約 750 億美元收入,總成本超過 3,400 億美元。Oracle 自由現金流為負 247 億美元,其他業務線趨於停滯,使其負利潤率到低利潤率的雲業務成為唯一增長引擎。

為了真正支付其算力合同——包括向 Amazon、Microsoft、CoreWeave、Google、Cerberas 這樣的合作伙伴,以及向 Oracle 支付的合同——OpenAI 必須在四年內通過收入和/或融資籌到或賺到 8,520 億美元。這要求其業務每年增長超過 250%,到 2030 年底基本實現 10 倍增長。而到那時,它還必須找到方法實現現金流轉正(cashflow positive),這些數字才有意義。

說清楚,OpenAI 的預測顯示,它未來四年將實現 6,730 億美元收入,併為此燒掉 2,180 億美元。這是一門極度不盈利的生意。就算它不是,它也必須比現在賺多得多的錢,才能持續支付 Oracle。

我計算 750 億美元這個數字時,是假設 Vera Rubin GPU 每兆瓦算力帶來約 1,400 萬美元收入(這個數字我已與熟悉數據中心行業的消息源確認),並應用到我預計剩餘 Stargate 數據中心中包含的 4.64GW 關鍵 IT 負載上。

OpenAI 的數字直接來自 The Information 報道的 OpenAI 預計燒錢速度和收入泄露數據[59]。這些數據稱,該公司到 2030 年底將實現 6,730 億美元收入,併為此燒掉 8,520 億美元:

圖片
圖片

我必須明確說:任何記者在重複這些數字時,如果不說明它們有多_離譜到犯蠢_,都應該有點羞愧。引用我週五的付費文章:

換句話說,OpenAI 預計兩年後收入會超過 TSMC[60],三年後年收入幾乎和 Meta[61] 一樣多,到 2030 年底,年收入會達到 Microsoft 過去 12 個月約 3,000 億美元[62]的水平。

如果 OpenAI 無法為這些算力付款,Oracle 就_死了_。因為它僅僅為了建設 Stargate 數據中心,就已經承擔了約 1,150 億美元債務[63],而且還需要另外 1,500 億美元才能完成它們:

Oracle 是一家目前年收入約 640 億美元[64]的公司,最近一個季度自由現金流為負 247 億美元。它在 2025 年 9 月發行了 180 億美元債券[65],在 2026 年 2 月發行了 250 億美元債券[66],又在 3 月某個時候完成了一次 200 億美元的市價發行股票計劃[67]。儘管這筆融資幾個月來一直被稱為“已關閉”,它似乎直到最近才完成了用於 Stargate Wisconsin 和 Shackelford 的380 億美元項目融資[68]。我還把與 Stargate Michigan 有關的140 億美元數據中心債務[69]算了進去。

不管怎樣,Oracle 的資本不足以完成 Stargate Abilene。它至少還需要另外 1,500 億美元才能把這件事做完,而且這還是假設其他合作伙伴承擔約 300 億美元成本。老實說,可能還不止這個數。

我真的需要說清楚:如果沒有 OpenAI,Oracle 沒有其他路徑能賺到這些收入。這些項目完全是用數據中心自身預計現金流來融資和支付的。

而且並不是只有我擔心這件事。OpenAI 的 Sarah Friar 在公司未能達到用戶和收入目標後,也表達了類似擔憂。根據 《華爾街日報》[70]的報道:

OpenAI 最近沒有達到自己設定的新用戶和收入目標,這些挫折讓公司一些領導層開始擔心,它是否有能力支撐在數據中心上的鉅額支出。

據熟悉情況的人士稱,首席財務官 Sarah Friar 已經告訴其他公司領導,她擔心如果收入增長不夠快,公司可能無法支付未來的計算合同。

近幾個月,董事會成員也更加仔細地審查公司的數據中心交易,並質疑首席執行官 Sam Altman 在業務放緩的情況下仍努力獲取更多算力的做法。

如果這還不能讓你擔心,也許下面這段可以:

她向高管和董事強調,公司需要改善內部控制,並警告稱,OpenAI 還沒有準備好達到上市公司所要求的嚴格報告標準。一些人士稱,Altman 傾向於更激進的 IPO 時間表。

這聽起來確實像一家能在本十年結束前賺到 8,520 億美元的公司,對吧!

圖片

Anthropic 和 OpenAI 一樣糟糕:承諾從 Google 和 Amazon 獲得最高 10GW 算力,每年收入規模超過 1,000 億美元

雖然我經常抨擊 OpenAI 的荒唐承諾,但 Anthropic 也沒落後太多。它承諾從 Google[71] 和 Amazon[72] 各獲取“最高”5GW 容量。以這個容量規模估算,我認為這些交易包含約 1,000 億美元的實際算力承諾。

當然,我要補充一點:Google 和 Amazon 比 Oracle 精明得多,也沒那麼絕望。這意味着如果 Anthropic 最終沒錢了,它們也能承受衝擊。這些交易裏的“最高”二字,給了它們一些急需的迴旋空間,而 Oracle 根本沒有這種空間。

儘管如此,為了真正履行承諾,Anthropic 到 2030 年底每年必須同意花費 250 億到 1,000 億美元購買算力。

Anthropic 的 CFO 在 3 月說,該公司從成立至今總收入為 50 億美元[73]

為支撐正在建設的 15.2GW AI 數據中心,每年需要 1,568 億美元 AI 算力收入;如果支撐全部已宣佈的 114GW,則需要 1.18 萬億美元

Jensen Huang 經常說 NVIDIA 正在出貨多少幾千億美元的 GPU。圍繞這些數字的近乎色情式興奮,常常遮住了一個棘手問題:這些算力到底賣給_誰_,Jensen?

如果我們假設正在建設、預計到 2028 年底交付的 15.2GW 數據中心容量,其電源使用效率(PUE)約為 1.35,那麼關鍵 IT 負載大約是 11.2GW。按每兆瓦 1,400 萬美元計算,這意味着這些數據中心必須實現約 1,568 億美元的年度 GPU 租賃收入,才真正值得建設。

如果你把理論上到 2028 年底上線的 114GW 容量也算進去,這個數字會飆升到每年 1.18 萬億美元收入。

給你一點背景:CoreWeave 是最大的“新雲廠商(neocloud)”,客戶包括 Meta、OpenAI、Google(服務 OpenAI)、Microsoft(服務 OpenAI)、Anthropic 和 NVIDIA。它營收約為 51 億美元[74],並預計 2026 年收入為 120 億到 130 億美元[75]

圖片

那麼,這麼多算力的客戶到底是誰?等這些容量建成時,他們還想買嗎?很多不同的數據中心聲稱自己在最初幾年已有租户,但這些租户只有在數據中心建成後才開始付款。如果租户是一家 AI 創業公司,我認為有理由問一句:等數據中心建成時,它還存在嗎?

請記住:AI 算力的客戶,大多要麼是試圖把資本開支從資產負債表上轉移出去的超大規模雲服務商,要麼是不盈利的 AI 創業公司。Anthropic 和 OpenAI 都計劃在未來幾年燒掉數百億美元,而且兩者都沒有通往盈利的路徑。

這意味着,AI 算力收入的很大一部分——甚至可能是大多數——依賴於風險投資和債務的持續流入。而這兩者又都只會在投資者仍然相信生成式 AI 會成為世界上最大、最巨大、最無敵的東西時才成立。

這到底怎麼可能成立?誰來為這些數據中心容量付錢?它是為誰建的?真實需求在哪裏?

如果需求真的存在,這些客戶到底拿什麼付錢?

生成式 AI 不盈利、不可持續,而且只會越來越貴

儘管有多篇[76]報道[77]稱 OpenAI 和 Anthropic 會在 2028 年或 2029 年實現盈利,但沒人能向我解釋它們到底如何真正盈利。尤其考慮到兩家公司[78]的利潤率[79]都低於預期,而這些利潤率甚至已經剔除了數十億美元級別的訓練成本。

我已經問這個問題_很多年_了。每當我們得到 Anthropic 或 OpenAI 的新消息,聽到的都是它們虧掉了比預期更多的幾十億美元,利潤率在惡化,成本在飆升,一切都_越來越貴_。而它們曾承諾的恰恰相反。

即使是 Cursor 這家公司——它曾短暫聲稱自己毛利率為正,後來被 Musk 的 SpaceX 以近似收購的方式拿下——截至 1 月實際毛利率為負 23%[80]。如果把非付費用戶的成本也算進去,那就是負 31%。如果你真的在乎會計,你當然_應該_把這部分算進去。神奇的是,報道稱 Cursor 的利潤率“最近轉正”,但又神奇地不知道轉正了多少、不知道怎麼發生的,也不知道任何其他細節,只知道這樣一個可能幫助公司賣掉的結論。

我也看不出這些 AI 數據中心到底怎麼說得通。哪怕它們前幾年確實有客戶付款。它們的經濟模型建立在完美假設上,沒有任何容錯空間。它們_必須_始終保持穩定的 100% 利用率和租用率(tenancy),否則就會燒掉數百萬美元,並無法有效削減由科技行業最昂貴錯誤製造出的多年折舊牆。

即便它們奇蹟般成功,這些也是利潤平庸的爛生意——最好情況下毛利率 70%,而且還要假設持續付款、持續租用,並且需要_整整六年折舊才真正回本_。這本身就可能很困難,因為年度升級週期會讓整套東西在你付完錢時幾乎已經過時。

而這還沒算進去:大多數客戶都是不盈利、不可持續的創業公司。

我真的不知道這一切最終怎麼收場。

LLM 是宰客,客戶一直被欺騙

我知道這聽起來可能有點過頭,但我真心相信,訂閲制 AI 服務是一種近乎欺詐的欺騙行為。因為它歪曲了核心單位經濟模型,也因此歪曲了大語言模型的可能性。Anthropic 和 OpenAI 這樣的公司以月費出售產品,並圍繞產品可得性塑造用戶習慣,本質上是在以一種方式誤導自己的業務:大多數用戶正在使用、並圍繞這些產品搭建工作流,而這些產品在當前形態下不可持續,也不可能維持。

Anthropic 近期激進的速率限制調整[81],發生在多輪激進營銷活動之後僅僅幾個月。而那些營銷活動描繪的體驗,在當前速率限制下幾乎已經不可能實現。根據 Anthropic 最近的動作,很明顯它打算在未來某個時間開始移除低層級 20 美元/月訂閲用戶的某些服務[82]。這是一種令人作嘔且具有誤導性的經營方式。Anthropic 討論產品和服務時的含糊其辭,是對每一位用戶的侮辱,也表明它並不以任何有意義的方式害怕媒體。

我需要非常明確地說:由於最近的速率限制變化,Anthropic 現在提供的產品,已經和你在各處讀到的那個產品有了實質差異,而且差得多。Anthropic 清楚地、有意識地營銷一個它知道三個月內就會消失的產品。Dario Amodei 根本不在乎,只要媒體繼續報道他今天編出來的幾十億美元年化收入,或者報道某個據說要摧毀某家倒黴上市 SaaS 公司的新產品就行——而那家公司本來增長就已經放緩。

媒體朋友們,我帶着充分尊重說這句話:Anthropic 正在虐待自己的客戶,而且它這麼做,是因為它相信自己可以逃脱懲罰。這家公司不尊重你們。事實上,它對你們懷有相當明顯的輕蔑。所以它不會很快修好自己的服務,也不會以任何有邏輯的方式解釋服務為什麼壞了。

這就是為什麼 Anthropic 他媽的撒謊,聲稱 Claude Mythos 因為太強大而不能發佈(實際上是容量問題),而事實上它只是又一個該死的、毫無新意的大語言模型空包彈[83]。它認為你會買下它賣的任何東西,而且它已經學會了如何包裝,讓你和你的編輯只要快速掃一眼系統卡,就會相信你們正在寫的東西。

它們也知道你們會_急着報道它_,而不是等真正的專家說完話。

AI 是一場騙局,而這就是騙局運作的方式。AI 以人類所能做到的最快速度,被匆忙推到我們面前,而且是以最低效卻最容易接觸的形式出現。即使這種形式永遠無法產生任何類似可持續業務的東西,它也被強推出來。媒體被催促着立刻宣佈:這就是那件大事。於是每個人都同意:這現在就是那件大事了,並儘可能多地使用它。關鍵是,以訂閲制形式使用它,讓人們在體驗它時從不問:提供這個東西到底要花多少錢。

敍事是預先烤好的。因為很少有談論 LLM 的人體驗過它們的真實成本,所以他們非常容易含糊地說“這就像 Uber”。畢竟 Uber 是一家虧了很多錢但沒死的公司。說這個比說“等等,你說 OpenAI 今年預計要虧 50 億美元是什麼意思?”容易多了。

可以這樣想:作為記者、投資者、高管,或者一個普通的 LinkedIn 休息室蜥蜴人,你可能偶爾讀到過輸入 token 每百萬 5 美元、輸出 token 每百萬 25 美元這樣的價格。但你從未真正體驗過這筆錢流失得有多快或多慢。要真正理解這個產品,這種體驗很重要。Anthropic 和 OpenAI 有意掩蓋這種體驗,並創造出預計在 2026 年燒掉數百億美元、到 2030 年燒掉數千億美元的業務,而這一切都因為大多數人是基於訂閲制體驗來評價生成式 AI 的。

LLM 就像賭場。你一直在用莊家的錢賭博,同時鼓勵別人拿自己的錢下注,賭某個模型是否能產出一個工作單位。

這是有意為之。它們從來不想讓你思考成本,因為一旦你真的開始思考成本,整個事情就會顯得有點瘋狂。我真心相信,基於 LLM 的訂閲服務將會徹底消失,至少對於任何生成代碼的產品,只要做到一定規模,就會消失。而在這個過程中,Amodei 和 Altman 會結束他們的騙局,或者至少相信自己已經結束了。

問題在於,這些人現在已經簽下了太多協議,不可能全身而退。

OpenAI 的 CFO 已經多次[84]表示[85],她不認為 OpenAI 已經準備好 IPO,並且對其增長和繼續履行義務的能力有重大擔憂。重複前面引用過的一句話[85]

據熟悉情況的人士稱,首席財務官 Sarah Friar 已經告訴其他公司領導,她擔心如果收入增長不夠快,公司可能無法支付未來的計算合同。

這是一個閃着紅燈的該死警報。在一個理性的市場裏,這會讓 Oracle 股價一路暴跌。因為 OpenAI 能否升到超過 2,800 億美元年收入,對 Oracle 不耗盡現金至關重要。在一個理性的媒體環境裏,這會在每一個羣聊和 Slack 頻道里引發令人不安的衝擊波:OpenAI 到底能不能撐下去?

這就是一家公司開始死亡前會發生的事情。OpenAI 的增長正在放緩,而這恰恰是它最需要加速的時候。它必須在 2030 年前把當前業務基本做大 10 倍,才能履行義務。OpenAI 的 CFO——字面意義上最清楚這件事的人——正在說:如果收入不增長,她擔心 OpenAI 無法支付那些該死的算力合同。 這是一個巨大且閃爍的警告燈!這不是演習!

不過,真正讓我擔心的是《華爾街日報》的另一句話:Friar 認為 OpenAI“還沒有準備好達到上市公司所要求的嚴格報告標準”。

這他媽是什麼意思? 你再說一遍?這家公司據稱已經籌集了 1,220 億美元,據稱估值 8,520 億美元[86],並預計到 2030 年底燒掉 8,520 億美元。它的賬目還沒理順嗎?OpenAI 到底達不到什麼“嚴格報告標準”?

一般來說,我不會這麼該死地_愛打聽_。但問題是,這家公司過去一年吸走了大約 20% 的全部風險投資資金。與此同時,無論我走到哪裏,都得聽 Altman、Brockman,以及 OpenAI 的其他每個男人沒完沒了地高談闊論他們的_想法_,他們要告訴_普通人該怎麼做_,一邊優雅地四處晃盪,一邊發佈垃圾軟件、花別人的錢。

考慮到 Anthropic 和 OpenAI 吸走了多少空氣,這兩家公司無論作為產品還是作為企業,都應該是_無可挑剔_的。可現實是,它們都通過圍繞自身經濟模型[87]和效果[88]的不同程度欺騙來銷售自己。它們掩蓋真相,好讓首席執行官們積累金錢、權力和注意力。這既是對好軟件的侮辱,也是對好品味的侮辱——這些是人類發明過的最昂貴、最不可靠的應用。它們的錯誤被原諒,平庸被慶祝,基礎設施則被奉為一尊沉默的資本之神。

生成式 AI 是一種侮辱。它不可靠,經濟賬算不通,產出結果無法證明其存在合理性,而推動這場騙局的人,是一羣無聊、粗魯、貪婪、與社會脱節、也與任何可能反對他們的人脱節的男人。它需要偷走每個人的藝術,破壞環境,提高我們的電費,帶來經濟毀滅的持續威脅,以及“現在一切都因為 AI 變得糟透了”的無盡噪音。所有這些,只是為了推動一種軟件,而它只能被那些願意無視基本金融常識或基本理智的人證明合理。

這一切都太貴了,也太他媽無聊了。它無聊到冒犯人。它主動讓人煩躁。每一個有人告訴你自己如何大量使用 AI 的故事,聽起來都像這個人處在一段虐待關係裏,或者加入了邪教。那種話語裏迴盪着一種微妙的絕望:“你真的需要加入我,因為這太好了;至於我看起來完全沒有從這個產品中獲得任何快樂,這只是說明它太高效了。”AI 能做的事情沒有任何輕鬆或快樂之處。大語言模型沒有任何傻氣或奇思妙想。每一次互動都讓人感到空洞。

那些拼命尋找它正在變得有意識、或者“更強大”線索的人,其實只是在尋找對自己的確認——他們想成為最早發現某件事的人,因為趕在別人得出結論之前到達同一個結論,就是他們賴以為生的東西。

成為“第一批”——或者說站在“前沿”——是某些人在內心找不到東西時會渴望的東西。而這正是騙子最喜歡的燃料。因為 LLM 總是嗡嗡作響,帶着一種好像馬上要做出新東西的感覺,儘管它們在數學上被限制為重複其他動作

這是一個深深令人悲傷的時代。那些如此積極地合力支撐這個行業的人,只是推遲了它不可避免的墜落。讓我恐懼的是,我們的市場和部分經濟,正在被一個被廣泛接受卻完全未經證明的假設支撐着:LLM 會以某種方式變得更便宜,AI 創業公司會神奇地盈利,而提供 AI 算力會永遠盈利,以至於到 2030 年有必要把當前供給增加十倍。

人們已經貶低自己來捍衞 AI 行業,因為這正是這個行業要求信徒做的事。要成為“AI 專家”,你就必須主動忽視歷史上任何行業中最糟糕的經濟賬;必須不斷為產品中明顯而刺眼的問題找解釋;必須積極說服別人也這麼做。OpenAI 和 Anthropic 不提供清晰解釋,說明自己將如何盈利。因為它們知道,支持者永遠不會追問——因為要完全“相信 AI”,就必須主動戴上眼罩。

我理解這一點。如果你接受 OpenAI 和/或 Anthropic 最終會崩潰,那麼所有這一切都會顯得有點瘋狂。我真誠地請求你認真考慮:這兩家公司中的一家,或者兩家,都可能會耗盡資金。

我真的很擔心。而媒體和更廣泛社會中普遍缺乏擔憂,只讓我更擔心。

如果讓我猜,人們大概會認為我只是危言聳聽,並且認為“需求絕對會在那裏”。

你最好希望自己是對的。

至少為了 Larry Ellison 是這樣。Ellison 已經質押了自己持有的 3.46 億股 Oracle 股票[89]——價值約 615 億美元——“用於擔保某些個人債務,包括各種信用額度”。翻譯過來,就是“用他的 Oracle 股票抵押出來的許多大而漂亮的貸款”。IFR 在 9 月估計(當時 Oracle 股價高得多[90]),按 20% 的保守貸款價值比計算,這可以讓他獲得高達 214 億美元債務,而且這還是假設銀行沒有特別慷慨。

如果 OpenAI 到 2030 年底無法通過收入和融資籌到 8,520 億美元,它就無法支付 Stargate。那會殺死 Oracle 股票的價值,引發一連串追加保證金通知(margin calls)。隨後 Ellison 將不得不賣出股票,進一步引發更多追加保證金。無論有沒有什麼救助,都救不了 Larry 的資產。

我的意思是:Ellison 的未來,押在 Sam Altman 能否在 4 年內籌資並創造 8,520 億美元收入這件事上。

祝你好運,Larry!你真的會需要它。

引用連結

[1] AI's Economics Don't Make Sense: https://www.wheresyoured.at/ais-economics-dont-make-sense/
[2] 我一週前報道過的那件事: https://www.wheresyoured.at/news-microsoft-to-shift-github-copilot-users-to-token-based-billing-reduce-rate-limits-2/
[3] 從 2026 年 6 月 1 日起,所有 GitHub Copilot 計劃都將改為按用量計費(usage-based pricing): https://github.blog/news-insights/company-news/github-copilot-is-moving-to-usage-based-billing/?ref=wheresyoured.at
[4] 請求(requests): https://docs.github.com/en/copilot/concepts/billing/copilot-requests?ref=wheresyoured.at
[5] 《華爾街日報》2023 年 10 月的報道: https://www.wsj.com/tech/ai/ais-costly-buildup-could-make-early-products-a-hard-sell-bdd29b9f?ref=wheresyoured.at
[6] GitHub Copilot 用戶正在反抗: https://www.reddit.com/r/GithubCopilot/comments/1sx896q/change_to_useage_based_billing/?ref=wheresyoured.at
[7] 而我兩年前就在《次貸式 AI 危機》(Subprime AI Crisis)裏預言過這一點: https://www.wheresyoured.at/subprimeai/
[8] 離譜的每次對話 2 美元收費: https://investor.salesforce.com/press-releases/press-release-details/2024/Salesforce-Unveils-AgentforceWhat-AI-Was-Meant-to-Be/default.aspx?ref=wheresyoured.at
[9] 你使用的每一項 AI 服務都在補貼算力: https://www.wheresyoured.at/the-subprime-ai-crisis-is-here/#what-does-%E2%80%9Csubsidized-ai%E2%80%9D-mean
[10] 20 美元、100 美元或 200 美元/月的計劃: https://support.claude.com/en/articles/9797557-usage-limit-best-practices?ref=wheresyoured.at
[11] 20 美元或 200 美元/月的計劃: https://www.perplexity.ai/help-center/en/articles/11187416-which-perplexity-subscription-plan-is-right-for-you?ref=wheresyoured.at
[12] 8 美元、20 美元或 200 美元/月的訂閲: https://chatgpt.com/pricing/?ref=wheresyoured.at
[13] Lovable 的 25 美元/月訂閲給用戶“每月 100 點”: https://lovable.dev/pricing?ref=wheresyoured.at
[14] Anthropic 曾允許你每花 1 美元訂閲費,就燒掉超過 8 美元的計算成本: https://she-llac.com/claude-limits?ref=wheresyoured.at
[15] 這意味着推理成本不知怎麼地反而隨着時間變高了: https://blog.kilo.ai/p/future-ai-spend-100k-per-dev?ref=wheresyoured.at
[16] 不,這件事一點也不像 Uber: https://www.wheresyoured.at/the-subprime-ai-crisis-is-here/#i-will-fucking-piledrive-you-if-you-bring-up-uber-or-amazon-web-services-again-and-several-other-myths
[17] 總有一天石油會便宜到不值得計量: https://fortune.com/2025/07/23/sam-altman-artificial-intelligence-too-cheap-jobs/?ref=wheresyoured.at
[18] 更昂貴的模型會消耗更多請求額度: https://docs.github.com/en/copilot/concepts/billing/copilot-requests?ref=wheresyoured.at#what-are-premium-requests
[19] 直到 2025 年 5 月之前: https://web.archive.org/web/20250406015504/https://docs.github.com/en/copilot/managing-copilot/monitoring-usage-and-entitlements/about-premium-requests
[20] 用戶也已經非常憤怒: https://www.reddit.com/r/GithubCopilot/comments/1l7flts/github_copilot_going_from_unlimited_to_004_per/?ref=wheresyoured.at#:~:text=Just%20got%20the%20notification%20that%20billing%20for,Pro%20subscription%20now%20comes%20with%20a%20300
[21] GitHub Copilot Subreddit 上有位用戶: https://www.reddit.com/r/GithubCopilot/comments/1sxd4nw/is_this_the_future_of_github_copilot_requests/?ref=wheresyoured.at
[22] 突然調整速率限制: https://www.wheresyoured.at/i-will-never-respect-a-website/#a-scenario-illustrating-how-anthropic-fucks-over-its-customers
[23] 《大西洋月刊》激情洋溢地把 Claude Code 描述成 Anthropic 的“ChatGPT 時刻”: https://archive.ph/6YvPh?ref=wheresyoured.at
[24] 說一些危險而失控的話: https://www.npr.org/2025/12/12/nx-s1-5642599/a-new-lawsuit-blames-chatgpt-for-a-murder-suicide?ref=wheresyoured.at
[25] Anthropic: https://www.theinformation.com/articles/anthropic-changes-pricing-bill-firms-based-ai-use-amid-compute-crunch?ref=wheresyoured.at
[26] 一匹真正的蒼白之馬: https://www.wheresyoured.at/the-subprime-ai-crisis-is-here/#the-pale-horses-return
[27] Uber 的 CTO 在一次會議上說,公司在幾個月內就花完了 2026 年的全部 AI 預算: https://www.wheresyoured.at/four-horsemen-of-the-aipocalypse/#:~:text=now%20deeply%20suspicious.-,AI%20Is%20Really%20Expensive%2C%20With%20Companies%20Spending%20As%20Much%20As%2010%25%20Of%20Headcount%20Cost%20On%20LLM%20Tokens%2C%20And%20May%20Reach%20100%25%20of%20Headcount%20Cost%20In%20The%20Next%20Few%20Quarters,-New%20Pale%20Horse
[28] 每一項: https://www.cio.com/article/4157498/kpmg-report-finds-enterprise-disconnect-between-ai-and-its-roi.html?ref=wheresyoured.at
[29] 關於 AI 投資回報率的研究: https://news.wttw.com/2025/11/12/new-study-questions-return-investment-company-s-using-generative-ai?ref=wheresyoured.at
[30] 每人每月 125 美元的 Teams 訂閲: https://support.claude.com/en/articles/9266767-what-is-the-team-plan?ref=wheresyoured.at
[31] 本來是為重度聊天使用而設計的: https://x.com/TheAmolAvasare/status/2046724846604963924?s=20&ref=wheresyoured.at
[32] 不同選項,以繼續提供優秀體驗: https://x.com/TheAmolAvasare/status/2046725373241770410?s=20&ref=wheresyoured.at
[33] 存檔: https://web.archive.org/web/20260402081210/https://code.claude.com/docs/en/costs
[34] 文檔已經改成了這樣: https://code.claude.com/docs/en/costs?ref=wheresyoured.at
[35] 100 萬 token 大約等於 50,000 行代碼: https://magic.dev/blog/100m-token-context-windows?ref=wheresyoured.at
[36] 不再寫一行代碼: https://techcrunch.com/2026/02/12/spotify-says-its-best-developers-havent-written-a-line-of-code-since-december-thanks-to-ai/?ref=wheresyoured.at
[37] Meta 的情況: https://www.wsj.com/tech/ai/the-ai-splurge-is-costing-big-tech-its-workforce-34a88e68?ref=wheresyoured.at
[38] 只有 15.2GW 處於某種形式的建設狀態: https://www.wheresyoured.at/four-horsemen-of-the-aipocalypse/#nvidia-claims-to-have-1-trillion-in-sales-visibility-through-2027-but-only-285-billion-gpus-worth-of-data-centers-are-under-construction-%E2%80%94-nvidia-is-selling-years%E2%80%99-worth-of-gpus-in-advance-and-warehousing-them:~:text=for%20all%20involved.-,AI%20Compute%20Demand%20Is%20Being%20Inflated%20By%20Anthropic%20and%20OpenAI%2C%20With%20More%20Than%2050%25%20of%20AI%20Data%20Centers%20Under%20Construction%20Built%20For%20Two%20Companies%2C%20and%20Only%2015.2GW%20of%20Capacity%20Under%20Construction%20Through%20The%20End%20of%202028,-Pale%20Horse%3A
[39] “混蛋數據中心模型”: https://www.wheresyoured.at/data-center-crisis/#%E2%80%9Cthe-bastard%E2%80%9D-%E2%80%94-a-model-for-calculating-the-cost-of-data-centers
[40] NVIDIA 的年度升級週期: https://www.wheresyoured.at/how-openai-kills-oracle/#nvidia%E2%80%99s-yearly-upgrade-cycle-is-lethal-guaranteeing-that-every-stargate-data-center-is-near-obsolete-on-arrival
[41] OpenAI 和 Anthropic 的需求佔在建 AI 數據中心的 50%: https://www.wheresyoured.at/four-horsemen-of-the-aipocalypse/#ai-compute-demand-is-being-inflated-by-anthropic-and-openai-with-more-than-50-of-ai-data-centers-under-construction-built-for-two-companies-and-only-152gw-of-capacity-under-construction-through-the-end-of-2028
[42] The Information: https://www.theinformation.com/articles/microsoft-cloud-providers-tighten-grip-gpus-pressuring-ai-customers?rc=kz8jh3&ref=wheresyoured.at
[43] CoreWeave 向 Applied Digital 支付託管費,以使用其北達科他州的數據中心: https://ir.applieddigital.com/news-events/press-releases/detail/123/applied-digital-announces-250mw-ai-data-center-lease-with?ref=wheresyoured.at
[44] 這項費用通常是每千瓦每月 180 到 200 美元: https://brightlio.com/colocation-pricing/?ref=wheresyoured.at
[45] Stargate Abilene 是一個由 8 棟樓組成、總規模 1.2GW、關鍵 IT 負載約 824MW 的數據中心園區,最早在 2024 年 7 月宣佈: https://www.datacenterdynamics.com/en/news/crusoe-confirms-plans-for-200mw-ai-data-center-in-texas/?ref=wheresyoured.at
[46] 根據我自己的報道: https://www.wheresyoured.at/how-openai-kills-oracle/#:~:text=Based%20on%20conversations,per%20analysts%20estimates.%E2%80%9D
[47] 約 180 億美元的不同規模債券: https://www.bloomberg.com/news/articles/2025-09-24/oracle-looks-to-raise-15-billion-from-corporate-bond-sale?ref=wheresyoured.at
[48] 自由現金流為負 247 億美元: https://fortune.com/2026/03/10/oracle-best-quarter-negative-free-cash-flow-ai-spending/?ref=wheresyoured.at
[49] 我還知道,它與開發商 Crusoe 簽了一份 15 年租約: https://www.theinformation.com/articles/pressure-rises-oracle-finish-openai-data-center?ref=wheresyoured.at
[50] 2025 年上半年: https://www.datacenterdynamics.com/en/news/crusoe-signs-34bn-joint-venture-with-blue-owl/?ref=wheresyoured.at
[51] 有潛力在 2025 年達到 1GW: https://www.datacenterdynamics.com/en/news/blackstone-invests-500-million-in-lancium-report/?ref=wheresyoured.at
[52] 2026 年中前完成全部 1.2GW 容量: https://www.datacenterdynamics.com/en/news/crusoe-begins-construction-on-second-phase-of-abilene-texas-data-center-campus-will-add-six-buildings/?ref=wheresyoured.at
[53] 2026 年中通電: https://www.datacenterdynamics.com/en/news/crusoe-secures-116bn-in-debt-and-equity-for-openais-stargate-data-center-campus-in-abilene-texas/?ref=wheresyoured.at
[54] 2026 年底會有 64,000 塊 GPU: https://www.datacenterdynamics.com/en/news/oracle-to-spend-40bn-on-nvidia-chips-for-openai-texas-data-center/?ref=wheresyoured.at
[55] 兩棟樓已上線: https://www.datacenterdynamics.com/en/news/crusoes-abilene-data-center-officially-live-serving-oracle-and-openais-stargate/?ref=wheresyoured.at
[56] Oracle 聯席 CEO Clay Magouyurk 說: https://finance.yahoo.com/news/oracle-reportedly-delays-several-openai-175042040.html?ref=wheresyoured.at
[57] Oracle 發推稱: https://x.com/Oracle/status/2047012589302153558?s=20&ref=wheresyoured.at
[58] 正如我上週五討論的: https://www.wheresyoured.at/how-openai-kills-oracle/#if-openai-fails-to-raise-852-billion-in-revenue-funding-and-debt-throughout-the-next-4-years-the-stargate-data-center-project-will-kill-oracle
[59] The Information 報道的 OpenAI 預計燒錢速度和收入泄露數據: https://www.theinformation.com/articles/openai-boost-revenue-forecasts-predicts-112-billion-cash-burn-2030?rc=kz8jh3&ref=wheresyoured.at
[60] TSMC: https://companiesmarketcap.com/tsmc/revenue/?ref=wheresyoured.at
[61] Meta: https://www.macrotrends.net/stocks/charts/META/meta-platforms/revenue?ref=wheresyoured.at
[62] 3,000 億美元: https://www.macrotrends.net/stocks/charts/MSFT/microsoft/revenue?ref=wheresyoured.at
[63] 僅僅為了建設 Stargate 數據中心,就已經承擔了約 1,150 億美元債務: https://www.wheresyoured.at/how-openai-kills-oracle/#oracle-has-taken-on-or-is-planning-to-raise-around-115-billion-in-debt-over-the-last-two-years-and-it-will-need-150-billion-or-more-to-finish-stargate
[64] 640 億美元: https://www.macrotrends.net/stocks/charts/ORCL/oracle/revenue?ref=wheresyoured.at
[65] 發行了 180 億美元債券: https://www.reuters.com/business/oracle-looks-raise-15-billion-bond-sales-bloomberg-news-reports-2025-09-24/?ref=wheresyoured.at
[66] 發行了 250 億美元債券: https://www.datacenterdynamics.com/en/news/oracle-officially-launches-25bn-bond-offering-and-20bn-equity-distribution-agreement/?ref=wheresyoured.at
[67] 完成了一次 200 億美元的市價發行股票計劃: https://www.investing.com/news/sec-filings/oracle-launches-20-billion-atthemarket-stock-offering-and-completes-25-billion-debt-issuance-93CH-4486640?ref=wheresyoured.at
[68] 380 億美元項目融資: https://www.investing.com/news/stock-market-news/jpmorgan-mufg-near-completion-of-oracles-38-billion-data-center-loan--bloomberg-93CH-4616221?ref=wheresyoured.at
[69] 140 億美元數據中心債務: https://finance.yahoo.com/markets/stocks/articles/pimco-seeks-sell-parts-14-231153091.html?ref=wheresyoured.at
[70] 《華爾街日報》: https://www.wsj.com/tech/ai/openai-misses-key-revenue-user-targets-in-high-stakes-sprint-toward-ipo-94a95273?mod=e2twd&ref=wheresyoured.at
[71] Google: https://www.anthropic.com/news/google-broadcom-partnership-compute?ref=wheresyoured.at
[72] Amazon: https://www.anthropic.com/news/anthropic-amazon-compute?ref=wheresyoured.at
[73] Anthropic 的 CFO 在 3 月說,該公司從成立至今總收入為 50 億美元: https://www.wheresyoured.at/the-beginning-of-history/#anthropic%E2%80%99s-cfo-said-it-made-5-billion-in-lifetime-revenues-%E2%80%94-but-when-you-add-up-the-annualized-revenues-reported-they%E2%80%99re-in-excess-of-6-billion-suggesting-reporters-are-being-misled
[74] 營收約為 51 億美元: https://d18rn0p25nwr6d.cloudfront.net/CIK-0001769628/72af7c2b-1904-4f3d-b4f6-a06f58fcdf63.pdf?ref=wheresyoured.at
[75] 預計 2026 年收入為 120 億到 130 億美元: https://www.cnbc.com/2026/02/26/coreweave-crwv-q4-earnings-report-2025.html?ref=wheresyoured.at
[76] 多篇: https://www.wsj.com/tech/ai/openai-anthropic-ipo-finances-04b3cfb9?ref=wheresyoured.at
[77] 報道: https://www.theinformation.com/articles/anthropic-hikes-2026-revenue-forecast-20-delays-will-go-cash-flow-positive?rc=kz8jh3&ref=wheresyoured.at
[78] 兩家公司: https://www.theinformation.com/briefings/openai-raises-revenue-cash-burn-outlook-falls-short-margins?rc=kz8jh3&ref=wheresyoured.at
[79] 的利潤率: https://www.theinformation.com/articles/anthropic-lowers-profit-margin-projection-revenue-skyrockets?ref=wheresyoured.at
[80] 實際毛利率為負 23%: https://www.theinformation.com/newsletters/ai-agenda/nuances-cursors-gross-margin-comparing-gpt-5-5-claude-mythos?rc=kz8jh3&ref=wheresyoured.at
[81] 近期激進的速率限制調整: https://www.wheresyoured.at/the-subprime-ai-crisis-is-here/#march-2026-%E2%80%94-the-subprime-ai-crisis-comes-for-anthropic%E2%80%99s-subscribers-as-it-rugpulls-subscribers-on-the-road-to-ipo
[82] 很明顯它打算在未來某個時間開始移除低層級 20 美元/月訂閲用戶的某些服務: https://www.wheresyoured.at/news-anthropic-removes-pro-cc/
[83] 事實上它只是又一個該死的、毫無新意的大語言模型空包彈: https://www.theregister.com/2026/04/22/anthropic_mythos_hype_nothingburger/?ref=wheresyoured.at
[84] 多次: https://www.wheresyoured.at/openai-cfo-news/
[85] 表示: https://www.wsj.com/tech/ai/openai-misses-key-revenue-user-targets-in-high-stakes-sprint-toward-ipo-94a95273?ref=wheresyoured.at
[86] 據稱已經籌集了 1,220 億美元,據稱估值 8,520 億美元: https://openai.com/index/accelerating-the-next-phase-ai/?ref=wheresyoured.at
[87] 經濟模型: https://www.theinformation.com/newsletters/dealmaker/math-behind-anthropics-mad-revenue-growth?rc=kz8jh3&ref=wheresyoured.at
[88] 效果: https://www.thestreet.com/technology/anthropic-ceo-makes-shocking-admission-about-ai?ref=wheresyoured.at
[89] 質押了自己持有的 3.46 億股 Oracle 股票: https://www.sec.gov/Archives/edgar/data/1341439/000119312525220801/d72066ddef14a.htm?ref=wheresyoured.at
[90] 當時 Oracle 股價高得多: https://www.ifre.com/topic-codes/2321703/larry-ellison-pledges-30-of-his-oracle-shares-in-loans?ref=wheresyoured.at