Greg Brockman(OpenAI 聯合創始人)把“那場宮鬥”講完整了:董事會、請願書、馬斯克與控制權
整理版優先睇
Greg Brockman 親述 OpenAI 宮鬥內幕:從 Sam 被炒到 95% 員工請願,再到與馬斯克的控制權之爭
呢篇文章係基於 OpenAI 聯合創始人 Greg Brockman 喺 Rick Rubin 播客嘅三小時長談整理出嚟。Brockman 唔係典型科技高管,佢仲親自寫 code、設計數據中心架構,Fortune 叫佢做「首席建造者」。Rick Rubin 係傳奇音樂製作人,提問角度好唔同,唔追技術細節而係追動機同情感,令 Brockman 展現咗好少見嘅一面:面對背叛嘅決策邏輯、同馬斯克談判嘅完整內幕,同埋由北達科他州小鎮少年走到 AI 最前沿嘅經歷。
文章最值得留意嘅核心係 OpenAI 內部衝突嘅來龍去脈。2023 年 11 月,董事會突然炒咗 Sam Altman,Brockman 當日辭職,準備所有股權歸零。但 72 小時內事件逆轉:95% 員工聯署請願書反對董事會決定,最終令 Sam 回歸。呢次經歷令 OpenAI 將「直面艱難對話」定為核心價值觀。另外,文章詳細交代咗同馬斯克嘅控制權之爭——馬斯克要求多數股權、絕對控制權同 CEO 位,被拒後仲提出將 OpenAI 併入 Tesla,最終離開並預測 OpenAI 成功概率係 0%。
整體結論係:AGI 使命大過任何公司實體,算力會成為基本人權,而 Scaling Laws 冇死。Brockman 嘅個人反思係:人與人之間嘅衝突如果唔及時處理,破壞力遠超技術挑戰。
- Greg Brockman(OpenAI 聯合創始人)把“那場宮鬥”…
- Greg Brockman(OpenAI 聯合創始人)把“那場宮鬥”…
- Greg Brockman(OpenAI 聯合創始人)把“那場宮鬥”…
- Greg Brockman(OpenAI 聯合創始人)把“那場宮鬥”…
- Greg Brockman(OpenAI 聯合創始人)把“那場宮鬥”…
原始播客影片
Greg Brockman 與 Rick Rubin 嘅完整三小時對談,包含文章所有內容嘅原始出處。
Tetragrammaton 播客頁面
Rick Rubin 嘅播客平台,可收聽完整版本。
72 小時奪回公司:Sam 被炒到員工革命
2023 年 11 月,Brockman 收到董事會視像會議邀請,見到在線成員但冇 Sam,即刻覺得唔對路。董事會通知佢:Sam 被炒,Mira Murati 做臨時 CEO,佢被踢出董事會,但叫佢留低繼續做嘢。
「那一刻我就知道唔對。」Brockman 掛咗電話後同妻子講要離開,並假設所有股權歸零——佢話出估值金額,問妻子仲係咪要走,妻子堅定答:「走。」
佢即日辭職,核心團隊 Jakub Pachocki、Szymon Sidor、Alexander Wei 都跟住辭。佢判斷攞返公司嘅機會得 10%,但使命大過公司實體。
週末喺 Sam 屋企規劃新公司,白板畫滿願景。週日董事會換新臨時 CEO,員工集體拒絕,幾百人擠爆後院。Microsoft 話接收所有人,員工自發寫請願書,編輯人數太多搞到 Google Docs 死機,最終 95% 員工簽名。
同馬斯克嘅控制權之爭:絕對控制權定係 no
所有人都同意要成立營利實體先夠錢做 AGI 研究,但問題喺治理結構。馬斯克要求多數股權、絕對初始控制權同 CEO 位。Brockman 同 Ilya 認真考慮後做咗個思想實驗:如果真係建成 AGI,而一個人擁有絕對控制權,你覺得安心嗎?答案係唔安心。
佢哋要求某種否決機制——至少喺其他所有人都反對嘅情況下可以推翻控制者決定,但雙方傾唔掂數,最終拒絕咗馬斯克。
馬斯克之後提出兩個替代方案:第一,回歸非營利模式但佢要更多董事會席位(5 個入面佔 3 個);第二,將 OpenAI 併入 Tesla,喺 Tesla 內部秘密開發 AGI,用 Tesla 嘅錢支撐。Brockman 團隊覺得感覺唔對,因為業務文化唔同,而且唔透明。
馬斯克亦對 ICO 方案好興奮,但好快就撤回支持。2018 年佢正式退出,全員會議上話會繼續提供建議,但同時宣佈喺 Tesla 做 AGI 且唔做安全工作。之後一年佢發咗封郵件話 OpenAI 成功概率係 0%,Brockman 被打擊咗成日。
Scaling Laws 未死:模型能力嘅質變同未來判斷
Brockman 明確指出:「你可以喺公開論壇見到有人話 scaling laws 已死,佢哋錯曬,完全錯曬。」 Scaling laws 冇絲毫減速,困難嘅係實現佢嘅工程——例如喺 10 萬塊 GPU 嘅集羣入面檢測邊塊壞咗,要反覆打磨每個環節。
GPT 5.1 到 5.2 之間發生咗質嘅飛躍,令好多專家級工程師第一次覺得模型「真係能幹極難嘅活了」。呢個轉變只係一兩個月內發生。
佢用咗個比喻:模型能力係上升嘅海平面,問題難度係島嶼。以前要花幾日寫嘅程式,最新模型一分鐘搞掂,而且仲靚過佢自己寫。但仲有更高嘅山未被淹沒——人類判斷力、幫助有分歧嘅人達成一致呢類問題,模型仲未掂。
- 一位物理教授用 OpenAI 最新未發佈系統證明咗量子物理假說嘅反面,論文已提交。教授話:「呢係第一次我覺得呢個系統喺思考。」
- Brockman 預測算力會成為基本人權,人嘅經濟生產力同生活質量將直接取決於能夠調用幾多算力。
- OpenAI 內部推行 Agent-first,目標 2026 年 3 月 31 日前所有人默認用 AI 智能體而非文字編輯器。同時提出「Say no to slop」,AI 生成代碼嘅審查標準要比人寫嘅更高。
使命大過公司:從北達科他到 AI 前沿嘅反思
Brockman 喺北達科他州偏遠小鎮長大,父母都係醫生。佢自細就覺得同其他細路唔同,刻意建立「聰明嘅細路」呢個身份。七年級時數學老師最初輕視佢,但兩週後就話「我教唔到你乜嘢」。
三年級作文題目係弗羅斯特嗰首關於兩條路嘅詩,佢寫嘅係:「我唔會行任何一條路,我會喺樹林入面自己開闢道路。」呢個態度貫穿佢之後嘅人生。
化學奧林匹克嘅經歷令佢明白唔可以再靠天賦食飯。第一年佢只讀指定教材,結果被其他讀曬成個書架嘅同學碾壓。第二年佢認真準備全年,最終入選美國隊拎咗銀牌。佢用騎行界名言總結:「佢永遠唔會變容易,你只係變快咗。」
喺 Stripe 做咗四年半後,佢覺得使命唔夠強——唔係「一定要追求」嘅使命。佢想做 AI,於是離開 Stripe 加入 OpenAI。2015 年秋天,創始團隊喺佢屋企客廳用一張黑色橢圓木桌、幾張沙發開始,第一日冇白板,佢即刻出去買咗一塊。
算力即人權:2026 目標同傑文斯悖論
Brockman 話 OpenAI 仍然唔盈利,最大挑戰係算力供給。供應鏈全面緊張:台積電、內存、硬盤全部賣曬,有時排隊要 18 個月以上。
傑文斯悖論:當技術效率提升時,需求增長得更快。同等智能水平成本降到十分之一,但人會想用一千倍嘅量——因為人想解決嘅問題係無窮嘅。算力會成為基本人權。
OpenAI 內部推行 Agent-first,截止日期 2026 年 3 月 31 日有兩個目標:第一,所有人默認用 AI 智能體而非文字編輯器;第二,使用工具嘅默認方式經過安全審計。為防止代碼庫被 AI 垃圾淹沒,佢哋提出「Say no to slop」,提交代碼嘅人要為結果負責。
佢對未來嘅判斷係:程序員會從個人貢獻者變成 Agent 經理,再變成中層管理,最終成為「Agent 組織嘅 CEO」。但有一件事睇唔到會被取代:對結果嘅責任感。人控制架構,機器填充實現——呢個係其中一位最優秀工程師嘅平衡點。
Greg Brockman 做客 Rick Rubin 的 Tetragrammaton 播客,錄了一期超過三小時的長談。Brockman 是 OpenAI 聯合創始人兼總裁,但他不是那種典型的科技公司高管。他至今還在寫代碼,親自設計數據中心架構,Fortune 雜誌稱他為 OpenAI 的"builder-in-chief"(首席建造者)。
這期播客之所以特別,是因為 Rick Rubin 不是科技記者。他是傳奇音樂製作人,提問視角完全不同。他不追技術細節,而是追動機、追情感、追意義。結果是 Brockman 展現了科技高管極少展示的一面:面對背叛時的決策邏輯、和馬斯克談判的完整內幕、以及一個北達科他州小鎮少年如何走到 AI 最前沿。
原始視頻連結:https://www.youtube.com/watch?v=mI30_ueZ7CU
以下是要點速覽:
1. Brockman 在 Sam Altman 被解僱當天辭職,告訴妻子假設所有股權歸零。72 小時後,95% 的員工簽署請願書,Google Docs 被擠崩,他們奪回了公司。
2.馬斯克曾要求獲得 OpenAI 的多數股權、絕對控制權和 CEO 職位。Brockman 和 Ilya 拒絕後,馬斯克還提出將 OpenAI 併入 Tesla“秘密開發 AGI”,最終談崩離開。離開前他發郵件稱 OpenAI 成功概率是"0%,不是 1%"。
3. Scaling Laws 仍然有效,“公共論壇上說它已死的人完全錯了”。GPT 5.1 到 5.2 之間發生了質的飛躍,讓很多專家級工程師第一次覺得模型“真的能幹極難的活了”。Brockman 預測算力將成為基本人權。 4. 一位物理學教授用 OpenAI 的最新未發佈系統證明了一個量子物理假設的反面。論文正在提交,教授說“這是第一次感覺系統在思考”。 5. OpenAI 內部正在推行"Agent-first“,目標是 2026 年 3 月 31 日前讓所有人默認用 AI 智能體而非文本編輯器。口號是”Say no to slop",對 AI 生成代碼的審查標準比人寫的更嚴。
Rubin 問每一代新模型有什麼變化。
Brockman 說 2025 年一個明顯趨勢是人們開始把 ChatGPT 用在非常私人的場景。他妻子患有超活動綜合徵(hypermobile syndrome),確診過程花了好幾年。把症狀輸入 ChatGPT,它很快就能判斷出來。醫生各有各的專科,沒有一個人能看到全貌,但 ChatGPT 可以。她現在用它來管理日常健康。
他自己反而是"自家產品的晚期採用者"。之前一直用 Emacs 編輯器和終端,這些是他從年輕時候就用的工具,非常固定。直到 2025 年 12 月開始用 Codex,他才徹底拋棄了舊的工作方式。
注: Codex 是 OpenAI 2025 年推出的編程 Agent 產品,可以自主執行代碼任務,與傳統的 IDE 編輯器 + 終端的工作流程截然不同。
談到模型升級的本質,他說外界覺得“你們只是在把模型做大”,但實際上每一個環節都在持續優化。比如一個 10 萬塊 GPU 的訓練集羣裏,怎麼檢測哪塊 GPU 壞了?“你不能就指着它說'是那塊'”。數據質量、分詞處理、物理流程、軟件流程,每一項都在反覆打磨。
他總結了一個規律:如果某個應用現在“湊合能用”,那一年後你應該期待它變得出色。
在 OpenAI,你活在未來。
(“That's one of the amazing things about working at OpenAI—is you live in the future.”)
“Sam 被世界嚴重誤解了”
Rubin 說 Sam Altman 似乎在外界引發了很強烈的反應,問 Brockman 怎麼看他這位聯合創始人。
Brockman 的回答非常明確:Sam 是一個好人,而這種善良反而成了被攻擊的把柄。
每一種指控都是一種自白。
(“Every accusation is a confession.”)
意思是批評者把自己不安全的東西投射到了 Sam 身上。
他說 Sam 非常抗壓,經歷了很多,對 OpenAI 走到今天功不可沒。"沒有人能像他一樣填好這個角色。"
Rubin 含蓄地說“他吸引了所有目光,你可以繼續埋頭做事”。Brockman 說他對此“深深感激”。
“那一刻我就知道不對了”:Sam Altman 被解僱那天
Rubin 直接問:“跟我講講被解僱的故事。”
Brockman 先交代了背景:在那之前一年到一年半,OpenAI 內部一直在積累衝突。他從中學到的最大教訓是,當矛盾存在時必須正面解決,“如果你讓它發酵,到後來一定會更痛”。
然後他講述了那一天的經過。
他正在寫代碼,準備提交一個他興奮了很久的改動。收到邀請他加入視頻通話的消息。他進入 Google Meet 預覽屏,看到在線的是董事會成員,但 Sam 不在。他立刻覺得不對,點了加入。

董事會告訴他:Sam 被解僱了,Mira Murati 是臨時 CEO,他被撤出董事會。他們說他對公司很重要,是一個“能把事情做成的人”,希望他留下。而且這甚至不是在問他願不願意留,而是直接在通知他“這是你的新角色”。
他要求更多信息,董事會不願意分享。
那一刻我就知道這不對。
注: 2023 年 11 月 17 日,OpenAI 董事會突然宣佈解僱 CEO Sam Altman 並將 Brockman 從董事會移除,引發了硅谷有史以來最戲劇性的公司危機之一。當時董事會有 6 名成員(含 Altman 和 Brockman),該年因各種原因已有多位董事離開。Mira Murati 時任 CTO,後於 2024 年 9 月離職創業。
Rubin 問是不是毫無預兆。Brockman 說是的,非常震驚。但因為他了解所有的人、所有醖釀已久的矛盾,他當下的反應是“我理解發生了什麼,很遺憾走到這一步”。
掛掉電話後,他告訴妻子:"我們必須離開。"
她說:“是的。”
然後他做了一件事:告訴妻子,假設他們持有的所有股權(當時一分都沒賣過)都會歸零,因為董事會可能會“敵對”。他說出了這些股權的估值金額,問她是否還要走。
她說:"走。"

他們一直在推遲要孩子,就是為了讓他能全力以赴做 OpenAI。為此投入了八年。但他們都相信 AI 造福人類的使命。
他打電話給 Sam。Sam 說:“我大概去開個新公司吧。”
Brockman 說:"不,Sam,我們一起開。"

當天辭職。
使命大於公司實體。
(“The mission is bigger than the corporate entity.”)
72 小時“革命”:10% 的概率奪回 OpenAI
Brockman 說,在人們記憶中,整個事件是混在一起的,但有一個關鍵轉折點被忽略了:他的辭職。
在他辭職之前,外界的敍事是“有人被解僱了,肯定發生了很嚴重的事”。他辭職併發了一條簡短聲明後,敍事改變了。他認為董事會沒有預料到他會辭職。
同一天,他的核心合作伙伴 Jakub Pachocki、Szymon Sidor、Alexander Wei 也辭職了。
注: Jakub Pachocki 後來成為 OpenAI 首席科學家,接替了 Ilya Sutskever 的位置。
大量 OpenAI 員工主動聯繫他,說“不管你接下來做什麼,我要跟你一起”。他說這“真的讓我非常感動,這是我永遠不會主動要求也不曾預期的事”。
他當時判斷拿回公司的概率有 10%。不是零,但不超過 10%。因為董事會手裏有所有的牌。
第二天他們在 Sam 家開會,規劃新公司。那個週末沒人睡覺,全靠咖啡因撐着。白板上畫滿了新公司的願景。
Rubin 說這簡直像一場革命。Brockman 說百分之百就是那種感覺。
然後事態升級。週日晚上,董事會決定用一個新的臨時 CEO 替換 Mira。員工集體拒絕。 人們開始湧出辦公室。數百人擠進不同的私人住宅後院,有人在發表演講,競爭對手蜂擁而至給 OpenAI 員工發 offer。
Brockman 他們在一天之內把原本容納小團隊的“救生艇”方案擴展為能接納全部 770 名員工的規模——這是與 Microsoft 合作實現的。Microsoft 說“我們接收所有人”。他們討論了多種方案:獨立公司?Microsoft 投資?還是併入 Microsoft?
那天晚上,員工自發組織了一封請願書給董事會,要求撤回決定。編輯的人太多,Google Docs 崩潰了——不得不指定專人負責往文檔裏添加簽名。最終 95% 的員工簽了。

Brockman 很晚才睡,一直在安慰那些不知道該怎麼辦的人。凌晨五點他醒了,刷 Twitter。
他看到了 Ilya Sutskever 的帖子。
注: Ilya Sutskever 是 OpenAI 聯合創始人兼首席科學家,被認為是推動解僱 Sam Altman 的關鍵人物之一。他在解僱後不久發推表達後悔:“我對自己參與董事會的行動深感後悔。我從未想要傷害 OpenAI。”這條推文獲得近 2900 萬次瀏覽。Ilya 於 2024 年 5 月離開 OpenAI,創辦了 SSI(Safe Superintelligence Inc.)。
說到這裏 Brockman 明顯情緒激動。
“解僱發生的時候,我只感到一種距離感。就是那種——你怎麼能這樣對我?”
"但在那個早晨,看到 Ilya 的帖子,我感到了寬恕。"

又花了大約兩天來談判迴歸。核心是組建一個新董事會——舊董事會能接受的、他們也能接受的一套人選。
危機之後:“公司也會死”
Rubin 問事件之後公司有什麼不同。Brockman 說"極其不同"。
"have the hard conversation"(直面艱難對話)成了核心價值觀。回來之後他們對沖突管理花了很多時間去改進——至今也不完美,仍然有看到衝突被迴避的時候。
更重要的是一種“死亡體驗”帶來的覺悟。
這家公司不是命中註定會成功的。它能活下來並繁榮,是因為人們努力工作,是因為人們讓它如此。
Rubin 問導火索到底是什麼——是技術問題還是商業問題?
永遠是人的問題。 就像婚姻裏的問題一樣。
迴歸後,一家獨立律所對整個事件做了獨立審查。結論是:理解董事會為什麼做了這個決定,這在他們的權力範圍內,但他們不是非做不可。
Brockman 說他在 OpenAI 的一個核心策略一直是"keep the band together"(讓樂隊不散)。不管是與馬斯克的分歧、還是 Anthropic 創始人的離開、還是這次解僱,他都試圖讓所有人一起找到好的解決方案。但結果總是有人離開。
他們的習慣是不去爭奪敍事權——“我們繼續往前走,讓別人講他們的故事。但有時候別人就利用這一點來攻擊我們。”
David vs. Goliath:與馬斯克的故事從這裏開始
Rubin 引用了他們之前的一次私下對話,關於“大衞和歌利亞”。
Brockman 說,因為 ChatGPT 太成功了,外界傾向於把 OpenAI 當成行業老大、當成“歌利亞”。但他坐在公司裏面看到的畫面完全不同——Google、Meta 才是真正的巨頭,擁有龐大的市值、海量用戶和大量算力。OpenAI 是挑戰者。
而真正的獎品不是當前的市場地位,而是 AGI。誰能率先實現 AGI 並將其變成造福所有人的力量,誰才是贏家。在這個維度上,OpenAI 依然是 David。
馬斯克也一樣。Brockman 說,馬斯克是世界上最富有、最有權勢的人之一,“而他在起訴我們,說我們騙了他”。
這引出了下一個大話題。
與馬斯克談判:控制權之爭
Rubin 問核心分歧在哪裏。Brockman 回答了一個字:"控制。"
所有人都同意一件事:僅靠慈善捐款無法支撐 AGI 研究所需的資金,必須成立營利實體。馬斯克也同意這一點。問題出在營利實體的治理結構上。
馬斯克的要求是:多數股權、絕對初始控制權、以及 CEO 職位。
Brockman 和 Ilya 認真考慮了這個方案。然後他們做了一個思想實驗:
想象你真的實現了使命,真的建成了 AGI,而一個人擁有絕對控制權。不管那個人是誰,你覺得安心嗎?太危險了。
答案是不安心。所以他們要求某種否決機制——至少在其他所有人都投反對票的情況下,可以推翻控制者的決定。但雙方無法達成一致。他們說了不。

Rubin 問是否以不愉快收場。Brockman 說那個談判失敗的瞬間非常痛苦。這輪談判持續了五到六週,期間沒做任何實際工作,全在談條件。“非常情緒化地消耗人。”他以為一切都完了。
Tesla 合併方案與 ICO 插曲
但沒有完。馬斯克回來提了兩個替代方案。
第一個: 迴歸非營利模式,但馬斯克要更多的董事會席位。具體來說,五個席位裏他佔三個(Ilya、Greg、馬斯克、馬斯克、馬斯克),同時要求他們承諾競業禁止和一兩年內不辭職。
第二個更戲劇性:把 OpenAI 併入 Tesla。
馬斯克的邏輯是他在 Tesla 沒有完全控制權(有其他股東),所以可以解決控制權的問題。在 Tesla 內部秘密開發 AGI。他用了一個詞——"現金奶牛"(cash cow),用 Tesla 的錢來支撐。
Brockman 團隊不願意。原因很簡單——不同的業務、不同的文化,而且不是以透明方式推進 AGI 來造福所有人。"就是感覺不對。"
之後他們又嘗試了新路徑。有人提出了一個 ICO(首次代幣發行)方案——通過發行加密貨幣來籌資,與未來的算力或 AGI 產出掛鈎。
馬斯克對此極為興奮。Brockman 記得有一次通話中馬斯克說:"你們解決了!我們要融 100 億美元。"但沒多久,馬斯克發了封郵件說他不再支持 ICO。
這一切發生在 2018 年 1 月。
“0% 成功概率”與馬斯克的離開
馬斯克宣佈退出,但他在離開前做了一次全員會議。
他在會上說:Greg、Sam、Ilya 看到了融資數十億美元的路徑,他不認為能成功但支持他們走這條路。他說他還會繼續提供建議、保持參與。
然後話鋒一轉,說他要在 Tesla 做 AGI,而且不會做安全工作。他的理由是:
如果綿羊在立法安全而狼不在乎安全,那就沒意義。
這裏的“狼”指的是 Google。
他還試圖招走 OpenAI 的人。沒有人跟他走。
之後的一年裏,OpenAI 繼續摸索融資結構,建立了 OpenAI LP,並一直向馬斯克通報進展。
然後在 2018 年 12 月,Brockman 在度假時收到了馬斯克的一封郵件。標題大意是“Need I Remind You?”,內容是:
OpenAI 相對 Google 的成功概率是 0%,不是 1%。如果不在資源和執行上發生劇變,就是 0%。
Brockman 說他被這封郵件打擊了整整一天。

Rubin 說:我覺得他發這封郵件就是因為他真的覺得你們註定失敗。Brockman 同意,說這確實是馬斯克那一年的主旋律。"
但後來當我們開始成功的時候,他講的故事就完全變了。"
Rubin 問他最後一次跟馬斯克通話是什麼時候。“幾個月前。非常愉快。一直都很愉快。”
注:馬斯克於 2024 年起訴 OpenAI,指控其違背了創立時的非營利使命。此案至今未結。與 Brockman 描述的“愉快”交流形成對比的是,馬斯克在公開場合持續批評 OpenAI,並創辦了競爭公司 xAI。
Microsoft 的錢改變了什麼:“我們可以做夢了”
Rubin 問怎麼跟 Microsoft 做上了生意。
最早的合作是 Microsoft 為 OpenAI 的 Dota 項目捐贈了計算資源。之後 Sam 和微軟 CEO Satya Nadella、CTO Kevin Scott 保持了良好關係。投資分了幾輪:10 億、20 億、100 億美元。
Brockman 說他的信條一直是“我們沒有賺到這些錢的資格,我們還不是一家盈利公司”。大部分錢都花在算力上。但真正改變的不是錢本身,而是"我們能做夢了"。
2017 年的狀況是“怎麼才能搞到一個數據中心?數字根本算不過來”。有了 Microsoft 的合作,以前不可能的規模變成了可能。
微軟當時的一個論點是:即使這些模型最終沒什麼用,OpenAI 至少能幫他們搞清楚怎麼給深度學習建更好的超級計算機。
ChatGPT 的意外誕生:“我們活在未來裏”
Rubin 問 ChatGPT 剛推出時是什麼感覺。
Brockman 給了一個很少有人知道的內部視角。當時他們已經訓練了 GPT-4,他很清楚 GPT-4 會是一個巨大的成功,應該把它做成聊天產品。他們有一個早期模型 GPT-3.5,找了不同的測試者試用,甚至花錢請了幾百個外包來使用它。“感覺不是很好。”
他是支持發佈 ChatGPT 的:“讓我們先把聊天基礎設施搭好,然後放上真正的模型,那就會很棒。”
結果呢?他們太習慣下一代模型了,忘記了上一代對普通人來說從未見過。僅僅是讓它“可用且可訪問”,就足以引爆。
對我們來說,它已經過時了。 在 OpenAI 工作,你活在未來裏。
ChatGPT 信上帝嗎?
Rubin 突然問了一個讓人意外的問題:ChatGPT 信上帝嗎?
Brockman 說 ChatGPT 沒有一致的人格。它的設計理念是用戶可以根據自己的偏好來塑造它,所以可以有一個相信上帝的版本,也可以有一個不信的版本。“ChatGPT 不是一個實體,它更像是多種 Agent 的集合體。”
Rubin 追問:它有情感嗎?
Brockman 說這是一個開放的問題。有一個叫"模型福利“(model welfare)的概念正在被認真對待。”我們甚至無法科學地測量另一個人是否有情感——你相信他們有,是因為你自己有。"
模型能力的驚喜:GPT-5.1 到 5.2 是“天壤之別”
Rubin 問有沒有什麼他以為 AI 擅長但實際不擅長的,或者反過來。
驚喜方面: 模型在軟件方面的能力飛速進步,不只是寫代碼,還有調試、測試、端到端的整個流程。尤其 2025 年底那一波升級,“從'還行'變成了'很棒'”。
遺憾方面: 人類判斷力。他舉的例子不是什麼高深的技術問題,而是“幫助有分歧的人達成一致”。他說如果 OpenAI 早期就有這種 AI,也許內部衝突會有不同結果。更大的問題:怎麼實現世界和平?怎麼幫各國談出更好的貿易協議?“我不覺得有什麼阻止模型做到這些,但我們離那裏還有距離。”
為什麼他還在寫代碼:“我從前線領導”
Rubin 問他是否還在寫代碼。是的。 對於他這個職位的人來說很不尋常。
Brockman 說他知道正確方向的方式就是從前線領導。”這個領域變化太快了。有時候正確的決定是公司戰略層面的,有時候就是非常細微的,比如這個 API 應該怎麼設計、這段軟件應該怎麼架構。你必須親身去感受。”

他舉了一個例子:做 API 產品的過程。他們有 GPT-3 這個“找問題的技術”(通常產品開發是反過來的,先有問題再找方案)。2020 年 1 月他開着車在舊金山到處找願意試用的公司。“有些朋友純粹看在面子上才接了會。”然後三月全世界因為 COVID 停擺了。
他給團隊定了兩個目標:找到第一個付費客戶;找到一個內部每天都會用的應用場景。 第一個目標很快達成了。第二個花了將近兩年。
2025 年是他第一次完全做管理——25 個直接下屬,負責數據中心、GPU 基礎設施、大規模訓練任務。今年他招了一些優秀的管理者來幫忙,終於能回去寫代碼了。
感覺怎麼樣?"生疏中帶着熟悉。“底層問題沒變,仍然是訓練神經網絡。但工具完全不同了。好消息是”工具對所有人都是新的,所以大家在一起學習"。
Vibe Coding 和 Agent-First:3 月 31 日前要實現什麼
Rubin 問 Vibe Coding(氛圍編程)如何改變了編程。
Brockman 說軟件工程正在徹底改變。過去寫代碼是一種手藝,你要精確地告訴機器每一步怎麼做。Vibe Coding 把這個關係反過來了,不是人去遷就機器,而是機器在靠近人。
他用了一個海平面比喻:模型能力是上升的海平面,問題難度是島嶼。有些島已經被完全淹沒了。他有一個測試提示詞,用了好多年測每個模型,要求構建一個特定網站。第一次他自己手寫花了幾個月,用早期編程模型花了五六小時,最新模型一分鐘搞定,"而且做得比我任何一次都好"。
但還有更高的山沒被淹沒。“這些山是有限的還是無限的?我不確定。”
真正的轉折發生在 2025 年 12 月。GPT 5.1 到 5.2 之間的變化是“天差地別”,而這僅僅發生在一兩個月內。這是很多專家級工程師第一次覺得模型從“還行”變成了"能做極其困難的工作"。
他對未來的判斷是:程序員會從個人貢獻者變成 Agent 經理,再變成中層管理,最終成為"Agent 組織的 CEO"。但有一件事他看不到被取代的可能,就是對結果的責任感。“就像你請人建房子,你可能不在乎每顆釘子在哪,但你非常在乎結果。”
OpenAI 內部正在推行"Agent-first"方針,設定了兩個目標,截止日期是 2026 年 3 月 31 日:
• 第一, 所有人默認使用 AI 智能體而非文本編輯器來工作 • 第二, 使用這些工具的默認方式經過了安全審計
為了防止代碼庫被 AI 垃圾淹沒,他們提出了一個口號:"Say no to slop"(對爛代碼說不)。提交代碼的人必須為代碼負責;代碼審查者對 AI 生成代碼的審查標準要比對人寫的代碼更高。
他們一位最優秀的工程師找到了一個平衡點:自己手寫接口設計和組件結構,把實現細節交給 AI。人控制架構,機器填充實現。
算力稀缺與傑文斯悖論
Rubin 問 OpenAI 的財務狀況。
Brockman 說:仍然不盈利。 有盈利的願景,但最大的挑戰是算力供給。
他描述了供應鏈的現狀:台積電(做芯片晶圓的)、內存、甚至硬盤,全都賣光了,有時候排隊 18 個月,有時候更久。整個供應鏈正在被所有人搶購。
為什麼算力這麼重要?因為我們正在進入一個"算力驅動的經濟"。Brockman 發現,當他想讓 Codex 做一件複雜的事,比如構建一個大型應用,他想同時跑 10 個甚至 100 個並行 Codex,把任務拆成子任務。算力消耗極快。
OpenAI 內部已經有團隊想要 100 到 1000 個 GPU,各自用來讓 AI 寫優化代碼。如果一千個人每人要一千個 GPU,那就是一百萬個 GPU——而全球 GPU 總量遠不到一千萬個。
Rubin 問以後會不會有技術突破來解決這個瓶頸。Brockman 說不會。原因是傑文斯悖論(Jevons Paradox):當一項技術的效率提升時,對它的需求可能增長得比效率提升更多。
他舉了具體數字:每年模型效率提升巨大,同等智能水平的成本可能降到十分之一甚至百分之一。但你會想用一千倍的量。你不滿足於解決一個小網站的問題,你會想建一個大網站。人想解決的問題是無窮的,所以 AI 的應用也是無窮的。
算力將成為基本人權。 人們的經濟生產力,甚至生活質量,將直接取決於他們能調用多少算力。
Scaling Laws 沒死,“別信他們說的”
Rubin 問突破是否越來越快。
Brockman 說指數增長在繼續,倍增週期不變。
然後他說了一句在 AI 圈會引發爭議的話:
"你可以在公開論壇上看到有人說 scaling laws 已死。他們錯了,完全錯了。 Scaling laws 沒有絲毫減速。困難的是實現它的工程。"
注: Scaling laws 爭論是 AI 行業近年來最核心的分歧之一。懷疑者認為單純增大模型規模的收益在遞減,需要新的範式突破。支持者認為工程能力是瓶頸而非理論極限。Brockman 作為 OpenAI 負責基礎設施的最高管理者,有最直接的內部數據,但也有明顯的利益相關性。
他引用了首席科學家 Jakub Pachocki 的比喻:建更大的模型就像建更大的火箭,容差越來越緊,受同樣的火箭方程和引力約束,但工程難度在指數級增長。
他認為他們正在進行的是一種根本性的科學探索。“我們不只在學習模型,也在學習我們自己。我們在學習什麼是智能。”
預訓練是國會圖書館,後訓練是品味
Rubin 問 ChatGPT 的技術機制。Brockman 做了一個非常清晰的解釋。
預訓練就是讓模型觀察世界。技術上叫“下一步預測”:給模型一段序列,問它下一個該是什麼。如果你能預測愛因斯坦說的每一個詞,你至少跟他一樣聰明。模型學到的不是表面統計(逗號放哪、名詞在哪),而是數據背後的生成規則。就像人的學習一樣,你不記得學校裏學過的大部分內容,但你記住了方法、原理和邏輯。
後訓練是在預訓練的基礎上,教模型如何使用它已經知道的知識。研究員 Alec Radford 有個說法:"這些預訓練模型不像一個人,更像整個人類——什麼都在裏面。"然後通過反饋來塑造行為。
Rubin 提出了一個比喻:預訓練是國會圖書館?
Brockman 認可這個比喻:"預訓練是國會圖書館,後訓練是品味——給機器一種感覺,在那些書裏它喜歡哪些,或者拿到那些信息之後該做什麼。"
他說後訓練在變化。以前是大量人工標註,現在任務越來越複雜,需要領域專家。“有些任務是十幾個小時才能完成的——查特定年份的財務報告、對比分析。需要領域專業知識。”
機器越聰明,能從大多數樣本中學到的就越少,所以重點從“海量數據”轉向"高精度的品味"。
關於推理(reasoning),他的定義也很清晰:推理 AI 就是在給出答案之前花大量算力去思考的 AI。早期的 ChatGPT 是直接給答案,有時說了一句話自己就自相矛盾。推理模型會暫停、思考、調用工具、上網搜索、做實驗,然後再回答。
他說了一個有意思的產品方向:未來的 AI 應該能在五分鐘後主動跟你說"之前給你的那個答案我想了想是錯的,正確的應該是這樣"——就像一個真正的人類同事一樣。
AI 推翻了物理教科書
Rubin 提出了一個來自 AlphaGo 的觀察:AlphaGo 之所以贏,是因為下了一步沒有人類會下的棋。如果我們訓練 AI 要“像人一樣負責任”,會不會反而扼殺了它做出人類做不到的發現的能力?
Brockman 說這已經發生了。
一位對 AI 持懷疑態度的物理教授,被說服使用了 OpenAI 尚未發佈的最新系統,測試了一個量子物理假說——一個他原本打算花一整年和合作者一起研究的問題。學界普遍認為結論應該是 A,但 AI 證明了結論是 B——正好相反。
教授的反應是:"這是第一次,我覺得這個系統在思考。"

相關論文已經提交發表。
Rubin 追了一個更尖鋭的問題:如果企業為了避免爭議而限制 AI 做這種事,“它不能做它能做的事——這才是我對 AI 最大的擔憂”。
Brockman 深以為然。他說這正是 OpenAI 創立的深層動機之一:讓 AI 像人類一樣有權質疑現有的認知,即使質疑總是困難的,總是會引發阻力。但這恰恰是社會進步的方式。
無監督情感神經元:讓 Brockman 確信“這項技術會成功”的時刻
Rubin 問什麼是“無監督情感神經元”(unsupervised sentiment neuron)。
這是 2017 年的一篇 OpenAI 論文。他們訓練了一個語言模型,讓它預測 Amazon 評論的下一個字符——就是這麼簡單的一個任務。
結果這個模型自動學會了情感分析——判斷一條評論是正面的還是負面的。而且是當時最好的情感分析系統。
這件事比想象中難得多。比如“這個產品很棒,但它完全壞了,我恨它”——要判斷這條評論的情感傾向需要真正的理解,不是簡單的關鍵詞匹配。
Brockman 說這是他個人的"確信時刻":語言模型不只是學會了語法,它學會了語義。就像 AlexNet 證明了圖像識別的方向,這篇論文證明了語言模型的方向。如果一個簡單的預測下一個字符的任務就能做到這一點,那把它放大,一定能做到更多。
注: 這篇論文全名是“Learning to Generate Reviews and Discovering Sentiment”(Radford et al., 2017)。它是 GPT 系列的重要前身——同一個思路(用語言建模來學習通用表徵)後來發展成了 GPT 系列。
AlexNet 與深度學習革命的內幕
Rubin 問:在早期,你是不是覺得 AI 是個已經失敗的領域?
Brockman 說,對他來說 AI 一直是個謎。Turing 的論文願景很清晰,但為什麼從 1950 年到現在花了這麼久?答案很簡單:算力不夠。Turing 再聰明,他也沒有電腦。
他詳細講述了 2012 年 AlexNet 的故事——引爆當代深度學習革命的關鍵事件。
在 AlexNet 之前,沒有人相信神經網絡能行。做神經網絡研究的人被認為是“搞欺詐的”。
注: AlexNet 是 2012 年由 Geoffrey Hinton、Ilya Sutskever 和 Alex Krizhevsky 在 ImageNet 圖像識別競賽中提交的神經網絡模型,以碾壓性的優勢擊敗了所有傳統方法,被認為是深度學習時代的起點。
內幕故事是這樣的:Alex Krizhevsky 是 Geoff Hinton 實驗室的研究生,在寫 GPU 上的快速卷積核。實驗室裏其他人都覺得他可憐——“那不過是個工程項目,誰在乎?我們在做真正酷的研究。”
但 Ilya Sutskever 看到了這些快速卷積核的潛力。他立刻意識到,如果把這個計算能力和 ImageNet 這個大數據集結合起來,就會有突破。
Geoff Hinton 的貢獻是一個管理技巧:Alex 極其討厭寫論文,Geoff 跟他說“你每在數據集上提升 1%,我就把你論文的截止日期推後一週”。這個循環重複了十幾次甚至二十幾次。Alex 就這樣一直磨,數字越來越好。
他們提交比賽結果後,整個計算機視覺界震驚了。幾乎一夜之間,從“神經網絡是死路一條”變成了"只有神經網絡"。
Brockman 還提到了一個有趣的歷史循環:1995 年有一篇論文回顧了深度學習歷史上的起伏,裏面記錄的反對意見和 OpenAI 這十年聽到的幾乎一模一樣——“這些神經網絡的人沒有新想法,他們只是想要更大的計算機。”
70 年代神經網絡之所以被扼殺,是因為做符號系統(symbolic systems)的研究者跟資助機構關係好,切斷了神經網絡的資金。80 年代神經網絡復活,是因為計算的民主化——博士生有了自己的電腦,教授再也不能禁止他們做神經網絡研究了。
從北達科他到硅谷
Rubin 開始聊 Brockman 的個人成長。
Brockman 在北達科他州長大。從 Fargo 往北開一小時到 Grand Forks(約六萬人),再往外開八英里到 Thompson 鎮(約一千人),再往外半英里就是他家。很偏遠。
父母都是醫生——母親是精神科醫生,父親是眼科醫生。
他從小覺得自己和其他孩子不一樣。“幼兒園校車上,其他孩子在跟着收音機唱歌,我一個詞都不會。”他很在意為自己建立一個身份認同。"如果你和別人不一樣但沒有身份,那是孤獨的。但如果你和別人不一樣且有一個身份,你就是在走自己的路。"
他的身份是“聰明的孩子”。他講了一個小學時的細節:每週有拼寫測試,如果拼錯了要去問拼對的同學怎麼拼。通常他全對,但有一週他錯了一個詞,不得不去向另一個“聰明的孩子”請教,“那種羞恥感在侵蝕我最核心的身份認同”。
七年級他媽媽帶他去找數學老師要求跳級。老師用最鄙夷的眼神說:“每個家長都覺得自己孩子特別。我保證你孩子在我的課上會有足夠挑戰。”兩週後他一直在教室後排玩計算器遊戲,老師突擊提問想難住他,他看一眼黑板就給出答案。老師說:"我教不了你孩子什麼了。"
八年級沒車去高中上數學課,他在線自學完成了三年的數學課程——幾何、預微積分、代數 2。九年級進了微積分班,和高年級學生一起上課。十年級起在北達科他大學選課。
他特別提到一點:如果他住在旁邊的明尼蘇達州,就不可能這樣做——那裏有標準化的選課制度,限制每年能選多少門。"恰恰因為沒有制度,但有支持你的教育者,我才能做到。"
三年級時有一次要寫小作文,題目是弗羅斯特(Robert Frost)那首關於兩條路的詩——你會走哪條路?所有同學都在兩條路中選一條。他寫的是:
我不會走任何一條路。我會在樹林裏自己開闢道路。

化學奧林匹克:天賦 vs. 努力
化學奧林匹克的故事是全場最有教育意義的一個。
十年級那年他參加了一個化學競賽,隨便考了考,拿了地區第一、州第一,被邀請參加國際化學奧林匹克的訓練營——全美前 20 名。
賽前他們寄來教材說“請讀第一到第八章”。他就只讀了這八章,覺得憑天賦就夠了。
到了訓練營,其他孩子不只讀完了那本書——他們讀了所有書。有機化學、物理化學、所有大部頭全讀過了。Brockman 瞬間被碾壓。
兩週訓練期間他已經放棄了,在房間裏玩手機遊戲。最後公佈進入國際賽的前四名和兩名替補——六個名字沒有他。他估計自己大概排第 20 名。
第二年開學時他回顧了那個暑假,覺得自己浪費了一個絕佳的機會。他意識到一件事:不能再靠天賦吃飯了。
於是他認真準備了一整年——上物理化學、有機化學,刷往年競賽題,系統學習。第二年他進了前四,參加國際化學奧林匹克並獲得銀牌。
他用了一句騎行界的名言來總結這段經歷:
它永遠不會變容易,你只是變快了。

Stripe 的第四號員工
Brockman 從哈佛轉學到 MIT,後來從 MIT 輟學加入 Stripe。
在哈佛,他原本打算學數學、化學和哲學三個專業,但被編程吸引了。他發現哈佛的計算機社區不夠強——大二時就他在組織討論了,他覺得自己還不夠格。於是他開始頻繁跑 MIT,最終轉學。
他的哈佛室友為此做了一個“Greg 轉學概率天氣預報”,一個月內從 99% 到 1% 到 50% 波動。哈佛的反應很有趣——他去說要退學,學校說“這聽起來像休學”。哈佛不讓你退學。
在 MIT 期間他收到了一封郵件,來自一個在做支付的創業公司。他飛去見了 Patrick Collison(Stripe 聯合創始人),兩人一見如故——一樣的 Kinesis 分體鍵盤,都用 Dvorak 鍵盤佈局,聊防火牆、聊內核。
關鍵的認知衝擊是:Patrick 和他同齡(21 歲),已經在做創業了。"我們兩個人中有一個是錯的。我很想知道是誰。"

他在四天內決定加入。當時 Stripe 只有四個人。
注: Stripe 現在是全球最大的在線支付基礎設施公司之一。Brockman 加入時只有 Patrick Collison、John Collison、Darra Buckley 和他。
他說 Stripe 和 OpenAI 有一個根本區別:Stripe 是“建一台支付機器”,有那台機器在就有慣性和安全感。OpenAI 像電影公司——“你有一部成功的作品,但你已經需要想下一部了”。
四年半後他決定離開。原因是使命不同——Stripe 的使命很好,但不是那種“我必須以任何形式追求”的使命。他想做 AI。離開那天他跟 Patrick 說的時候哭了。Patrick 和 John 給他辦了一個果汁告別派對。
OpenAI 的客廳與三步計劃
2015 年 7 月的一次晚餐是真正的起點。參加者包括 Sam Altman、Ilya Sutskever、馬斯克 等人。核心問題是:現在開始一個能真正實現 AGI 的實驗室,是不是太晚了?當時感覺 DeepMind 已經擁有了最好的人才和 Google 的算力。
2015 年 11 月,Brockman 組織了一次 Napa 團建。一羣還沒真正組成團隊的人被拉到一起,結果當天就碰撞出了化學反應。他們在翻轉圖表上寫下了三步計劃:
1. 解決 RL(強化學習) ——從獎懲中學習 2. 解決 UL(無監督學習) ——通過觀察世界自主學習 3. 逐步學習更復雜的任務
Brockman 說他有這張翻轉圖表的照片。“這實際上就是 OpenAI 過去十年一直在做的事。”
2016 年初,OpenAI 正式在 Brockman 的客廳開工。一張黑色橢圓木桌、幾張沙發、一台大屏電視。第一天沒有白板——兩個研究員想寫東西的時候才發現這個問題,Brockman 立刻出去買了一塊。”我覺得自己從第一天起就在創造價值。”

客廳裏的創始團隊:Sam Altman、Ilya Sutskever、Wojciech Zaremba、Vicki Cheung、Pam Vagata、John Schulman、Andrej Karpathy。
他描述了幾個人的特點:
• Sam 是夢想家——你覺得問題不可能解決的時候,他會找到一條路。也許不是最好的方案,但一旦你知道有解,就可以去找更好的 • Ilya 是遠見者,第一天就在講他關於無監督學習的想法 • Wojciech 極擅長想法生成,而且完全不執着於自己的想法——“因為如果你太在意自己的想法,就很難保持那種創造力”
競爭格局:“我們被 Anthropic 在編程方面教了一課”
Rubin 問 OpenAI 和其他 AI 公司有什麼不同。
Brockman 說他主要關注自己,但競爭對手有兩個用處:當"配速員“看自己表現如何,以及發現”原來這個功能可以做到"。
OpenAI 的核心優勢是在基礎研究上的長期投資——語言模型範式、強化學習範式。“還有即將到來的新範式,我們正在擁抱和捕捉。”
Google 去年在建更好的模型方面做得不錯,而且有天然優勢——算力、人才、用戶、分發。“Google 對我來說始終是最前端和中心的威脅。”
Anthropic 在編程方面做得很好。他承認了這一點:OpenAI 之前太關注 benchmark——學術編程競賽的數字很漂亮,但沒有足夠關注模型在現實世界中怎麼被使用。“在亂七八糟的真實代碼庫上訓練、讓模型真正適配人們的使用方式——這個教訓我們來晚了。但我們組建了團隊,專攻這個方向,我認為已經追上了。”
他還提到一個轉變:"我們進入了後 benchmark 時代。 真正重要的 benchmark 是——有人在用嗎?收入在增長嗎?"
韌性而非中央控制
Rubin 問 AI 的格局會怎麼演變。
Brockman 提出了一個他認為比“對齊”更重要的概念:韌性(resilience)。
他反對一種常見的敍事:建一個最強大的中央 AI,對齊它與人類價值觀,然後萬事大吉。"首先,根本就沒有'人類價值觀'這回事——你說的其實是某個人的價值觀。"
他認為,生命本身就是通過多樣性存活的——非單一文化、容許異端。AI 也應該這樣。
他用了蒸汽機的類比:我們圍繞汽車建立了整套社會基礎設施——修路、安全帶、碰撞測試。不是一種做法,而是系統性的韌性。AI 也需要這樣的社會配套。
他對 OpenAI 的定位也呼應了這個理念:AI 應該是所有人的技術,人們應該有權選擇自己的 AI 怎麼運作,包括有權讓 AI 質疑現有的科學共識。
"這與行業內其他人的哲學非常不同。我們的哲學是自我賦權——這項技術屬於每個人。"
編碼、數學與宇宙的織物
Rubin 問了一個非常“Rick Rubin”式的問題:編碼和其他活動有什麼異同?
Brockman 說編碼更像數學而非語言。但這裏有一個誤解——數學不是 1+1,不是機械運算。數學是關於宇宙底層結構的學問,是關於不同對象、不同想法之間深層關係的探索。編碼就是把這種數學之美變成了有用的形式。
Rubin 接着追問了一個哲學問題:數學是覆蓋在自然之上的,還是自然是覆蓋在數學之上的?
Brockman 說他一直在想這個問題。數學感覺像是獨立於一切事物而存在的。如果我們遇到一個來自數百光年外的外星人,我們可能在數學上有共同語言,而在其他任何方面都沒有。
但同時,如果沒有人去欣賞它,數學就像一棵在沒有人的森林裏倒下的樹——聲音在那裏嗎?
也許,正是我們作為思考者的存在,才讓數學獲得了意義而非僅僅是一種無人知曉的抽象。
Rick Rubin 的訪談風格在這些時刻展現了獨特價值——他不是技術記者,不會追問 API 細節或競品比較,而是用音樂人和哲學家的好奇心把對話帶向了技術人通常不會去的地方。
Brockman 在這次三小時的對話中反覆回到三個主題。第一, AGI 使命大於任何公司實體,值得冒一切風險——包括八年的積累和全部股權。第二, 算力是 AI 時代的終極瓶頸,供給遠遠跟不上需求增長,而算力最終會成為基本人權。第三, 人與人之間的衝突如果不及時處理,帶來的破壞遠超技術挑戰——“have the hard conversation”不只是一條公司價值觀,是他從一場幾乎失去一切的經歷中提煉出來的血淚教訓。
值得持續關注的信號: OpenAI 的 Agent-first 目標能否在 2026 年 3 月如期實現;AI 推翻物理假設的那篇論文是否得到同行驗證;以及當算力成為個人生產力的核心要素時,供應鏈瓶頸何時能緩解。
完整播客請收聽:https://www.tetragrammaton.com/content/greg-brockman-part1