不到十二小時內,Sam Altman 從公開聲援 Anthropic 到宣布與五角大廈達成協議。相似的條款,為何結果截然不同?這場 AI 安全原則與權力博弈的角力,揭示了矽谷與軍方合作的真實邏輯。
(前情提要:AI 助攻犯罪!駭客靠 Anthropic Claude 輕鬆入侵墨西哥政府,偷走 150GB 敏感資料 )
(背景補充:Anthropic 怒控 DeepSeek 等中國 AI 偷學 Claude,拿 2.4 萬假帳號狂刷 1,600 萬問答 )
昨
(28)日上午,Sam Altman 發了一條推文:「今晚,我們與美國陸軍部達成協議,將我們的模型部署到他們的機密網路中。」
但把時間往回撥大約十二小時,台北時間 2 月 27 日晚上。同樣是他,坐在 CNBC 的 Squawk Box 節目鏡頭前,用平靜的語氣說:「對於 Anthropic,儘管我們之間有很多分歧,我基本信任他們這家公司。我認為他們真的在乎安全。」他還說:「我不認為五角大廈應該用《國防生產法》威脅這些公司。」
不到十二小時,同一張嘴,前後兩段話。這中間發生了什麼,值得慢慢說清楚。

兩份相似的條款,兩個不一樣的結果
先把兩份合約的核心內容並排放在一起。
Anthropic 的要求:Claude 不得被用於大規模監控美國公民,不得被用於沒有人類介入的自主武器系統。
Altman 在推文裡宣布協議時,援引了兩條相同的原則:「我們長期以來相信,AI 不應當被用於大規模監控或自主致命武器,人類在高風險的自動化決策中應當始終在場。」他還寫道:「五角大廈同意這些原則,將它們反映在法律和政策中,我們把它們寫進了合約。」
文字幾乎完全一樣。
一家被封禁,被列為「供應鏈風險」,被川普在 Truth Social 上親自罵成「激進左派覺醒公司」。另一家拿到了合約,進入了五角大廈的機密網路,Sam Altman 在推文裡用了「reached an agreement」這個詞:平靜,商務,像是一筆普通的 B2B 交易完成了交割。
這是整篇文章要回答的問題:相近的條款,為什麼結果完全不同?
答案不在條款裡,在條款背後的邏輯裡。
有一個背景事實值得先說清楚:Anthropic 是這四家公司(另外三家是 OpenAI、Google、xAI)中唯一被允許將 AI 接入五角大廈機密網路的公司。OpenAI 的原有合約,只涵蓋非機密的日常辦公場景。
這次談判,本質上是 OpenAI 想進入機密網路,而五角大廈提出的入場條件,正是那個爭議性的「所有合法目的」條款。Anthropic 已經在裡面,但五角大廈要求拆掉它進來時設下的安全門。
五角大廈不在意寫什麼,而是誰說了算
理解這件事,需要先理解 Anthropic 的 Dario Amodei 在那封公開信裡到底說了什麼。

他寫道:「Anthropic 理解,軍事決策由五角大廈而非私人企業來做。我們從未針對特定軍事行動提出異議,也從未試圖以臨時方式限制我們技術的使用。」
然後他話鋒一轉:「但在極少數情況下,我們相信 AI 可能會破壞而非捍衛民主價值觀。威脅不會改變我們的立場:我們問心無愧,無法接受他們的要求。」
這句話翻譯成合約語言是什麼意思?Anthropic 要求把原則寫死在合約條款裡,形成硬性約束。如果對方違反,它有權拒絕繼續服務。
五角大廈聽到的是什麼?一家私人公司,告訴政府的軍隊:某些情況下,你的命令我可以不執行,邊界由我劃定。
這對任何一支軍隊來說都是不可接受的。不是因為他們真的想搞大規模監控,而是因為「判斷權歸誰」這件事本身,是軍事指揮體系裡最敏感的神經。軍事採購負責人 Jerry McGinn 說得很直接:軍方承包商通常無權告訴五角大廈他們的產品可以怎麼用、不能怎麼用,「否則每份合約都要談具體使用場景,這不現實」。
OpenAI 給了完全不同的答案。
Altman 在備忘錄裡告訴員工,OpenAI 將向五角大廈提議自建「safety stack」,一套由技術控制、政策框架和人工審核構成的多層防護系統,嵌在 AI 模型和實際使用之間。OpenAI 同時表示,可以向機密網路內部派駐持有安全許可證的研究人員,持續追蹤 AI 行為;模型只部署在雲端,不進入無人機這類邊緣系統。
翻譯過來是:你來看,你來監督,你看見所有事情發生。如果出了問題,我們共同承擔,不是你來找我要解釋。
「規則寫死,我來執行」和「我來嵌入,你來監督」,這是兩種完全不同的權力關係,而五角大廈只接受後者。
OpenAI 最擅長的,恰好是五角大廈最想要的
這裡有一個讓人有些不舒服的反諷需要說清楚。
OpenAI 向五角大廈承諾的「技術透明」和「持續監控」,在它自己的用戶身上,已經實踐了一遍。
2025 年 8 月,OpenAI 在一篇關於用戶心理健康危機的官方部落格文章裡,夾帶披露了一套新的監控機制:當系統檢測到用戶「計畫傷害他人」時,對話會被轉入專用管道,由一支經過培訓的人工審核團隊處理,這些審核員被授權將情況上報給執法機關。這是 OpenAI 主動發布的,但埋在一篇關注心理健康的長文中段,反應平靜。
2026 年 2 月,也就是這次合約簽署前不久,OpenAI 上線廣告系統並更新隱私政策,明確了一件事:免費和基礎付費用戶在使用 ChatGPT 時,系統會進行「會話內上下文分析」,根據對話話題向用戶展示相關廣告。比如你在討論食譜,可能會看到送餐服務的廣告。OpenAI 強調對話內容本身不會傳給廣告主,但分析行為是即時發生的。廣告於 2 月 9 日開始測試。
2025 年 11 月,OpenAI 的第三方分析服務商 Mixpanel 遭遇入侵,洩露了部分 API 用戶的姓名、電子郵件、大致地理位置、作業系統和瀏覽器資訊。OpenAI 隨後終止了與 Mixpanel 的合作,目前有訴訟立案。事件主要影響 API 開發者用戶,普通 ChatGPT 用戶受影響的是通過平台提交過協助中心工單的那部分人。
這就是那家向五角大廈承諾「技術透明、持續監控、讓你看見所有事情發生」的公司。
它最擅長的事,恰好是讓別人看進來,因為它已經習慣了這樣對待自己的用戶。
Anthropic 相信規則能約束使用方,OpenAI 相信把自己的人嵌進去比任何條款都管用。前者是理想主義的合規邏輯,後者是現實主義的影響力邏輯。五角大廈選了後者,因為後者對它來說更熟悉,也更可控。
中間幾個小時發生了什麼?
時間回到台北時間 2 月 28 日凌晨,美東時間 2 月 27 日下午 5:01。
Anthropic 的最後通牒時間到了。Dario 沒有妥協。川普在 Truth Social 上宣布封禁,Hegseth 在 X 上發文將 Anthropic 列為「供應鏈風險」,Anthropic 宣布將通過法律途徑應對。
Hegseth 的聲明裡有一句話值得注意:「Anthropic 的立場與美國原則根本不相容。」然後,在同一份聲明裡,他表示 Anthropic 可以繼續向五角大廈提供服務「不超過六個月,以便平穩過渡」。也就是說,他們剛把一家公司定性為國家安全風險,卻還在繼續用這家公司的產品。這個邏輯悖論,沒有人正面解釋。

幾小時後,Altman 發了那條推文。
回看他當天早些時候在全員會上的表述:他說希望 OpenAI 能「幫助局勢降溫」,並找到一個可以「為整個行業樹立框架」的解決方案。這不是一個被動等待的人的語氣。
這不是矽谷第一次見到這種操作。
2023 年,OpenAI 的非營利董事會以「不夠坦誠」為由解雇了 Altman,理由是他推進速度過快,內部溝通存在問題。五天後,Altman 帶著員工的集體支持信回來了,董事會解散。之後,他主導了公司從非營利架構向營利實體的重組,原本對公司有約束權的非營利使命,被包進了一個新的法律框架。
這一次,它被叫做「找到了共同框架」。
Dario 輸掉了什麼?
Jerry McGinn,美國戰略與國際研究中心工業基礎研究中心主任,對這件事給出了一個冷靜的評價:「這對 Anthropic 是絕佳的公關,而他們根本不需要那 2 億美元。」
這個判斷在財務上是準確的。Anthropic 2025 年全年營收 140 億美元,估值 3800 億美元,最大股東亞馬遜不會因為一紙政府封禁令就重新考慮投資邏輯。法律途徑可能帶來轉機。IPO 估值大概率不受實質損害,「拒絕政府壓力,堅守安全原則」這個敘事,恐怕沒有任何公關預算能買到同等效果。
但有一件事,Dario 輸掉了。
AI 在軍事領域的實際使用標準,將由 OpenAI 在五角大廈內部制定,而不是 Anthropic。那個嵌進機密網路的 safety stack,那些持有安全許可證的 OpenAI 研究員,那套持續追蹤 AI 行為的監控系統。它們在接下來的幾年裡,會生長成事實上的行業規範。
Anthropic 因為堅守原則保住了立場,但失去了在規則制定過程中的席位。
而坐到那個席位上的人,是同一個在不到十二小時裡完成了從「聲援」到「簽約」轉變的人。
最諷刺的地方在於:最認真對待 AI 安全的公司,被趕出了最需要認真對待 AI 安全的地方。
接替它進去的公司,兩週前剛剛上線了把用戶對話話題接進廣告系統的機制,三個月前經歷了第三方資料洩露,更早些時候悄悄披露了一套可以把用戶舉報給執法機關的對話掃描系統。
在矽谷,Altman 這不到十二小時的操作有個名字。不叫背刺,叫 timing。
📍相關報導📍
五角大廈對 Anthropic 攤牌!全面開放 Claude 軍用「否則解約走人」
OpenAI 搶吃政府大餅!國安 AI 服務先獲五角大廈 2 億美元合作
Anthropic 怒控 DeepSeek 等中國 AI 偷學 Claude,拿 2.4 萬假帳號狂刷 1,600 萬問答

