NVIDIA與OpenAI各斥資200億美元佈局AI推理晶片市場,Cerebras遞交IPO申請估值350億美元。這場爭奪AI算力未來控制權的無聲戰爭,正重塑價值數千億美元的科技市場格局。本文源自華爾街見聞,由PANews整理報導。
(前情提要:輝達財報營收成長114%超預期,黃仁勳為何不畏 DeepSeek 衝擊?)
(背景補充:《經濟學人》喊:2025是「AI Agent」時代,但須注意三點困難)
2025年12月,NVIDIA悄悄花了200億美元買下了一家叫Groq的AI晶片公司。
2026年4月17日,OpenAI宣布將向另一家AI晶片公司Cerebras購買超過200億美元的晶片。同一天,Cerebras正式向納斯達克遞交IPO檔案,目標估價350億美元。
兩筆錢,金額幾乎完全相同。一筆是收購,一筆是購買。一筆來自全球最大的AI晶片賣家,一筆來自全球最大的AI買家。
這不是兩件獨立的事,這是同一場戰爭裡的兩個對稱動作。戰場的名字叫:AI推理。
絕大多數人沒注意到這場戰爭。因為它沒有爆炸聲,只有一行行財務公告,和矽谷工程師圈裡流傳的技術討論。但它的影響可能比過去兩年任何一次AI發布會都要深遠——因為它在重新分配一個幾乎確定會成為史上最大科技市場的控制權。
推理是什麼,為什麼2026年的關鍵字不再是”訓練”
在講兩個200億之前,需要先理解一個背景:AI晶片的戰場,正在發生一次重心遷移。
訓練和推理,是AI算力消耗的兩個階段。訓練是造模型-把海量資料餵給神經網路,讓它學會某種能力。這個過程通常只會發生一次,或定期更新。推理是用模型-每次使用者發出一個問題,ChatGPT給一個回答,背後就是一次推理請求。
2023年,全球AI算力支出的大頭在訓練,推理是配角。
但這個比例正在快速倒置。
根據德勤和CES 2026的市場研究資料,2025年推理已經佔到全部AI算力支出的50%;2026年,這個比例將跳到2/3。聯想CEO楊元慶在CES上說得更直白:AI支出的結構,將從”80%訓練+20%推理”,完全翻轉為”20%訓練+80%推理”。
邏輯並不複雜。訓練是一次性成本,推理是持續性成本。 GPT-4訓了一次,但每天要回答億級使用者的問題,每一次對話都是一次推理請求。規模化部署之後,推理的累積消耗遠超訓練。
這意味著什麼?意味著AI產業最賺錢的那塊蛋糕,正在從”訓練晶片”移向”推理晶片”。而這兩種晶片,需要截然不同的架構設計。
NVIDIA的問題:為訓練設計的晶片,天生不擅長推理
NVIDIA的H100、H200,是為訓練設計的怪獸。它們的核心優勢是極高的運算吞吐量-訓練需要對海量矩陣做大量乘法運算,GPU擅長這種”多核心平行計算”。
但推理的瓶頸不是計算,是記憶體頻寬。
當使用者發出問題,晶片需要把整個模型的權重從記憶體裡”搬”到計算單元裡,然後才能產生答案。這個”搬”的過程,才是推理延遲的真正來源。NVIDIA的GPU用的是外接高頻寬記憶體(HBM),搬運這一步不可避免地引入延遲——對於每秒要處理幾千次請求的ChatGPT來說,這個延遲在乘以規模之後,變成了真實的效能瓶頸。
OpenAI內部工程師注意到這個問題時,他們在為Codex(程式碼產生工具)做最佳化,發現無論怎麼調參,響應速度都受制於NVIDIAGPU的架構上限。
換句話說,NVIDIA在推理端的劣勢,不是努力程度的問題,是架構的問題。
Cerebras的WSE-3晶片走了完全不同的路線。這塊晶片大到需要用晶圓級封裝──面積46,255平方毫米,比人的手掌還大──把90萬個AI核心和44GB超高速SRAM記憶體整合在同一塊矽片上。記憶體直接貼在計算核心旁邊,”搬運”的距離從釐米級縮短到微米級。結果:推理速度比NVIDIAH100快15到20倍。
需要補充的是:NVIDIA並沒有坐以待斃。其最新的Blackwell(B200)架構在推理效能上比H100提升了4倍,正在大規模部署。但Blackwell追的是一個移動的目標-Cerebras同期也在迭代,而整個晶片市場湧現的競爭對手,已經不只是Cerebras一家。
NVIDIA的200億:史上最大併購背後的一張承認書
2025年12月24日,NVIDIA宣布了它史上最大的一筆收購案。
目標是Groq。
Groq是Cerebras的同類競爭對手,主打的也是為推理最佳化的SRAM架構晶片——它叫做LPU(語言處理單元),當時在公開測評中是全球推理速度最快的晶片服務。NVIDIA花了200億美元,把Groq的核心技術和創始團隊全部買走,包括創辦人Jonathan Ross和多位谷歌TPU團隊出身的頂級晶片工程師。
這是NVIDIA2019年70億美元收購Mellanox之後,規模最大的一次併購,整整翻了三倍。
在許多分析師看來,這筆錢背後傳遞的訊息,遠比金額更重要:NVIDIA認為自己在推理端有結構性缺口,而且這個缺口大到值得花200億去堵。
如果NVIDIA真的相信自己的GPU在推理端無敵,它根本不需要收購Groq。這筆錢本質上是一張價值200億美元的技術採購單——承認SRAM嵌入式架構在推理場景裡有真實的技術優勢,承認NVIDIA靠現有產品線無法自然覆蓋這個優勢,用最貴的價格買下了一個它自己填不上的技術缺口。
當然,NVIDIA收購後的官方敘事是另一套——”與Groq深度整合,提供更完整的推理解決方案。” 技術語言的翻譯版本是:我們意識到自己的東西不夠用,所以買了別人的。
OpenAI的200億:買晶片只是表面,入股才是關鍵
現在回到OpenAI這邊。
2026年1月,OpenAI和Cerebras簽了一份100億美元的三年算力採購協議——當時媒體報道的重點是”OpenAI正在多元化晶片供應商”,語氣輕描淡寫。
但4月17日最新曝光的細節,讓這件事的性質有了根本改變:
第一,採購金額從100億變成了200億,增加了一倍。
第二,OpenAI將獲得Cerebras的認股權證,隨著採購規模增加,持股比例最高可達Cerebras總股本的10%。
第三,OpenAI也將向Cerebras提供10億美元的資料中心建設資金-換句話說,OpenAI正在幫Cerebras蓋廠。
這三個細節放在一起,畫出來的圖景完全不同:OpenAI不只是在買晶片,OpenAI是在孵化一個供應商。
這個邏輯在科技史上有清晰的先例。 2006年蘋果開始與三星合作客製化A系列晶片,最初也是大宗採購協議,但隨著蘋果不斷加深參與、最終自研M系列晶片,供應鏈的控制權徹底從英特爾和三星轉移到蘋果自己手上。 OpenAI在做的,有幾分類似——但有一個重要邊界:蘋果從一開始就掌握晶片設計權,OpenAI目前仍然是採購者,Cerebras上市後也將獨立發展、服務更多客戶。這條路的終點未必是OpenAI完全掌控Cerebras,更可能是雙方建立深度互依的生態共同體。
一方面以200億和入股繫結Cerebras,確保非NVIDIA的推理算力持續供應;另一方面,OpenAI正在與博通合作研發自有ASIC晶片,預計2026年底量產。兩條腿同時走,終點是算力自主。
Cerebras今天IPO,你買的是什麼
4月17日,Cerebras正式提交納斯達克IPO申請,目標估價350億美元,計畫融資30億美元。
這個估值,距離它2025年9月還是81億美元,漲了四倍多。今年2月剛完成新一輪融資,當時估值已升至230億美元,IPO目標的350億在此基礎上又溢價了52%。
熟悉Cerebras歷史的人知道,這是它第二次嘗試上市。第一次,2024年,因為核心客戶G42(阿聯主權科技投資基金)佔當年收入的83%~97%,CFIUS以國家安全為由介入審查,IPO被迫撤回。
這次,G42已經從股東名單中消失,取而代之的是OpenAI。
換句話說,Cerebras的客戶集中度結構性問題尚未根本解決——大客戶的名字換了,依賴大客戶的格局還在。投資人要做的判斷是:這個大客戶是更好還是更糟?從信用角度來看,OpenAI顯然優於G42;從策略角度來看,OpenAI同時也是Cerebras的競爭對手孵化者-它的自研ASIC一旦成熟,對Cerebras是真實的替代威脅。
公平起見,Cerebras也積極拓展其他客戶,招股書預計將列出更多元化的收入來源,集中度將會有所改善。但在OpenAI自研晶片量產之前,這個問題的答案還沒有揭曉。
買Cerebras的股票,你其實同時押注:OpenAI會持續選擇Cerebras,而OpenAI的自研ASIC不會提早到來。這兩條,都不是確定的。
當然,多頭理由也是真實的:如果推理市場的規模按預測軌道增長,Cerebras就算只在這個市場敵佔到一個小份額,絕對數字也相當可觀。問題不在於Cerebras有沒有機會,而在於350億的定價是否已經反映了最樂觀的情況。
兩個200億,對稱地出現在2025年底到2026年4月這段時間。
一個來自全球最大的AI晶片賣家,買下了推理市場競爭對手的技術。
一個來自全球最大的AI買家,孵化了推理市場上挑戰NVIDIA的公司。
NVIDIA的200億是防禦-它用最貴的價格堵住了一個自己填不上的技術缺口。
OpenAI的200億是進攻-它在燒錢建造一條不依賴NVIDIA的推理高速公路,同時拿到了這條路上一個收費站的認股權。
這場戰爭沒有槍聲,但資金的流向從來不說謊。兩筆錢告訴你的,比任何AI發布會都更清楚:AI推理基礎設施的控制權,正在被爭奪。而這塊市場,2026年將佔全產業算力支出的三分之二。
Cerebras的IPO,是這場戰爭吹響的號角。

