全球最大芯片要上市了!先后拿下OpenAI、亞馬遜,Cerebras賭對了什么?
你能想象嗎?
一塊AI芯片,做到接近一臺iPad的大小。
這不是概念設計,而是一家正在沖刺上市的AI芯片公司,給出的答案就在不久前,Cerebras披露了招股書,這家公司開始正式走向臺前。
從數據看,它的增長幾乎是“跳躍式”的。
2022年營收只有2460萬美元,到2025年已經達到5.10億美元,三年增長超過19倍。
更關鍵的是,盈利也在同步發生變化。2024年還虧損4.82億美元,到2025年已經轉正,實現2.38億美元凈利潤。
今年以來,Cerebras更是連續拿下兩個關鍵客戶。一邊是OpenAI,簽下超過百億美元級別的算力協議;另一邊是亞馬遜,開始在云側引入其芯片做推理加速。
這意味著,它開始逐漸進入主流算力體系。
資本市場的預期也在抬高。據外媒報道,Cerebras計劃募資超過30億美元,對應估值至少350億美元。
所以問題來了,一家把芯片做到“iPad大小”的公司,到底在解決什么問題?
今天,我們就來聊聊Cerebras。
/ 01 / GPU,不是AI計算的答案
先來說說Cerebras為什么會存在。很多人可能不知道,過去40年,計算行業始終在印證一個鐵律:
新的計算需求,終將催生新的計算架構。
PC時代是 x86,移動時代是 ARM,圖形時代是 GPU。每當新的計算范式出現,行業最初總是試圖用舊架構“湊合”,但當技術演進到一定階段,就會不可避免地發現——舊架構已達到極限,必須重構底層系統。
現在,這件事正在AI 身上重演。
AI 的計算方式,和過去完全不同。簡單來說,過去的計算,大多是“局部、獨立”的,比如圖形渲染,每個像素可以各算各的,互不影響。
但AI 模型不一樣,它本質上是一個高度耦合的計算網絡。在這個網絡中,數據、參數和計算過程之間需要進行極其頻繁的信息交換。
這就導致了一個根本性的轉變:AI本質上是一個“通信密集型”的計算問題,而不僅僅是一個單純的“算力”問題。
這也是GPU 開始遇到瓶頸的根本原因。
GPU 的優勢在于并行計算,但前提是“任務彼此獨立”。而在 AI 里,每一步計算都依賴前一步結果,大量時間花在“等數據”。
這種架構上的不匹配,在AI模型的訓練和推理階段暴露無遺。
在訓練階段,單卡不夠強,只能把模型拆開,分布到上千張GPU上。但一旦拆開,就必須頻繁通信,效率迅速下降,同時系統復雜度和成本飆升。
簡單說就是,單卡不夠,多卡低效。
到了推理階段,問題就更加直觀了。
模型在生成每一個詞(Token)時,都需要完整地運行一遍整個模型。但由于模型體積過于龐大,無法完整加載到芯片內部的緩存中,計算單元只能不斷地從外部內存中搬運數據。
問題在于,這個“搬數據”的過程,遠比“算數據”慢。目前,高端GPU普遍采用了HBM(高帶寬內存)技術,但HBM的特點是“容量大而速度相對較慢”。
Cerebras創始人Andrew Feldman曾提供過一組直觀的數據:以一個相對較小的70億參數(7B)模型為例,假設每個權重占用16位(16-bit),那么生成一個詞,就需要從內存中搬運約140GB的數據。
而為了生成下一個詞,系統必須再次搬運這140GB的數據,如此周而復始。這種計算模式對內存帶寬的消耗是極其驚人的。
結果就是,在某些場景下,GPU的實際利用率甚至可能跌至5%以下。這種高成本、高延遲的破架構,怎么可能撐得起未來那些要求毫秒級響應的實時AI應用?
/ 02 / 一塊接近iPad大小的芯片
對于這些問題,Cerebras給出的解法,不僅很直接,也很極端:
把芯片做到足夠大,大到可以把“算力、內存、帶寬”都放進同一塊硅片里。
就這樣,Cererbas打造了全球首創且唯一的商業化晶圓級處理器——晶圓級引擎(WSE),并聲稱其第三代AI芯片WSE-3是“史上大批量推向市場的最大、最快AI芯片”。
與GPU相比,WSE-3的最大特點就是,大。
WSE-3的面積是4.6萬平方毫米,接近一塊iPad屏幕;而H100只有814平方毫米,兩者相差整整57倍。
用Feldman自己的比喻來說:
“想象一個玻璃杯就是內存,里面裝的可樂是數據,而你的嘴巴代表算力。你能喝到可樂的速度,完全取決于吸管的粗細。英偉達GPU的根本問題,就在于這根吸管太細了。而我們的破局之道是——直接把吸管扔掉,端起杯子往嘴里倒。
這瘋狂的尺寸,直接砸出了三個顛覆性的結果:
第一,計算被暴力“集中”了。
WSE-3喪心病狂地塞進了90萬個計算核心,是H100的52倍!更恐怖的是,這90萬個核心全在一塊硅片上,緊緊挨著,壓根不需要跨芯片通信。
第二,是內存被“拉近”了。
傳統GPU依賴HBM(本質是DRAM),容量大,但訪問慢;SRAM速度極快,但容量小。
Cerebras的做法,是直接把芯片做大到可以放下足夠多的SRAM——WSE-3集成了44GB片上SRAM,而H100只有約0.05GB,相差880倍。
這意味著,大模型的參數可以直接“貼臉”放在計算單元旁邊,再也不用來回倒騰了。
第三,也是最關鍵的,是帶寬問題被“消掉”了。
WSE-3的片上內存帶寬達到21 PB/s,而H100大約是0.003 PB/s,相差7000倍;片上互連帶寬也高出3700倍以上。
在GPU體系里,大量時間花在“搬數據”上。而在WSE里,數據基本不需要離開芯片。
總結起來,其實Cerebras就做了一件事:讓數據不再流動,讓計算圍繞數據發生。
/ 04 / 誰在為這個瘋狂的故事買單?
技術再牛,賣不出去也是白搭。Cerebras面臨的現實拷問是:誰來掏錢?
答案是,中東土豪。
2022到2025年,公司收入從2460萬美元一路增長到5.1億美元,三年翻了超過20倍;凈利潤也在2025年首次轉正,達到2.38億美元。
但這錢,幾乎全是中東老鐵砸的。
2024年,阿布扎比的G42貢獻了85%的營收;2025年,阿聯酋人工智能大學(MBZUAI)和G42聯手包攬了87%的收入。
這家公司賺的錢,幾乎都來自中東。
換句話說,Cerebras的命脈,全捏在兩個中東大客戶手里。 這種走鋼絲般的營收結構,自然成了IPO時投資人最忌憚的定時炸彈。
為了自救,Cerebras開始瘋狂拉客。真正的轉折點,來自OpenAI。
2026年1月,Cerebras拿下了史詩級大單:2026到2028年,為OpenAI提供高達750兆瓦的算力,總金額超過100億美元!
不僅如此,OpenAI還倒貼10億美元(約合人民幣68億元),幫Cerebras建數據中心。
這背后的水很深。OpenAI的掌門人Sam Altman,本身就是Cerebras的早期投資人,而且早在2017年,OpenAI就已經盯上了Cerebras的技術。
巨頭入場,風向徹底變了。
2026年3月,AWS(亞馬遜云)也坐不住了,成為首家吃螃蟹的超大規模云廠商。
AWS的玩法很雞賊:在推理任務里,用自家的Trainium芯片搞定“理解輸入”,然后把“生成輸出”這種臟活累活扔給Cerebras的CS-3芯片。兩者高速互聯,雙劍合璧。
據說,這套組合拳的速度,是現有方案的5倍以上!
/ 05/ 決戰英偉達,護城河到底在哪?
只要在這個圈子里混,就繞不開那個終極靈魂拷問:
你憑什么干掉英偉達的護城河?
所有整個AI算力行業都相信一個故事:CUDA生態,就是英偉達堅不可摧的護城河。
黃仁勛在GTC 2026上也是這么放話的:“CUDA搞了20年,早就長在每一朵云、每一臺電腦里了。我們的護城河,是整個軟件生態!”
但在挑戰者Feldman眼里,CUDA的神話,被嚴重夸大了。
原因是,CUDA在訓練側確實有價值,但在推理側,幾乎不存在鎖定。
現在的AI開發,早就被PyTorch統領了,應用層和底層硬件已經脫鉤。只要編譯器給力,模型在不同硬件之間橫跳,根本不是難事。
“從NVIDIA切到Cerebras,再切到別人家,這件事情在推理端并不難。”
相比虛無縹緲的CUDA生態,Feldman看得很透:英偉達真正的護城河,是它那令人絕望的市場份額。
比起CUDA建立的生態,Feldman認為英偉達真正的護城河在市場份額。
市場份額本身,就是最無解的護城河。
他舉了Intel的例子,即便連續犯錯,依然能長期占據70%+的市場份額,AMD花了十年,也只拿到20%多。
這意味著,一旦成為默認選項,后來者即使更好,也需要極長時間才能撬動。
放在今天的英偉達身上,這個優勢更明顯:所有人都在它的體系里學習AI、構建AI,它就是采購的起點。現在的英偉達就是那個“默認起點”,所有人都在它的體系里學AI、做AI。
但Feldman并不絕望。他預測,五年后,英偉達接近100%的壟斷份額,可能會跌到50%–60%。
理由很簡單:訓練市場依然是英偉達的天下,但真正龐大的推理市場正在井噴,而這個市場,對新架構極其渴望!
同時,Feldman也相信另一個暴論:
即使在未來,芯片公司的價值,也將徹底碾壓模型公司!
他的邏輯來自一個很經典的比喻,短期市場是“投票機”,長期是“稱重機”。
模型公司的優勢周期很短,可能只有幾個月,領先與被超越在不斷切換,很難沉淀長期壁壘。
而芯片不同,它的壁壘在物理層,制造、工藝、供應鏈、工程能力,這些東西一旦建立,很難被快速復制。
過去幾十年,真正長期偉大的公司,大多來自這一層。

原文標題 : 全球最大芯片要上市了!先后拿下OpenAI、亞馬遜,Cerebras賭對了什么?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 特斯拉Optimus Gen3量產在即,哪些環節最具確定性?
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 4 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 5 Tesla AI5芯片最新進展總結
- 6 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 7 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 8 2026,人形機器人只贏了面子
- 9 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 10 AI Infra產業鏈卡在哪里了?


分享













