就在英偉達GTC 2026大會前夕,AI芯片領域傳來一則重磅消息:明星初創公司Groq決定大幅提升其人工智能芯片產量,從去年的約9000片晶圓猛增至15000片,增幅高達66%。
要理解這66%產能躍升背后的深意,必須回溯到去年底那場震動業界的合作。2025年12月,英偉達以約200億美元的非獨家技術授權方式,實質性地“吞下”了Groq的核心資產。
交易的核心并非收購公司,而是獲取其革命性的LPU(語言處理單元)推理芯片技術,并吸納了包括創始人Jonathan Ross在內的約90%核心團隊。這位谷歌TPU項目的元老,帶著他顛覆性的架構理念,加入了英偉達的陣營。
這絕非一次普通的商業合作,而是一場針對未來算力戰爭的精準卡位。英偉達憑借Hopper和Blackwell架構,在AI模型訓練市場已近乎無敵。然而,在AI應用落地的最后一公里——推理環節,尤其是對延遲極度敏感的實時交互場景,傳統GPU的架構瓶頸開始顯現。
而Groq的LPU,正是為攻克這一短板而生。它采用激進的片上SRAM(靜態隨機存取存儲器)架構,摒棄了傳統GPU依賴的外部HBM(高帶寬內存),將數據存儲與計算單元極度拉近,從而實現了數量級的內存帶寬提升(高達80TB/s)和能效優化。
簡單來說,它讓AI推理變得像“閃電應答”,而這正是下一代AI應用體驗的核心。
那么,為何選擇在此時大幅提升產能?答案直指一個正在爆發的市場:AI推理。隨著ChatGPT、Sora等應用引爆全球,AI產業正從重投入的“訓練時代”,快速邁向規模化的“推理時代”。
訓練出一個大模型固然艱難,但讓全球數十億用戶流暢使用它,所需的推理算力將是訓練階段的數十甚至上百倍。
博通CEO陳福陽在最新財報中透露,其AI芯片收入同比暴增106%,并預計明年將超過1000億美元,這強勁增長的背后,正是推理需求的噴發。
Groq產能的暴增,可以看作是英偉達為迎接這場“推理海嘯”所做的關鍵備貨。
根據協議,Groq將繼續作為獨立公司運營,其芯片仍由三星電子的4納米晶圓代工部門生產。此次從9000片到15000片的提升,意味著三星相應的4nm產線需要開足馬力。
更有行業觀察指出,英偉達極有可能在即將于3月16日開幕的GTC 2026大會上,發布整合了Groq LPU技術的新一代推理芯片或“LPX機架”混合計算方案。
屆時,一個由英偉達GPU主導訓練、Groq LPU賦能高效推理的“黃金組合”將正式浮出水面。
這次產能擴張,也是Groq所代表的SRAM技術路線的一次重要驗證。在AI芯片領域,HBM(高帶寬內存)因其大容量一直是高端GPU的標配,但也帶來了高成本、高功耗和供應鏈依賴(尤其是臺積電CoWoS封裝)的挑戰。
Groq反其道而行之,用片上SRAM替代片外HBM,雖然單芯片存儲容量較小(230MB),但憑借超高的內部帶寬和極低的訪問延遲,在運行大語言模型推理時,實現了比GPU快10倍、能效高10倍的驚人表現。
這種“以速度換容量”的設計哲學,恰恰擊中了實時推理場景的命門。對于需要毫秒級響應的AI助手、實時翻譯、交互式創作等應用,用戶感知的不是模型參數有多大,而是回答有多快、多流暢。
Groq LPU正是為此而生,它通過復雜的編譯器技術,將大模型的計算任務精細編排,讓數據在龐大的SRAM陣列中如流水般精準送達每個計算單元,消除了傳統架構中的等待與擁堵。
此次產能提升,意味著市場和技術正在用真金白銀為這條差異化路線投票。
Groq的崛起與“被收編”,以及隨之而來的產能擴張,深刻反映了AI算力戰場的新邏輯:單純的硬件性能霸權正在讓位于全棧生態的競爭。
英偉達看似以巨額代價“招安”了一個挑戰者,實則是以最高效的方式,將一種可能顛覆其護城河的架構納入自身版圖,補齊了推理拼圖。這不僅防御了來自Cerebras等專用推理芯片廠商的沖擊,更對正在自研AI芯片的亞馬遜、微軟、谷歌等云巨頭構成了更強的生態壁壘。
算力的未來,不僅僅在于擁有最大的“腦容量”,還要鍛造最敏捷的“神經反射”。AI需要從深思的“學者”走向行動的“智者”。