熱點丨谷歌 Meta聯手,用TPU+PyTorch擊打英偉達軟肋
前言:
谷歌與Meta宣布深化合作,讓PyTorch更好地原生支持Google TPU。
這是一次繞開英偉達CUDA生態、直擊其護城河根基的系統性動作。
這不是一次簡單的[反英偉達聯盟],而是一次云廠商×超級應用廠商,對算力話語權的再分配嘗試。
圖片來源 | 網 絡
英偉達的CUDA護城河與行業集體焦慮
市場普遍認為,英偉達的優勢在于GPU性能領先、制程先進、HBM和NVLink技術強,但這些都是表層優勢。
英偉達真正不可替代的核心只有一個:CUDA生態鎖定。
CUDA做了三件事:綁定開發者心智、綁定軟件工具鏈、綁定模型與代碼資產。
結果是:用英偉達=開發成本最低,換平臺=重寫代碼+不確定風險。
這是一種生態稅,而不是硬件溢價。
自2016年PyTorch發布以來,這款由Meta主導的開源框架迅速成為AI開發者的通用語言,而英偉達的工程師們始終確保PyTorch開發的模型在其GPU上實現最優性能。
大量的性能優化、算子實現和工程經驗沉淀在CUDA+PyTorch組合中,形成了極高的遷移成本。
在硅谷,幾乎沒有開發者會為特定芯片逐行編寫底層代碼,PyTorch這樣的框架成為連接開發者與硬件的默認抽象層,而CUDA則成為這層抽象背后的技術基石。
這種壟斷格局讓整個行業陷入集體焦慮,對于Meta這樣的巨頭而言,2025年GPU采購預算高達720億美元,卻仍面臨高價搶貨的困境,推理成本居高不下。
行業對替代方案的渴求日益強烈,當AI推理成本持續飆升,OpenAI 2024年推理支出已達23億美元,是GPT-4訓練成本的15倍。
谷歌與Meta的聯手,正是在這樣的行業痛點下應運而生。

TorchTPU計劃的技術破局與戰略深意
Meta并不是英偉達的敵人,事實上,Meta是英偉達最大的客戶之一,LLaMA、推薦系統、廣告模型都深度依賴GPU。
那為什么Meta要推動PyTorch×TPU?原因只有一個:算力主權。
Meta的AI規模意味著任何10%的成本波動,都是天文數字,任何算力瓶頸都會影響產品節奏。
通過PyTorch,Meta可以降低[非CUDA平臺]的使用門檻,為自己保留更多算力選擇權,迫使英偉達在談判中失去絕對優勢,這是一種長期議價權布局。
近日,谷歌正式推進代號為[TorchTPU]的戰略行動,核心目標直指TPU與PyTorch的原生級兼容,讓全球最主流的AI框架能在谷歌自研芯片上高效運行。
與過往對PyTorch的零星支持不同,谷歌此次投入了前所未有的組織關注度和戰略資源,甚至考慮將部分軟件開源,以加速客戶遷移進程。
而作為PyTorch的創建者和守護者,Meta的深度參與讓這場技術突圍更具顛覆性。
TorchTPU計劃的本質,是消除橫亙在TPU硬件與PyTorch生態之間的技術壁壘。
谷歌第七代TPU Ironwood在硬件上已具備強大競爭力,FP8精度下峰值算力達4614 TFLOPS,配備192GB高帶寬內存,能效比遠超英偉達B200。

但長期以來,軟件生態的缺失讓這些硬件優勢難以發揮。
通過與Meta的合作,谷歌正在重構TPU的軟件棧。開發者無需大幅改寫代碼,即可實現PyTorch模型向TPU的無縫遷移,谷歌推出的TPU指揮中心更進一步降低了部署門檻。
這種高性價比硬件+主流生態的組合,直接沖擊了英偉達的核心優勢。
據測試,在LLM推理、圖像生成等張量密集型任務中,TPU的性價比是英偉達H100的四倍,運行BERT服務等任務的速度比A100 GPU快2.8倍,同時節能60-65%。
這場合作對谷歌與Meta而言,是一場精準的戰略互補。
對谷歌來說,TPU早已不是單純的內部工具,2022年谷歌云部門獲得TPU銷售主導權后,其銷量已成為谷歌云營收增長的重要引擎。
2025年起,谷歌更開始將TPU直接出售給客戶的數據中心,組織架構也隨之調整,老將Amin Vahdat被任命為AI基礎設施負責人,直接向CEO皮查伊匯報。
TorchTPU計劃的成功,將徹底打開TPU的商業化空間,據摩根士丹利預測,到2027年TPU產量將達500萬塊,2028年增至700萬塊,每賣出50萬塊即可為谷歌帶來130億美元營收。
對Meta而言,合作的戰略價值同樣顯著。作為英偉達最大的客戶之一,Meta長期受困于對GPU的過度依賴。
通過推動PyTorch與TPU的適配,不僅能獲得更便宜的推理算力,更能實現硬件基礎設施多元化,在與英偉達的采購談判中掌握更多籌碼。
據悉,Meta計劃2026年通過谷歌云租賃TPU,2027年斥資數十億美元采購硬件部署自有數據中心,用于Llama模型微調等算力密集型任務。
TorchTPU計劃最具革命性的一點,在于其開源導向。谷歌考慮將部分軟件棧開源,這與英偉達CUDA的封閉生態形成鮮明對比。
PyTorch作為全球超半數AI開發者的首選框架,本身就具備強大的開源社區基礎,其與TPU的深度融合,將形成首個真正由開源生態驅動、直接沖擊英偉達軟件護城河的挑戰者。
過去,英偉達通過CUDA生態鎖定開發者和客戶,形成越用越依賴的路徑依賴。
而TorchTPU計劃則以開源為武器,降低了開發者的遷移成本,讓更多企業有機會擺脫[英偉達稅]。
TPU+PyTorch的象征意義在于,AI算力正在從[芯片中心主義],走向[生態與系統博弈]。

巨頭加入或將加速市場轉移
形象地說,GPU就像一位多才多藝的運動員,精通多項運動;而TPU則像一位奧運短跑冠軍,在特定領域做到極致。
隨著AI算力需求從訓練向推理轉移,據預測,到2030年推理將消耗75%的AI計算資源,市場規模達2550億美元,這種技術路線的對決將直接決定行業的未來走向。
在AI推理成為算力需求主流的未來,這種[專精]往往比[全能]更具競爭力。
這場技術對決已經開始影響市場格局,摩根士丹利預測,2026年ASIC出貨量將首次超過GPU,AI數據中心市場將從GPU一家獨大轉向多極制衡。
目前,已有多家巨頭開始向TPU遷移,圖像生成器Midjourney 2024年轉向TPU后,推理成本驟降65%,從每月200萬美元降至70萬美元,吞吐量提升3倍。
Claude的開發商Anthropic與谷歌達成數百億美元交易,承諾采用多達一百萬個TPU,到2026年將釋放超過1GW的計算容量。
蘋果也已開始使用TPU訓練AI模型,成為谷歌云TPU的重要客戶。
據谷歌云高管預測,僅TPU的采用就可能占到英偉達10%的收入,這意味著每年將有數十億美元的市場份額轉移。
而隨著Meta等巨頭的加入,這種市場轉移可能會加速。
除了谷歌TPU,亞馬遜的Trainium、微軟的Maia以及Cerebras、Groq等初創公司的專用芯片也在涌入市場,進一步加劇了市場的多元化。
野村證券預測,2030年AI數據中心潛在市場規模將達1.2萬億美元,足夠容納多家參與者共同發展。
谷歌與Meta的這次聯手,不會立刻改變市場格局,卻已經改變了長期敘事。
英偉達不再是唯一的AI時代基礎設施,算力開始像云計算一樣,走向多供應、多生態,
超級平臺正在收回底層控制權。

結尾:
這不是一場短期的勝負之爭,而是一場未來十年AI基礎設施主導權的慢變量戰爭。
真正值得關注的不是英偉達是否被挑戰,而是當算力不再被一家定義,AI的創新速度和成本結構,將被重新改寫。
而這,才是TPU+PyTorch背后,最具殺傷力的部分。
部分資料參考:頭部科技:《谷歌TPU讓黃仁勛[慌了神]》,不慌實驗室:《谷歌聯手Meta挑戰英偉達!打響算力突圍戰?》,差評X.PIN:《谷歌憋了十年的大招,讓英偉達好日子到頭了?》,新智元:《英偉達危,谷歌聯手Meta要讓TPU支持PyTorch,擊穿CUDA護城河》,半導體行業觀察:《難怪高通急了》
原文標題 : 熱點丨谷歌 Meta聯手,用TPU+PyTorch擊打英偉達軟肋
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 特斯拉Optimus Gen3量產在即,哪些環節最具確定性?
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 4 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 5 Tesla AI5芯片最新進展總結
- 6 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 7 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 8 2026,人形機器人只贏了面子
- 9 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 10 AI Infra產業鏈卡在哪里了?


分享













