英偉達發布 H200 NVL 與 GB200 NVL4 新品
編譯/前方智能
英偉達于 2024 年 11 月 18 日在亞特蘭大舉行的 SC24 高性能計算大會上宣布推出新款數據中心級 GPU —— H200 NVL,以及更強大的四 GPU 產品 GB200 NVL4 Superchip,進一步擴展其在 AI 和高性能計算領域的優勢。

圖源:英偉達
H200 NVL 是英偉達 Hopper 系列的最新成員,專為低功耗、風冷機架設計的數據中心打造。據調查顯示,約 70% 的企業機架功率在 20 千瓦以下,采用風冷方案。H200 NVL 采用 PCIe 接口設計,讓數據中心能夠靈活配置 GPU 數量,可選擇使用一個、兩個、四個或八個 GPU,從而在有限空間內實現更強大的計算能力。
與前代產品 H100 NVL 相比,H200 NVL 在性能方面實現了顯著提升:內存效率提高 1.5 倍,帶寬提升 1.2 倍。在大語言模型推理方面,性能最高可提升 1.7 倍;在高性能計算工作負載方面,相比 H100 NVL 性能提升 1.3 倍,較 Ampere 架構產品提升 2.5 倍。
新品還搭載了最新一代 NVLink 技術,GPU 間通信速度比第五代 PCIe 快 7 倍。每片 H200 NVL 配備 141GB 高帶寬內存,內存帶寬達到 4.8TB/s,熱設計功耗最高為 600 瓦。值得一提的是,H200 NVL 還附帶為期五年的 NVIDIA AI Enterprise 軟件平臺訂閱服務。

圖源:英偉達
同時發布的 GB200 NVL4 Superchip 是一款更為強大的產品,集成了兩個基于 Arm 的 Grace CPU 和四個采用 Blackwell 架構的 B200 GPU。該產品具備 1.3TB 的一致性內存,通過 NVLink 在四個 B200 GPU 間共享。與上一代 GH200 NVL4 相比,在 MILC 代碼模擬工作負載上速度提升 2.2 倍,在訓練 3700 萬參數的 GraphCast 天氣預報 AI 模型時快 80%,在使用 16 位浮點精度運行 70 億參數的 Llama 2 模型推理時同樣快 80%。
原文標題 : 英偉達發布 H200 NVL 與 GB200 NVL4 新品
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













