免费久久国产&夜夜毛片&亚洲最大无码中文字幕&国产成人无码免费视频之奶水&吴家丽查理三级做爰&国产日本亚欧在线观看

訂閱
糾錯
加入自媒體

英偉達給通信企業(yè)畫的"AI Grid大餅"好吃么?有人算了筆賬~

作者:Sophia物聯(lián)網(wǎng)智庫 原創(chuàng)

此前,在一年一度舉辦的 GTC 大會上,英偉達提出了被命名為“AI Grid”的宏大愿景,試圖將全球電信網(wǎng)絡(luò)轉(zhuǎn)型為人工智能(AI)的基礎(chǔ)設(shè)施。

所謂“AI Grid”,是一個由相互連接的 AI 基礎(chǔ)設(shè)施節(jié)點組成的網(wǎng)絡(luò),覆蓋 AI 工廠、區(qū)域接入點、中心機房、移動交換中心以及基站站點。這些節(jié)點配備全棧式 AI 基礎(chǔ)設(shè)施,并通過安全、高帶寬、低延遲的網(wǎng)絡(luò)連接在一起,能夠?qū)崿F(xiàn)數(shù)據(jù)、模型、智能體和工作負載的無縫流動,從而使整個網(wǎng)格像一個統(tǒng)一的分布式系統(tǒng)那樣運行。

圖源:英偉達官網(wǎng)

當(dāng)前,正在探索“AI Grid” 領(lǐng)域的電信運營商包括 T-Mobile US、Comcast 和 SoftBank 等,英偉達一直強調(diào),電信公司現(xiàn)有的資產(chǎn)(鐵塔、光纖和頻譜)使它們天然適合承載分布式推理基礎(chǔ)設(shè)施。然而,核心的問題在于——如果這一愿景真的代表了未來大勢,那電信運營商現(xiàn)在究竟應(yīng)不應(yīng)該把大量資金投入到分布式 AI 基礎(chǔ)設(shè)施中?

針對這一問題,ABI Research 近日發(fā)布了一份分析報告,幫電信公司算了一筆賬。該報告涵蓋了“AI Grid” 落地過程中的邊緣 GPU 部署、網(wǎng)絡(luò)延遲限制、總體擁有成本,其真正試圖厘清的核心矛盾在于:英偉達這一愿景在今天是否站得住腳,還是說,這是一場押注尚未到來的未來的昂貴賭博?

降低延遲是核心理由嗎?

在網(wǎng)絡(luò)的近邊緣或遠邊緣部署 GPU,最有力的理由就是延遲——那些需要近乎“實時”執(zhí)行和控制的應(yīng)用程序?qū)ρ舆t有嚴格要求,推理服務(wù)器物理上越接近終端用戶,響應(yīng)速度就應(yīng)該越快。

然而,ABI 的分析表明,這一論點聽起來合理,實則站不住腳,至少對于當(dāng)今主流的 AI 工作負載而言是如此。對于生成式 AI 來說,最重要的指標(biāo)是首字延遲 (TTFT,一個用于衡量網(wǎng)頁加載性能的關(guān)鍵指標(biāo),反映了從用戶發(fā)起請求到瀏覽器接收到第一個字節(jié)的時間長度) ,而網(wǎng)絡(luò)延遲根本不是其主要影響因素。標(biāo)準(zhǔn)的網(wǎng)絡(luò)往返時間確實可能達到 100 毫秒,但造成延遲的更大元兇——包括 DNS 解析、隧道建立,以及計算密集型的預(yù)填充和解碼階段——無論推理服務(wù)器物理上部署在哪里,都不會改變。以一個大約 1000 個 token 的中等規(guī)模提示詞為例,僅預(yù)填充階段就需要約 160 毫秒,而解碼階段可能延長至數(shù)秒。

這在實踐中意味著,對于常規(guī)的聊天機器人交互來說,將推理服務(wù)器移到離用戶更近的地方并不會顯著改善體驗。token 生成過程中的計算延遲,完全壓過了在網(wǎng)絡(luò)傳輸環(huán)節(jié)節(jié)省下來的時間。Latitude 公司首席執(zhí)行官 Guilherme Soubihe 在接受 RCR Wireless 采訪時指出了這一點:“絕大多數(shù)數(shù)據(jù)中心級 GPU 容量已經(jīng)被超大規(guī)模云廠商和前沿模型開發(fā)商用于大語言模型的訓(xùn)練和微調(diào),而這些工作負載并不會從邊緣位置中獲得有意義的收益,因為網(wǎng)絡(luò)延遲基本無關(guān)緊要。”

不過,情況其實要更復(fù)雜一些。英偉達 GTC 大會上的演示顯示,采用邊緣部署后,聊天機器人的往返延遲從 2000 毫秒下降到了 400 毫秒。Personal AI 首席執(zhí)行官 Suman Kanuganti 則對當(dāng)前延遲討論中通常圍繞單個請求展開的框架提出了質(zhì)疑。“AI Grid 并非針對單次調(diào)用進行優(yōu)化,而是為并發(fā)而優(yōu)化的。”他引用了一些基準(zhǔn)測試結(jié)果:在 P99 突發(fā)流量下,一個四節(jié)點的 AI Grid 能將語音延遲保持在 500 毫秒以內(nèi),同時吞吐量比基線提升 80%,而集中式部署在相同負載下則會出現(xiàn)性能下降。換言之,邊緣的優(yōu)勢不在于將單個請求縮短幾毫秒,而在于為數(shù)百萬個并發(fā)會話同時保持確定性的服務(wù)質(zhì)量。因此,對于單個消費者的查詢而言,延遲方面的優(yōu)勢可能并不明顯,但對于處理海量并發(fā)會話的運營商來說,其考量結(jié)果就開始有所不同了。

物理 AI 才是真正讓延遲成為架構(gòu)剛需的領(lǐng)域。自動駕駛汽車、配送無人機和機器人、視頻監(jiān)控、智能眼鏡以及 AR/VR,都大幅壓縮了可接受的延遲窗口——云端推理根本無法滿足這些要求。

ABI 用一個直白的例子闡明了這一點:在 100 毫秒的延遲下,一輛時速 100 公里的自動駕駛汽車相當(dāng)于有 2.8 米的距離處于“失明”狀態(tài)。當(dāng)面對需要近乎實時執(zhí)行的安全關(guān)鍵系統(tǒng)時,通過遠端的云數(shù)據(jù)中心進行路由推理是行不通的。同樣的原理適用于一系列新興應(yīng)用,包括最后一公里配送機器人和實時視頻分析。

當(dāng)然,問題在于時機。這些物理 AI 應(yīng)用中的大部分距離形成任何意義上的規(guī)模化都還有數(shù)年時間。愛立信美洲思想領(lǐng)導(dǎo)力負責(zé)人 Peter Linder 的核心觀點是,部署的理由需要來自網(wǎng)絡(luò)效率提升和未來收入潛力兩者的結(jié)合,而不僅僅是物理 AI 本身的需求;Kanuganti 則持更激進的觀點,他認為語音 AI、視頻智能和企業(yè) AI 服務(wù)是現(xiàn)在已經(jīng)存在的用例。如果自動駕駛汽車、無人機、人形機器人真的有那么接近大規(guī)模應(yīng)用,那么基礎(chǔ)建設(shè)現(xiàn)在就必須開始。

建設(shè)成本劃算嗎?

即使延遲論點和應(yīng)用場景最終能夠達成一致,建設(shè)分布式 AI 網(wǎng)格的財務(wù)挑戰(zhàn)依然令人望而生畏。ABI 的結(jié)論是,在未來兩到三年內(nèi),旨在降低標(biāo)準(zhǔn)延遲的大規(guī)模全國性邊緣服務(wù)器部署在財務(wù)上并不可行。基站部署尤其面臨嚴峻的單位經(jīng)濟效益問題——每個基站服務(wù)的用戶群有限,地理覆蓋范圍狹窄,這使得除了密集、高價值區(qū)域外,每個站點的回報都頗具挑戰(zhàn)。

為了用真實數(shù)據(jù)支撐討論,ABI 以美國的 T-Mobile 為例進行了模擬計算。T-Mobile US 曾在 GTC 大會上表示,“ kinetic tokens”將為全球電信運營商帶來巨大機遇,而為了利用其基礎(chǔ)設(shè)施資產(chǎn),運營商需要 AI-RAN 系統(tǒng)以及在網(wǎng)絡(luò)中部署 GPU。假設(shè) T-Mobile US 在美國運營約 13,000 個屋頂基站站點,并開始為其配備 AI-RAN 服務(wù)器(此場景中采用英偉達 ARC-1 服務(wù)器,單價 6 萬美元,每臺為三個基站提供算力),且到 2035 年完成部署,實現(xiàn)屋頂站點 GPU 全覆蓋——那么包括部署、冷卻及其他輔助成本在內(nèi),累計總成本將達到 37 億美元。如下所示的圖表展示了該示例部署場景下的年度總體擁有成本:

圖:T-Mobile US 在其所有屋頂站點逐步部署 GPU 服務(wù)器的年度總體擁有成本

假設(shè)收入能相應(yīng)增長,將投資分攤到九年,部署“AI Grid” 的投入就變得更為可控。此外,37 億美元的估算值在英偉達的體量下幾乎微不足道,但電信運營商及其投資者需要強有力的商業(yè)案例來支撐這一支出——尤其是當(dāng)這筆投入的規(guī)模相當(dāng)于部署一套新一代無線網(wǎng)絡(luò)時。

基礎(chǔ)設(shè)施的現(xiàn)實情況讓財務(wù)挑戰(zhàn)更加嚴峻,Kanuganti 表示,“通信鐵塔的設(shè)計初衷并不是為了容納和冷卻高密度計算設(shè)備”,這也解釋了為什么先行者會從具備冗余電源、冷卻和物理安全措施的有線近邊緣設(shè)施入手。Linder 也強調(diào)了這一點,他指出:“無線電站點通常環(huán)境惡劣,因此我們使用專門設(shè)計的、基于 ASIC 的計算來優(yōu)化功耗、性能和成本,并盡可能取消風(fēng)扇。”

這兩種觀點都得出了相同的結(jié)論:遠邊緣的建設(shè)取決于硬件能效的提升、專為邊緣 AI 設(shè)計的硬件形態(tài),以及將無線處理與 AI 推理整合到共享計算平臺上的 AI-RAN 架構(gòu)的出現(xiàn)。

鑒于所有這些限制因素,ABI 預(yù)測,AI 推理的初期部署將集中在核心網(wǎng)節(jié)點(通常一個國家內(nèi)少于 10 個),之后隨著低延遲需求增長和經(jīng)濟性改善,再逐步向外擴展到基站站點。許多應(yīng)用場景,包括視頻監(jiān)控、自動駕駛、最后一公里配送機器人、智能眼鏡以及 AR/VR 應(yīng)用,都使得邊緣推理不是可選項,而是架構(gòu)上的必然要求。早期的“AI Grid” 部署主要作用是為電信網(wǎng)絡(luò)面向未來做好鋪墊,為 6G 最終所需的分布式計算打下基礎(chǔ)。

英偉達畫的“大餅”好吃么?

按照英偉達的設(shè)想,“AI Grid” 旨在跨計算位置無縫處理 AI 工作負載,從而優(yōu)化成本、性能和用戶體驗。簡而言之,它們根據(jù)延遲、成本和策略目標(biāo)來決定模型應(yīng)該在何處運行以及 tokens 應(yīng)該如何流動。

賦能實時 AI 應(yīng)用場景:對話助手、AR/VR、在線游戲和工業(yè)機器人等實時 AI 應(yīng)用,為了實現(xiàn)沉浸式客戶體驗,需要嚴格控制延遲。“AI Grid” 通過將計算工作負載部署在盡可能靠近終端用戶和設(shè)備的物理位置,實現(xiàn)了此類對延遲高度敏感的應(yīng)用的大規(guī)模運行。

大規(guī)模優(yōu)化 Token 成本:多模態(tài)生成和高級推理模型生成的 Token 數(shù)量可達簡單文本型大型語言模型 (LLM) 的 100 倍,這顯著增加了網(wǎng)絡(luò)數(shù)據(jù)量,并推高了云出口成本。“AI Grid” 通過將這些 Token 密集型工作負載部署在具有最具成本效益的計算和網(wǎng)絡(luò)連接的分布式 AI 節(jié)點上來緩解這一問題,從而在不犧牲服務(wù)質(zhì)量的前提下,減少數(shù)據(jù)出口和帶寬消耗。

面向彈性和投資回報的地理彈性架構(gòu):“AI Grid” 可以運行從 AI 應(yīng)用到網(wǎng)絡(luò)功能的各種工作負載,同時優(yōu)化每個節(jié)點的利用率,從而提高基礎(chǔ)設(shè)施投資回報率并降低運營開銷,優(yōu)于單一用途系統(tǒng)。它們將多個分布式 AI 節(jié)點視為一個虛擬系統(tǒng),從而能夠更智能地擴展容量、應(yīng)對突發(fā)的需求高峰并顯著減少單點故障。

區(qū)域合規(guī)性和數(shù)據(jù)主權(quán):企業(yè)可以定義數(shù)據(jù)和模型在“AI Grid” 上的存儲和執(zhí)行位置,使部署符合區(qū)域規(guī)則,同時還能利用全球規(guī)模的協(xié)調(diào)能力。

基于以上受益,我們能看到英偉達正在積極構(gòu)建一種敘事,即電信公司將成為新型 AI 網(wǎng)格中的關(guān)鍵節(jié)點。但值得清醒認識到的是,這一框架對英偉達的好處,遠超其他任何一方。設(shè)備銷售、軟件授權(quán)、生態(tài)綁定——無論“AI Grid” 最終以何種形態(tài)落地,英偉達都將是最大的贏家;而對于電信運營商而言,這條路卻遠沒有那樣明朗。

率先行動的玩家或許未必能在短期內(nèi)看到真金白銀的回報,它們更多是在這個被英偉達等公司稱為“AI超級周期”的浪潮中,搶先占據(jù)一個戰(zhàn)略卡位。然而,這種卡位是否真的值得在收入來源尚未得到任何驗證之前,就投入數(shù)十億美元的資本支出,仍然是一個懸而未決的問題~

參考資料:ABI on AI infra | AI grid may be the next telecoms arms race (Analyst Angle)——RCRWirelessNvidia’s AI grid and the telco dilemma——RCRWirelessWhat Is an AI Grid?——英偉達官網(wǎng)英偉達的電信雄心:重塑2萬億美元網(wǎng)絡(luò)產(chǎn)業(yè)——C114通信網(wǎng)黃仁勛的物理AI野望:將5G網(wǎng)絡(luò)轉(zhuǎn)變?yōu)榉植际紸I計算機!——物聯(lián)網(wǎng)智庫

       原文標(biāo)題 : 英偉達給通信企業(yè)畫的"AI Grid大餅"好吃么?有人算了筆賬~

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    人工智能 獵頭職位 更多
    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號