龍蝦帶火騰訊云漲價400%,普通人還用得起AI嗎?

AI自由,與普通人無緣了
云計算只能降價的幻覺,在2026年被戳破了。
近日,騰訊云智能體開發平臺宣布,將對部分模型的計費策略進行優化調整。
根據公告,本次調整主要涉及兩類變更,一類是公測模型結束免費,GLM 5、MiniMax 2.5、Kimi 2.5模型將于3月13日結束免費公測,轉為正式商用服務;另一類變更為對混元系列模型Tencent HY2.0 Instruct與Tencent HY2.0 Think服務進行漲價,部分模型漲幅超400%。

而騰訊云,并非首個漲價的云平臺。
2月11日,優刻得發布了關于產品服務價格上浮調整的公告。優刻得表示,近期由于全球供應鏈波動持續加劇,核心硬件采購等基礎設施成本出現顯著且結構性的上漲。經過慎重評估,決定自3月1日起,對續簽及新簽用戶的全線產品與服務進行價格上浮調整。
這股漲價浪潮,并不只是中國本土云廠商的集體躁動。把目光拉到大洋彼岸,會發現更早的那塊多米諾骨牌,其實是亞馬遜悄悄推倒的。
1月4日,在沒有公告函,沒有發布會的情況下,AWS將EC2的價格上調約15%,旗艦機型從每小時34.61美元漲到了39.80美元。
谷歌云沒等太久,隨即宣布自今年5月1日起,上調全球數據傳輸服務價格,北美地區每GB費率直接翻倍,從0.04美元漲至0.08美元。沒有大張旗鼓,一紙公告,就這么定了。
AWS、谷歌、騰訊、優刻得,橫跨太平洋,東西方的云廠商們,在同一個時間窗口里,不約而同地做出了漲價的決定。也打破了一個持續了將近二十年的行業信仰:云服務只降價,不漲價。
那么,這次漲價是行業二十年降價神話的終結,還是一次周期性的價格修復?Token的單價,會因此一路水漲船高嗎?未來你為AI付出的總賬單,會越來越便宜還是越來越貴呢?
01
前二十年云廠商怎么把價格打下來的
這次漲價令人震驚的原因,主要是用戶們早已習慣了云計算連續二十年的降價生意。
云計算這門生意,骨子里是一場關于“規模”的豪賭。
2006年,亞馬遜推出AWS的時候,邏輯其實很樸素,自家數據中心有大量閑置服務器,與其讓它們吃灰,不如按小時租出去。這個聽起來像“出租倉庫空余貨架”的生意,在接下來二十年里,把全球IT行業的底層基礎設施翻了個底朝天。
據超聚焦不完全統計,AWS在過去的二十年里,累計主動降價的次數早就超過了一百次。而在國內,阿里云、騰訊云們更是把“降價”當成了一年幾度的狂歡節。這種連續多年近乎“自殘”的定價策略,把全球IT行業的基礎設施硬生生地砸出了一個深坑。
這在任何其他行業都是天方夜譚的事,沒有哪個房東會年年主動給你降租金,沒有哪家超市會每個季度把貨架上的價格標簽往下調。但云計算行業,就是做到了,而且一做,就是二十年。
那么,為什么只有云計算行業能做到?
原因其實很簡單,把價格打下來,首先是因為物理世界在給他們撐腰。
傳統云計算,也就是我們常說的IaaS層(基礎設施即服務),本質上賣的就是“鐵皮和電”。無論是計算實例、存儲空間還是網絡帶寬,它都是極其標準化的數字水電煤。而這些數字資源的底層,受制于一條近乎殘酷的物理法則:摩爾定律。
芯片晶體管的密度每隔18到24個月就會翻一倍,這意味著單位算力的物理成本一直在呈現自由落體式的下跌。云廠商采購新一代服務器的成本越來越低,他們相當于坐享了這波技術周期的巨大紅利。
但這份紅利,卻從沒完整地進入過云廠商的口袋里,因為傳統云服務的同質化實在太嚴重了。
你家的服務器能跑代碼,別人家的也能跑。如果你貪圖利潤,不把硬件降價的紅利傳導給客戶,你的競爭對手明天就會出一個比你低30%的報價單,直接把你辛辛苦苦攢下的客戶盤子連鍋端走。
所以,降價不是一種選擇,而是一種為了生存的本能防御。你不主動降價,有的是云廠商要降。
而除了技術推動外,規模效應也是云服務的又一大特征。
建一個超大型數據中心,買地、拉電線、蓋機房、買幾萬臺服務器,這是一筆動輒幾十上百億的恐怖固定投資。
一旦這個數據中心建好了,冷氣吹起來了,服務器轉起來了,這時候如果再多接入一個創業公司的網站,或者多處理一百萬條數據請求,云廠商需要付出的邊際成本是多少?答案是幾乎等于零。頂多就是多耗了幾毛錢的電費而已。
這就是云計算最迷人的商業杠桿。規模大到一定程度后,你服務的客戶越多,均攤到每個客戶頭上的固定成本就越薄。
在這個邏輯下,大廠們看得很通透。只要能把盤子做大,眼前的單價根本不重要。用極低的價格去瘋狂搶占市場份額,有了份額就能攤薄成本,成本降下來了就可以繼續用更低的價格去卷死同行,這是一套無懈可擊的正向飛輪。
巨頭們的算盤打得震天響,這套“低價換壟斷”的理想確實很豐滿。按照原定的劇本,只要資金彈藥足夠充足,總能把那些底子薄的同行熬死。等到自己一統江山、獨霸天下的那一天,定價權自然就死死捏在了自己手里。
但現實的骨感在于,能坐上這張牌桌的玩家,有一說一,全都是武裝到牙齒的“列強”。
放眼望去,大洋彼岸是亞馬遜、微軟和谷歌這“三座大山”,國內則是阿里、騰訊、華為這些口袋深不見底的狠角色。大家手里都有花不完的現金流,都有就算主業貼錢也絕不能下桌的戰略底線。你想用低價把我耗死?對不起,大家都是萬億估值的巨頭,誰又比誰少一口氣。
于是,云計算的降價硬生生打成了一場長達二十年的泥潭消耗戰。
客觀來說,正是這種毫無退路的殘酷互卷,實打實地推動了整個云計算行業的技術狂飆。它把原本高不可攀的企業級IT設施,硬生生變成了今天的“水電煤”。沒有這場長達二十年的價格戰,就沒有今天繁榮的互聯網生態。
但這個將所有互聯網巨頭都卷入其中的降價旋渦,卻從來沒有停過。直到2026年,大模型需求的大爆發,突然讓這個轉了二十年的降價飛輪卡了殼。
02
短期漲價是假動作 長期賬單才是真殺局
云廠商之所以突然變臉開始集體漲價,原因其實非常實在:他們機房里的硬件,快被2026年初突然爆發海量的AI需求給干冒煙了。
大模型剛火的時候,巨頭們并沒有立刻提價,反而大搞免費公測。這就好比超市剛進了新口味的飲料,先擺在門口讓你免費試喝。這時候大家只是嘗個鮮,問大模型幾個搞笑問題,用量并不大,云廠商那點算力儲備完全罩得住。
但到了2026年,情況徹底變了。企業發現這玩意兒真能干活,開始把客服系統、內部數據分析甚至核心業務流,全盤接入了大模型。個人用戶也發現,Openclaw這樣的Agent產品,好像真的能幫自己做些沒那么復雜的任務。
這時候,Token的消耗量就不再是細水長流,而是海嘯一樣的爆發。
就像優刻得在公告里交的底,說“核心硬件等基礎設施成本出現顯著且結構性的上漲”。這話翻譯過來就是:你們用得太猛了,我去買頂級顯卡和交電費的錢,已經把老本都快掏空了。
這就是眼下這波漲價潮最真實的底層邏輯。它根本不是什么云廠商終于掌握了定價權,而是一次極其尷尬的“供需錯配”。
現在的云端機房里,很多跑推理的設備,其實是最初為了“訓練”大模型而買的通用重型GPU。拿這種又貴又耗電的產品去處理日常海量的Token生成,成本自然全線崩塌。
一邊是企業暴漲的使用量,一邊是手里效率低下的舊賬本,云廠商扛不住現金流的壓力,只能通過漲價來給自己回一口血。
不過,很多人看到騰訊云結束免費、AWS上調費率,心里就慌了。大家理所當然地覺得,既然AI越來越聰明,成了離不開的剛需,那云廠商以后肯定會漫天要價,未來用大模型的賬單只會是個無底洞。
其實,這完全是自己嚇自己。現在的算力貴,是因為我們正處在一個硬件“青黃不接”的尷尬期,但造芯片的巨頭們可沒閑著。
當大模型的應用場景徹底鋪開后,市場已經不需要那么多用來“練腦子”的訓練芯片了,而是急需海量的“干苦力”的推理芯片。未來很快,專門為生成Token進行針對性設計與優化的新一代推理硬件就會大規模塞滿數據中心。
譬如,在即將召開的GTC大會上,業界推測最大的亮點之一,就是英偉達將會推出整合了LPU技術的全新推理芯片。而除了英偉達之外,國內的寒武紀等廠商,做的也都是推理芯片的生意。
這些新硬件砍掉了沒用的計算單元,專攻數據的吞吐。這就意味著,在消耗同等電量的情況下,新機器產出Token的效率會呈指數級往上翻。一旦底層的物理效率提上去了,單個Token的成本就會繼續降低。
更關鍵的是,除了硬件在迭代,軟件工程師們把成本往下摳的本事,也已經到了登峰造極的地步。
過去模型比較傻,你問一句今天天氣怎么樣,它要把幾千億參數的整個大腦全喚醒一遍,浪費了無數的電。現在大家都在拼命優化底層架構,通過混合專家模型等技術,讓系統只喚醒負責天氣的“那一小撮腦細胞”,剩下的大部分繼續休眠。
這種在軟件層面對算力的極限壓榨,配合上新一代硬件的落地,會讓云廠商機房里生成一個Token的真實成本持續下滑。
所以,這次漲價大概率僅僅是舊硬件被新需求榨干時的一次短暫反彈,單個Token的價格,還在朝著接近零的方向俯沖。
03
便宜的是Token 昂貴的是“智能”
既然Token的單價注定會跌成白菜價,那我們是不是很快就能實現“AI自由”了?
答案并非如此。當我們說“Token變便宜了”,默認完成同樣的任務,消耗的Token量是固定的。但這個假設,在AI從“問答工具”進化為“Agent智能體”的過程中,已經徹底失效了。
2023年的時候用AI是什么體驗?你輸一段話,它回一段話,一次對話消耗一兩千個Token,對應幾分錢的成本。
但在2026年后,AI的使用范式發生了根本性轉變。當一個Agent被要求獨立完成一項真實的商業任務,比如分析一份競品報告、幫你審核一份合同、自動處理一批客戶郵件,它在后臺要做的事情遠比你想象的復雜。
它會在暗中一步步推演邏輯,會反復去調用搜索引擎和公司的數據庫。如果發現自己沒有完成任務,它甚至會自我去技能庫里面學習新的技能,然后再嘗試完成。
在這套復雜的工作流里,AI在后臺每糾結一次、每調取一次工具,你的Token都在狂飆。所以,相比兩年前的AI應用,Token消耗量可不只是幾倍十幾倍的增長了。
經濟學里有個特別經典的蒸汽機故事。150年前,瓦特改良了蒸汽機,用煤的效率大幅提升。按理說大家該省下不少煤了吧?結果恰恰相反,因為成本降了,所有的工廠都在瘋狂上馬蒸汽機,最后整個英國的煤炭消耗量反而原地爆炸。
今天大模型的算力消耗,正在一分不差地復刻這個劇本。效率越高,單價越低,總消耗反而越大。
有人會問:既然算法在持續優化,會不會有一天效率提升得夠快,足以抵消消耗量的增長?
結果是令人遺憾的,無論算法如何優化,AI的運算最終要在物理世界中發生。
每一次硅基晶體管的狀態翻轉,每一滴冷卻液的循環,都需要消耗實打實的電力和能源。當全球數以億計的Agent開始7x24小時不間斷地接管人類生活和工作中的海量任務,這種全天候的、指數級膨脹的超高頻調用,最終都會化作數據中心里永不停歇的轟鳴和飆升的電表數字。
物理世界的能源天花板,注定了算力不可能憑空無限生長的。這也回答了我們在文章開頭提出的那個核心問題:未來你為AI付出的總賬單,會越來越便宜還是越來越貴?
答案十分明確且扎心:絕對金額一定會越來越貴,甚至會貴得多。
如果把以上所有的商業邏輯與物理常識推演到終點,我們會得出一個令人極度不適的“暴論”。
在過去的三十年里,古典互聯網時代編織的是一個溫情脈脈的敘事:技術是偉大的“平權機器”。搜索引擎讓所有人都能平等地獲取信息,社交媒體讓草根擁有了聲量,智能手機填平了城鄉的信息鴻溝。由于軟件分發的邊際成本趨近于零,技術紅利得以跨越階層,普惠大眾。
但在AI時代,這個烏托邦式的邏輯,正在殘酷地斷裂。
當大模型從“對話框里的百科全書”真正進化為“代替人類思考決策的超級Agent”時,它天然就是一個深不見底的Token吞金獸。那種真正強大的AI能力,絕不會像當年瀏覽網頁一樣趨近于免費。它的成本,會隨著任務復雜度的幾何級躍升,成正比地無限放大。
可以預見的是,當云計算長達二十年的“降價普惠”已經走到了盡頭,未來的智能,將不可避免地呈現出一種極其森嚴的“階層化”。
處于資金鏈頂端、用得起高質量AI算力的人或企業,他們的生產力將被優質Agent指數級放大。他們的商業嗅覺更敏銳、決策鏈路更短、執行效率遠超常人,而這種優勢還會隨著高頻調用所產生的數據飛輪進一步疊加,對下層形成降維打擊。
而付不起昂貴賬單的普通人和中小企業,將只能依靠被簡化、被稀釋、套著免費外殼的“低配版智能”。這種版本能幫你寫寫應付差事的周報、畫兩張配圖,但面對真正能跨越階層的復雜商業博弈、頂級醫療診斷或硬核法律分析時,它只能給出似是而非的廢話。
這不是科幻小說里的反烏托邦想象,這是最冷冰冰的現實與發生在我們身邊的未來。
從古至今,廉價的從來都只是單純的“計算”與“信息”。而真正頂級的“認知”,永遠昂貴,永遠是少數人的特權。大模型不僅沒有打破這層壁壘,反而用飆升的電表和昂貴的Token賬單,把這道認知之墻砌得比任何時候都更高,也更讓人難以察覺。
這才是這波云服務漲價潮背后,讓人感到戰栗的時代真相。
- END -
原文標題 : 龍蝦帶火騰訊云漲價400%,普通人還用得起AI嗎?
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 特斯拉Optimus Gen3量產在即,哪些環節最具確定性?
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 4 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 5 Tesla AI5芯片最新進展總結
- 6 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 7 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 8 2026,人形機器人只贏了面子
- 9 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 10 AI Infra產業鏈卡在哪里了?


分享













