趨勢丨設計的代價:深度學習已經接近計算極限
深度學習時代AI模型需規模化擴展
現代AI模型需要消耗大量電力,而且對電力的需求正以驚人的速度增長。在深度學習時代,構建一流AI模型所需要的計算資源平均每3.4個月翻一番。
在當今以深度學習為中心的研究范式當中,AI的主要進步主要依賴于模型的規模化擴展:數據集更大、模型更大、計算資源更大。
在訓練過程中,神經網絡需要為每一條數據執行一整套冗長的數學運算(正向傳播與反向傳播),并以復雜的方式更新模型參數。
在現實環境中部署并運行AI模型,所帶來的能源消耗量甚至高于訓練過程。實際上,神經網絡全部算力成本中的80%到90%來自推理階段,而非訓練階段。
因此,數據集規模越大,與之對應的算力與能源需求也在飛速增長。模型中包含的參數量越大,推理階段所帶來的電力需求就越夸張。

雖然深度網絡會是解決方案的一部分,但還需要涉及組合原則和因果模型的互補方法,以捕捉數據的基本結構。此外,面對組合性爆炸,需要要再次思考如何訓練和評估視覺算法。
每一次人工智能低谷來臨之前,都會有科學家夸大和炒作他們創造的潛力,僅僅說他們的算法就能夠很好地完成某項任務是不夠的。
對大多數問題來說,深度學習并不是正確的解決方法,不要試圖為所有的問題尋找通用人工智能解決方案,因為它根本就不存在。
結尾:
深度學習的發展可能已達極限,但其影響還將持續深遠。為了避免在“人工智能冬天”中被淘汰的命運,能做的最好的事情就是明確你要解決的問題,并理解其本質;然后,尋找為特定問題提供解決方案的直觀路徑的方法。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













