給手機“減負”!Facebook發布提高設備AI工作能效的AutoScale
3 款手機實驗,3 次場景模擬
為了驗證AutoScale的有效性,團隊在三款智能手機上進行了實驗,每款手機都用功率表測量其能耗,這三款手機分別是:小米Mi 8 Pro、三星Galaxy S10e和摩托羅拉Moto X Force。為了模擬云推理執行,他們將手機連接到服務器,通過Wi-Fi Direct將三星S6平板電腦連接到手機,模擬執行AI助手的口令。
AutoScale的推理方式主要分為五步:1. 將DNN特征和環境信息等設置為輸入源2. 在查找表中選擇合適的預測操作3. 將AI工具分配到預測的位置4. 記錄AI工具的運行能效,評估各參數后給出R值5. 將記錄好的參數更新在查找表里,實現自適應性預測。

針對這三款手機,AutoScale準確選擇出理想的執行目標
實驗顯示,在自動定量訓練階段,設備執行了100次推理訓練,使用了64,000個訓練樣本,并編譯或生成了10個AI模型,其中包括機器翻譯工具MobileBERT和圖像分類器Inception。團隊分別在靜態和動態設置情況下展開后續實驗,針對每種設置情況模擬了三個不同的場景:
· non-streaming計算機視覺測試場景,允許AutoScale對手機攝像頭拍攝照片功能進行推理;
· streaming計算機視覺場景,AutoScale可以對手機攝像頭的實時拍攝視頻功能進行推理;
· 調用翻譯工具的場景,AutoScale能夠對翻譯AI工具的編譯過程進行推理。

在現實環境模擬中,AutoScale準確預測了理想執行目標,并極大地提高了DNN邊緣推理的能效。在以上三個場景中,AutoScale的表現都優于基線模型。AutoScale的網絡延遲度較低,在non-streaming計算機視覺測試場景中的延遲時間甚至縮短到小于50毫秒,其在翻譯場景中的延遲時間則小于100毫秒。它也同時在維持低延遲的條件下保持了高性能,比如在streaming計算機視覺場景中,它可以達到每秒處理約30幀畫面的工作效率。
此外,AutoScale的預測準確率高達97.9%,在邊緣推理方面的能效是基線模型所能做到的1.6~10.8倍。它占用的內存也較小,僅有0.4MB,相比之下,中端手機的內存容量為3GB,AutoScale僅需占用0.01%,可見其“性價比”之高。
Facebook和亞利桑那州立大學的研究人員樂觀地表示:“我們證明了AutoScale是一個可行的、能夠自動化推理出最低AI能耗的解決方案的模型,并將為在各種實際執行環境下進行DNN邊緣推理的能效改進工作預先做好萬全的準備。”

最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?



分享













