谷歌公布新研究BiT探索大規模數據如何影響預訓練模型性能
計算機視覺的研究人員在利用現代深度神經網絡解決問題時常常會無奈地感受到其對數據的龐大需求,當前很多先進的CNN模型都需要在像OpenImages和Places這樣包含上百萬張標注圖片的數據集上進行訓練。然而對于很多領域的應用來說,收集如此海量的數據其時間和經濟成本幾乎是常人無法承受的。
為了解決計算機視覺領域缺乏數據的問題,人們提出了預訓練模型的遷移學習方法,通過在大規模的通用數據上進行預訓練而后再復用到目標任務上,用少量數據對模型進行適應性調優。
盡管預訓練模型在實踐中十分有效,但它仍不足以迅速地在新場景下掌握概念并進行深入的理解,在工程實踐中還面臨著一系列問題。由于大規模的預訓練使得BERT和T5等方法在語言領域取得了巨大的進展,研究人員堅信大規模的預訓練可以有效提升計算機視覺任務的性能。
為了充分研究大規模預訓練和遷移學習的內在機理和規律,來自谷歌的研究人員發表了一篇名為BigTransfer的論文,探索了如何有效利用超常規的圖像數據規模來對模型進行預訓練,并對訓練過程進行的系統深入的研究。研究人員發現,隨著預訓練數據的增加,恰當地選擇歸一化層、拓展模型架構的容量對于預訓練的結果至關重要。
在有效的調整和訓練后,這種方法展示了多個領域的視覺任務上展現了前所未有的適應性和先進的性能,包括小樣本是識別任務和最近提出的真實數據基準ObjectNet上都取得了非常優異的成績。

預訓練
為了探索數據規模對于模型性能的影響,研究人員重新審視了目前常用的預訓練配置(包括激活函數和權重的歸一化,模型的寬度和深度以及訓練策略),同時利用了三個不同規模的數據集包括:ILSVRC-2012 (1000類128萬張圖像), ImageNet-21k (2.1萬類的1400萬張圖像) 和 JFT (1.8萬類的三億張圖像),更重要的是基于這些數據研究人員可以探索先前未曾涉足的數據規模。
研究人員首先探索了數據集規模和模型容量間的關系,選擇了ResNet不同的變體進行訓練。從標準大小的“R50x1”到x4倍寬度的,再到更深度152層“R152x4”,都在上面的數據集上進行了訓練。隨后研究人員獲得了關鍵的發現,如果想要充分利用大數據的優勢,就必須同時增加模型的容量。
下圖左半部分箭頭開頭的擴大顯示了這一結論,數據量增大的情況下容量更大的模型性能增加更大,而容量小的模型反而會有一定程度地下降。

左半部分顯示了隨著數據量的增加需要擴充模型的容量,紅色箭頭的擴大意味著小模型架構在大數據集下變差,而大模型架構則得到改善。右圖顯示了在大數據集下的預訓練并不一定改善,而是需要提高訓練時間和計算開銷來充分利用大數據的優勢。
其次,訓練的時間對模型性能也具有關鍵的作用。如果在大規模數據集上沒有進行充分地訓練調整計算開銷的話,性能會有顯著下降(上圖中有半部分紅色點到藍色點下降),但通過適當地調整模型訓練時間就能得到顯著的性能提升。
在探索的過程中研究人員還發現了適當的歸一化可以有效提升性能。下圖中展示了將批歸一化BN替換為組歸一化GN后可以有效提升預訓練模型在大規模數據集上的性能,其原因主要來源于兩個方面。
首先在從預訓練遷移到目標任務時BN的狀態需要進行調整,而GN卻是無狀態的從而避開了需要調整的困難;其次,BN利用每一批次的統計信息,但這對于每個設備上的小批量來說這種統計信息會變得不可靠,而對于大型模型來說多設備上的訓練不可避免。由于GN不需要計算每個批次的統計信息,又一次成功避開了這一問題。

圖中展示了預訓練策略,在標準ResNet基礎上增加寬度和深度,將BN替換為GN和權重標準化,并在非常大規模數據集上訓練更長的時間。
請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
- 1 AI狂歡遇上油價破百,全球股市還能漲多久? | 產聯看全球
- 2 OpenAI深夜王炸!ChatGPT Images 2.0實測:中文穩、細節炸,設計師慌了
- 3 6000億美元估值錨定:字節跳動的“去單一化”突圍與估值重構
- 4 Tesla AI5芯片最新進展總結
- 5 連夜測了一波DeepSeek-V4,我發現它可能只剩“審美”這個短板了
- 6 熱點丨AI“瑜亮之爭”:既生OpenClaw,何生Hermes?
- 7 AI界的殺豬盤:9秒刪庫跑路,全員被封號,還繼續扣錢!
- 8 2026,人形機器人只贏了面子
- 9 DeepSeek降價90%:價格屠夫不是身份,是戰略
- 10 AI Infra產業鏈卡在哪里了?


分享













