本文對按比例擴大的NFNets 進行了評估,並挑戰了ConvNets 在大規模問題上表現不如ViTs 的觀點
深度學習的早期成功可歸功於卷積神經網路(ConvNets)的發展。近十年來,ConvNets 主導了電腦視覺基準測試。然而近年來,它們越來越多地被 ViTs(Vision Transformers)所取代。
很多人認為,ConvNets 在小型或中等規模的資料集上表現良好,但在那種比較大的網路規模的資料集上卻無法與 ViTs 競爭。
同時,CV 社群已經從評估在特定資料集(如 ImageNet)上隨機初始化網路的效能,轉變為評估從網路收集的大型通用資料集上預訓練的網路的效能。這引出了一個重要的問題:在相似的運算預算下,Vision Transformers 是否優於預先訓練的 ConvNets 架構?
在這篇文章中,來自Google DeepMind的研究人員對這個問題進行了研究。他們透過在不同尺度的JFT-4B資料集上對多種NFNet模型進行預先訓練,獲得了類似於ViTs在ImageNet上的性能
##論文連結地址: https://arxiv.org/pdf/2310.16764.pdf本文的研究討論了預訓練計算預算在0.4k到110k TPU-v4核計算小時之間的情況,並利用增加NFNet模型家族的深度和寬度來進行一系列網路訓練。研究發現,有held out 損失與計算預算之間的對數-對數擴展率(scaling law)例如,本文將以JFT-4B為基礎,在TPU-v4核小時(核心小時)從0.4k擴展到110k,並對NFNet進行預訓練。經過微調,最大的模型在ImageNet Top-1上達到了90.4%的準確率,在相同的計算預算下與預訓練的ViT模型競爭 可以說,本文透過評估按比例擴大的NFNets,挑戰了ConvNets 在大規模資料集上表現不如ViTs 的觀點。此外,在足夠的資料和運算條件下,ConvNets 仍然具有競爭力,模型設計和資源比架構更重要。 看到這項研究後,圖靈獎得主Yann LeCun表示:「在給定的計算量下,ViT和ConvNets在計算上是相當的。雖然ViTs在電腦視覺方面取得了令人印象深刻的成功,但在我看來,沒有強有力的證據表明,在公平評估時,預訓練的ViT優於預訓練的ConvNets。」來自Google DeepMind 的研究員表示,ConvNets 永遠不會消失
本文在 JFT-4B 上訓練了一系列不同深度和寬度的 NFNet 模型。
根據圖2所示,驗證損失與訓練模型的計算預算呈線性關係,與使用Transformer進行語言建模時觀察到的雙對數(log-log)擴展定律相符。隨著計算預算的增加,最佳模型大小和最佳epoch預算(實現最低驗證損失)也會增加
需要重新寫的內容是:需要注意的是,圖表2中一些預訓練模型的表現不如預期。研究團隊認為,出現這種情況的原因是如果訓練運行被搶佔/重新啟動,資料加載流程無法保證每個訓練樣本在每個週期都能被採樣一次。如果訓練運行多次重新啟動,則可能導致某些訓練樣本的採樣次數不足
NFNet vs ViT
在ImageNet上進行的實驗顯示,經過微調的NFNet和Vision Transformer的性能相當
具體來說,該研究在ImageNet 上微調了預訓練NFNet,並繪製了預訓練計算與Top-1 error 關係圖,如上述圖1 所示。
隨著預算的增加,ImageNet Top-1準確度持續提高。其中最昂貴的預訓練模型是預訓練8個epoch的NFNet-F7 ,在ImageNet Top-1準確率達到了90.3%。預訓練和微調需要大約110k TPU-v4核小時和1.6k TPU-v4核小時。此外,如果在微調期間引入額外的重複增強技術,可以實現90.4%的Top-1準確率。 NFNet在大規模預訓練中獲得了很大的好處
儘管NFNet和ViT兩種模型架構之間有明顯的差異,但預先訓練的NFNet和預訓練的ViT在性能上是相當的。例如,在對JFT-3B進行210k TPU-v3核小時的預訓練後,ViT-g/14在ImageNet上實現了90.2%的Top-1準確率;而在對JFT-3B進行超過500k TPU-v3在核小時的預訓練後,ViT-G/14實現了90.45%的Top-1準確率
本文評估了這些模型在TPU-v4 上的預訓練速度,並估計ViT-g/14需要120k TPU-v4 核小時來預訓練,而ViTG/14 則需要280k TPU-v4 核小時數,SoViT-400m/14 將需要130k TPU-v4 核小時數。本文使用這些估計值來比較圖 1 中 ViT 和 NFNet 的預訓練效率。研究注意到,NFNet 針對 TPU-v4 進行了最佳化,在其他設備上評估時表現較差。
最終,本文注意到,在JFT-4B上,預訓練的檢查點實現了最低的驗證損失,但在微調後,並不總是能在ImageNet上實現最高的Top-1準確率。特別是,本文發現,在固定的預訓練計算預算下,微調機制傾向於選擇稍大的模型和稍小的epoch預算。直觀上來說,更大的模型具有更大的容量,因此能夠更好地適應新的任務。在某些情況下,稍大的學習率(在預訓練期間)在微調後也能獲得更好的表現
以上是DeepMind:誰說卷積網不如ViT?的詳細內容。更多資訊請關注PHP中文網其他相關文章!