目錄
運行原理
新研究的意義
首頁 科技週邊 人工智慧 不堆參數、不靠時長,Meta加速ViT訓練流程,吞吐量4倍提升

不堆參數、不靠時長,Meta加速ViT訓練流程,吞吐量4倍提升

Apr 09, 2023 am 09:21 AM
模型 訓練

現階段,視覺transformer(ViT)模型已經在影像分類、目標偵測與分割等各樣各樣的電腦視覺任務中得到了廣泛應用,並可以在視覺表徵與識別中實現SOTA 結果。由於電腦視覺模型的表現往往與參數量和訓練時間呈正相關,AI 社群已經實驗了越來越大規模的 ViT 模型。

但應該看到,隨著模型開始超出萬億次浮點運算的規模,該領域已經遇到了一些主要的瓶頸。訓練單一模型可能耗費數月,需要數以千計的 GPU,進而增加了加速器需求並導致大規模 ViT 模型將許多從業者「排除在外」。

為了擴展 ViT 模型的使用範圍,Meta AI 的研究者已經開發了更有效率的訓練方法。非常重要的一點是對訓練進行最佳化以實現最佳的加速器利用。但是,這一過程耗時費力且需要大量的專業知識。為了設定有序的實驗,研究者必須從無數可能的最佳化方案中進行選擇:一次訓練過程中執行的百萬次運算中的任何一個都有可能受到低效率的影響和阻礙。

Meta AI 發現,透過將一系列最佳化應用到其影像分類程式碼庫 PyCls 中的 ViT 實現,可以提升運算和儲存效率。 對於使用 PyCIs 訓練的 ViT 模型,Meta AI 的方法可以提升訓練速度和每加速器吞吐量(TFLOPS)。

下圖展示了使用最佳化程式碼庫PyCIs 後每晶片(per chip)加速器吞吐量相較於V100 基準的相對增加,而A100 優化的加速器吞吐量是V100 基準的4.05 倍。

不堆參數、不靠時長,Meta加速ViT訓練流程,吞吐量4倍提升

運行原理

#Meta AI 首先對PyCIs 程式碼庫進行分析以確認低訓練效率的潛在來源,最終將注意力放在了數字格式的選擇上。在預設情況下,大多數應用使用 32-bit 單精度浮點格式來表徵神經網路值。轉換至 16-bit 半精度格式(FP16)可以減少模型的記憶體佔用和執行時間,但往往也會降低準確率。

研究者採取了折中方案,即混合精確度。利用它,系統透過單精度格式執行計算以加速訓練並減少記憶體使用,同時透過單精度儲存結果以保持準確率。他們沒有手動地將部分網路轉換至半精度,而是實驗了不同模式的自動混合精度訓練,這樣可以在數位格式之間自動切換。更高級模式的自動混合精度主要依賴半精度運算和模型權重。研究者採用的平衡設定既能大幅加速訓練,同時也不犧牲準確率。

為了讓流程更有效率,研究者充分利用了FairScale 庫中的完全分片資料並行(Fully Sharder Data Parallel, FSDP)訓練演算法,它在GPU 上對參數、梯度和優化器狀態進行分片。透過 FSDP 演算法,研究者可以使用更少的 GPU 來建立更大量級的模型。此外,研究者還使用了 MTA 優化器、一個池化的 ViT 分類器和一個 batch-second 輸入張量佈局來跳過冗餘轉置運算。

下圖 X 軸為可能的最佳化,Y 軸為採用 ViT-H/16 訓練時加速器吞吐量相較於分散式資料並行(DDP)基準的相對增加。

不堆參數、不靠時長,Meta加速ViT訓練流程,吞吐量4倍提升

研究者在總patch 大小為560 時實現了1.51 倍的加速器吞吐量提升,以每個加速器晶片上每秒執行的浮點運算數量衡量。透過將影像大小從 224 像素增加至 256 像素,他們可以將吞吐量提升至 1.86 倍。但是,改變影像大小意味著超參數的變化,這會對模型的準確率造成影響。在完全 FP16 模式下訓練時,相對吞吐量增加至 2.18 倍。儘管有時會降低準確率,但在實驗中準確率降低少於 10%。

下圖 Y 軸為 epoch 時間,在整個 ImageNet-1K 資料集上一次訓練的持續時間。這裡專注於現有配置的實際訓練時間,這些配置通常使用 224 像素的影像大小。

不堆參數、不靠時長,Meta加速ViT訓練流程,吞吐量4倍提升

#

Meta AI 的研究者使用最佳化方案,將 epoch 時間(在整個 ImageNet-1K 資料集上一次訓練的持續時間)從 0.65 小時減少到 0.43 小時。

下圖 X 軸表示特定配置中 A100 GPU 加速器晶片的數量,Y 軸表示每晶片 TFLOPS 的絕對吞吐量。

不堆參數、不靠時長,Meta加速ViT訓練流程,吞吐量4倍提升

該研究也討論了不同 GPU 配置的影響。在每種情況下,系統都實現了比分散式資料並行(DDP)基線水平更高的吞吐量。隨著晶片數量的增加,由於設備間通訊的開銷,我們可以觀察到吞吐量略有下降。然而,即使用 64 塊 GPU,Meta 的系統也比 DDP 基準快 1.83 倍。

新研究的意義

將ViT 訓練中可實現的吞吐量翻倍可以有效讓訓練集群規模翻倍,提高加速器利用率直接減少了AI 模型的碳排放。由於最近大模型的發展帶來了更大模型和更長訓練時間的趨勢,這種優化有望幫助研究領域進一步推動最先進的技術,縮短週轉時間並提高生產力。

以上是不堆參數、不靠時長,Meta加速ViT訓練流程,吞吐量4倍提升的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計! 開源!超越ZoeDepth! DepthFM:快速且精確的單目深度估計! Apr 03, 2024 pm 12:04 PM

0.這篇文章乾了啥?提出了DepthFM:一個多功能且快速的最先進的生成式單目深度估計模型。除了傳統的深度估計任務外,DepthFM還展示了在深度修復等下游任務中的最先進能力。 DepthFM效率高,可以在少數推理步驟內合成深度圖。以下一起來閱讀這項工作~1.論文資訊標題:DepthFM:FastMonocularDepthEstimationwithFlowMatching作者:MingGui,JohannesS.Fischer,UlrichPrestel,PingchuanMa,Dmytr

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔心資料瓶頸難題 超級智能體生命力覺醒!可自我更新的AI來了,媽媽再也不用擔心資料瓶頸難題 Apr 29, 2024 pm 06:55 PM

哭死啊,全球狂煉大模型,一網路的資料不夠用,根本不夠用。訓練模型搞得跟《飢餓遊戲》似的,全球AI研究者,都在苦惱怎麼才能餵飽這群資料大胃王。尤其在多模態任務中,這問題尤其突出。一籌莫展之際,來自人大系的初創團隊,用自家的新模型,率先在國內把「模型生成數據自己餵自己」變成了現實。而且還是理解側和生成側雙管齊下,兩側都能產生高品質、多模態的新數據,對模型本身進行數據反哺。模型是啥?中關村論壇上剛露面的多模態大模型Awaker1.0。團隊是誰?智子引擎。由人大高瓴人工智慧學院博士生高一鑷創立,高

See all articles