史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

WBOY
發布: 2024-02-04 10:03:27
轉載
881 人瀏覽過

多年來,語言模型一直是自然語言處理(NLP)技術的核心。鑑於模型背後的商業價值龐大,最先進模型的技術細節一直未公開。

現在,真·完全開源的大模型來了!

來自艾倫人工智慧研究所、華盛頓大學、耶魯大學、紐約大學和卡內基梅隆大學的研究人員,最近合作發表了一項重要的工作,這個工作將成為AI開源社群的重要里程碑。

他們幾乎將從零開始訓練一個大模型過程中的一切資料和資料都開源了!

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

論文:https://allenai.org/olmo/olmo-paper.pdf

權重:https://huggingface.co/allenai/OLMo-7B

程式碼:https://github.com/allenai/OLMo

#資料:https://huggingface.co/datasets/allenai/dolma

#評估:https://github.com/allenai/OLMo-Eval

#適合:https://github.com/allenai/open-instruct

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

#具體來說,艾倫人工智慧研究所推出的這個開放大語言模型(Open Language Model,OLMo)實驗和訓練平台,則提供了一個完全開源的大模型,以及所有和訓練開發這個模型相關的數據和技術細節——

訓練和建模:它包括完整的模型權重、訓練程式碼、訓練日誌、消融研究、訓練指標和推理程式碼。

預訓練語料:一個包含了高達3T token的預訓練開源語料庫,以及產生這些訓練資料的程式碼。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

模型參數:OLMo框架提供了四個不同架構、最佳化器和訓練硬件體系下的7B大小的模型,以及一個1B大小的模型,所有模型都在至少2T token上進行了訓練。

同時,也提供了模型推理的程式碼、訓練過程的各項指標以及訓練日誌。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

7B:OLMo 7B、OLMo 7B (not annealed)、OLMo 7B-2T、OLMo-7B-Twin-2T

#評估工具:公開了開發過程中的評估工具套件,包括每個模型訓練過程中每1000 step中包含的超過500個的檢查點以及評估代碼。

所有資料都在apache 2.0下授權使用(免費商用)。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

如此徹底的開源,似乎是給開源社群打了個樣——以後不像我這樣開源的,就別說自己是開源模型了。

效能評估

從核心的評估結果來看,OLMo-7B與同類開源模型相比略勝一籌。

在前9項評測中,OLMo-7B有8項排名前三,其中有2項超越了其他所有模型。

在許多生成任務或閱讀理解任務(例如truthfulQA)上,OLMo-7B都超過了Llama 2,但在一些熱門的問答任務(如MMLU或Big-bench Hard )上表現則差一些。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

#

前9個任務是研究者對預訓練模型的內部評估標準,而以下三個任務則是為了完善HuggingFace Open LLM排行榜而加入的

下圖展示了9個核心任務準確率的變化趨勢。

除了OBQA外,隨著OLMo-7B接受更多資料的訓練,幾乎所有任務的準確率都呈現上升趨勢。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

與此同時,OLMo 1B與其同類模型的核心評估結果表明,OLMo與它們處於同一水平。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

透過使用艾倫AI研究所的Paloma(一個基準測試)和可取得的檢查點,研究人員分析了模型預測語言能力與模型規模因素(例如訓練的token數量)之間的關係。

可以看到,OLMo-7B在效能上與主流模型持平。其中,每位元組比特數(Bits per Byte)越低越好。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

透過這些分析,研究人員發現模型在處理不同資料來源時的效率差異較大,這主要取決於模型訓練資料與評估數據的相似度。

特別地,OLMo-7B在主要基於Common Crawl的資料來源上表現出色(例如C4)。

不過,在與網路抓取文字關係不大的資料來源上,如WikiText-103、M2D2 S2ORC和M2D2 Wikipedia,OLMo-7B與其他模型相比效率較低。

RedPajama的評估也反映了類似的趨勢,可能是因為它的7個領域中只有2個來自Common Crawl,且Paloma對每個資料來源中的各個領域給予了相同的權重。

鑑於像Wikipedia和arXiv論文這樣的精選資料來源提供的異質資料遠不如網路抓取文字豐富,隨著預訓練資料集的不斷擴大,維持對這些語言分佈的高效率會很更加困難。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

OLMo架構

在模型的架構方面,團隊基於的是decoder-only的Transformer架構,並採用了PaLM和Llama使用的SwiGLU激活函數,引入了旋轉位置嵌入技術(RoPE),並改進了GPT-NeoX-20B的基於字節對編碼(BPE)的分詞器,以減少模型輸出中的個人可識別資訊。

此外,為了確保模型的穩定性,研究人員沒有使用偏移項(這點與PaLM的處理方式相同)。

如下表所示,研究人員已經發布了1B和7B兩個版本,同時也計劃很快推出一個65B的版本。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

下表詳細比較了7B架構與這些其他模型在相似規模下的表現。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

預訓練資料集:Dolma

雖然研究人員在取得模型參數方面取得了一定的進展,但開源社群目前預訓練資料集的開放程度還遠遠不夠。

之前的預訓練資料往往不會隨著模型的開源而公開(閉源模型就更不用說了)。

而有關這些資料的說明文件也常常缺乏足夠的細節,但是這些細節對於想要復現研究或完全理解相關工作至關重要。

這種情況加大了語言模型研究的難度-例如,了解訓練資料如何影響模型能力和其限制。

為了推動語言模型預訓練領域的開放研究,研究人員建構並公開了預訓練資料集Dolma。

這是一個包含了從 7 個不同資料來源取得的3兆個token的多樣化、多源語料庫。

這些資料來源一方面在大規模語言模型預訓練中常見,另一方面也能被一般大眾所接觸。

下表給出了來自各個資料來源的資料量的概覽。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

Dolma的建構過程包括六個步驟:語言過濾、品質過濾、內容過濾、去重、多來源混合和token化。

在整理和最終發布Dolma過程中,研究者確保各資料來源的文件保持獨立。

他們也開源了一套高效的資料整理工具,這套工具能夠幫助進一步研究Dolma、複製成果,並簡化預訓練語料庫的整理工作。

此外,研究人員也開源了WIMBD工具,以協助資料集分析。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

網路資料處理流程

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

程式碼處理流程

訓練OLMo

分散式訓練框架

#研究人員利用PyTorch的FSDP框架和ZeRO優化器策略來訓練模型。這種方法透過將模型的權重和它們對應的最佳化器狀態在多個GPU中進行分割,從而有效減少了記憶體的使用量。

在處理高達7B規模的模型時,這項技術使研究人員能夠在每個GPU上處理4096個token的微批大小,以實現更有效率的訓練。

對於OLMo-1B和7B模型,研究人員固定使用大約4M token(2048個資料實例,每個實例包含2048個token的序列)的全域批次大小。

而對於目前正在訓練中的OLMo-65B模型,研究人員採用了一個批次大小預熱策略,起始於大約2M token(1024個資料實例),之後每增加100B token,批次大小翻倍,直到最終達到約16M token(8192個資料實例)的規模。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

為了加快模型訓練的速度,研究人員採用了混合精度訓練的技術,這項技術是透過FSDP的內部配置和PyTorch的amp模組來實現的。

這種方法特別設計,以確保一些關鍵的計算步驟(例如softmax函數)始終以最高精度執行,以確保訓練過程的穩定性。

同時,其他大部分計算則使用稱為bfloat16的半精度格式,以減少記憶體使用並提高計算效率。

在特定配置中,每個GPU上的模型權重和最佳化器狀態都以最高精度儲存。

只有在執行模型的前向傳播和反向傳播,也就是計算模型的輸出和更新權重時,每個Transformer模組內的權重才會暫時轉換為bfloat16格式。

此外,各個GPU間同步梯度更新時,也會以最高精度進行,以確保訓練品質。

優化器

研究人員採用了AdamW優化器來調整模型參數。

無論模型規模大小如何,研究人員都會在訓練初期的5000步(大約處理21B個token)內逐漸增加學習率,這個過程稱為學習率預熱。

預熱結束後,學習率將以線性法則逐漸減少,直到降至最高學習率的十分之一。

此外,研究人員也會對模型參數的梯度進行裁剪,確保其總的 L1 範數不會超過 1.0。

在下表中,研究人員將自己在7B模型規模下的最佳化器配置與近期其他使用AdamW優化器的大型語言模型進行了比較。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

資料集

#研究者利用開放資料集Dolma中的一個2T token的樣本,建構了他們的訓練資料集。

研究人員將每篇文檔的token連接起來,每篇文檔的末尾都會加上一個特殊的EOS token,接著將這些token 分成每組2048 個,形成訓練樣本。

這些訓練樣本在每次訓練時都會以相同的方式進行隨機打亂。研究人員也提供了一些工具,使得任何人都可以復原每個訓練批次的具體資料順序和組成。

研究人員已經發布的所有模型至少都經過了一輪(2T token)的訓練。其中一些模型還進行了額外的訓練,即在資料上進行第二輪訓練,但採用了不同的隨機打亂順序。

根據先前的研究,這樣重複使用少量資料的影響是微乎其微的。

英偉達和AMD都要YES!

為了確保程式碼庫能夠同時在英偉達和AMD的GPU上都能高效運行,研究人員選擇了兩個不同的叢集進行了模型訓練測試:

利用LUMI超級計算機,研究人員部署了最多256個節點,每個節點都搭載了4張AMD MI250X GPU,每張GPU 擁有128GB記憶體和800Gbps的資料傳輸速率。

透過MosaicML (Databricks) 的支持,研究人員使用了27個節點,每個節點配備了8張英偉達A100 GPU,每張GPU擁有40GB記憶體和800Gbps的資料傳輸速率。

雖然研究人員為了提高訓練效率對批次大小進行了微調,但在完成2T token的評估後,兩個集群的表現幾乎沒有差異。

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

訓練能耗

#總結

與以往大多數僅提供模型權重和推理程式碼的模型不同,研究人員開源了OLMo的全部內容,包括訓練資料、訓練和評估程式碼,以及訓練日誌、實驗結果、重要發現以及Weights & Biases的記錄等等。

此外,團隊正在研究如何透過指令優化和不同類型的強化學習(RLHF)來改進OLMo。而這些微調程式碼、資料和經過微調後的模型也會被開源。

研究者致力於持續支持與發展OLMo及其框架,推動開放語言模式(LM)的發展,協助開放研究社群的發展。為此,研究人員計劃引入更多不同規模的模型、多種模態、資料集、安全措施和評估方法,豐富OLMo家族。

他們希望透過今後持續進行的徹底開源工作,增強開源研究社群的力量,並引發新一輪的創新浪潮。

團隊介紹

Yizhong Wang(王義中)

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

Yizhong Wang是華盛頓大學Paul G. Allen電腦科學與工程學院的博士生,導師是Hannaneh Hajishirzi和Noah Smith。同時,也是艾倫人工智慧研究所的兼任研究實習生。

此前,他曾在Meta AI、微軟研究院和百度NLP進行實習。此前,他在北京大學獲得了碩士學位,並在上海交通大學獲得了學士學位。

他的研究方向是自然語言處理(Natural Language Processing)、機器學習(Machine Learning),以及大語言模型(LLM)。

- LLM的適應性:如何更有效地建構和評估能夠跟隨指令的模型?在微調這些模型時,我們應該考慮哪些因素,它們又如何影響模型的通用性?哪種類型的監督方式既有效又能擴展?

- LLM的持續學習:預訓練與微調之間的界線在哪裡?有哪些架構和學習策略能夠讓LLM在預訓練後繼續進化?模型內部已有的知識如何與新學的知識互動?

- 大規模合成資料的應用:在產生模型快速產生資料的今天,這些資料對我們的模式開發乃至整個網路和社會有何影響?我們如何確保能夠在大規模下產生多樣且高品質的數據?我們能否區分這些數據與人類生成的數據?

Yuling Gu

史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓

#Yuling Gu是艾倫人工智慧研究所(AI2)Aristo團隊的一位研究員。

2020年,她在紐約大學(NYU)獲得學士學位。除了主修的電腦科學外,她還輔修了一個跨學科專業——語言與心智,這個主修結合了語言學、心理學和哲學。隨後,她在華盛頓大學(UW)獲得了碩士學位。

她對機器學習的技術和認知科學的理論的融合應用充滿了熱情。

以上是史上首個100%開源大模型重磅登場!破紀錄公開代碼/權重/資料集/訓練全過程,AMD都能訓的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板
關於我們 免責聲明 Sitemap
PHP中文網:公益線上PHP培訓,幫助PHP學習者快速成長!