模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

王林
發布: 2024-03-26 11:30:14
轉載
410 人瀏覽過

把Huggingface上的現成模型拿來「攢一攢」—

直接就能組合出新的強大模型? !

日本大模型公司sakana.ai腦洞大開(正是「Transformer八子」之一所創辦的公司),想出了這麼一個進化合併模型的妙招。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

該方法不僅能自動產生新的基礎模型,而且效能絕不賴

他們利用一個包含70億個參數的日文數學大型模型,在相關基準測試中取得了最先進的結果,超越了700億參數的Llama-2等先前模型。

最重要的是,得出這樣的模型不需要任何梯度訓練,因此所需的運算資源大幅減少。

英偉達科學家Jim Fan看完大讚:

這是我最近讀過的最有想像的論文之一。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

合併演化,自動產生新基礎模型

從開源大模型排行榜上表現最好的模型,大多不再是LLaMA或Mistral這種「原始」模型,而是一些微調或合併模型之後,我們就能看出:

一種新的趨勢出現了。

Sakana.ai介紹,開源基礎模型很容易在數百個不同的方向上擴展和微調,然後產生在新的領域表現出色的新模型。

而在這之中,模型合併顯現出了巨大前景。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

但,它可能是一種“黑魔法”,嚴重依賴直覺和專業知識。

因此,我們需要更為系統性的方法。

受自然界的自然選擇啟發,Sakana.ai盯上了演化演算法,引入「演化模型合併」(Evolutionary Model Merge)的概念,提出一種可以發現最佳模型組合的通用方法。

此方法結合了兩種不同的想法:

(1)合併資料流空間(層)中的模型,以及(2)合併參數空間(權重)中的模型。

具體而言,第一種資料流空間方法是透過演化來發現不同模型層的最佳組合,以此形成新模型。

在社區以往的做法中,都是靠直覺來決定如何以及模型哪些層可以與另一個模型的層結合。

但其實,Sakana.ai介紹,這個問題有一個組合數量龐大的搜尋空間,最適合由最佳化演算法如演化演算法來搜尋。

其操作範例如下:

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

至於第二個參數空間方法則混合多個模型權重來形成新模型。

這種方法其實很無數種實現,再加上混合的每一層原則上可以使用不同的混合比例,就更多了。

而這,利用演化方法就可以有效找出更為新穎的混合策略。

以下是將兩個不同模型的權重進行混合得到新模型的操作範例:

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

#將以上這兩種方法合併,就是這樣的:

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

作者介紹,他們希望在相距較遠的領域,例如數學和非英語語言、視覺和非英語語言,來組成之前大家不曾探索過的新興組合。

結果,還真有點讓人驚喜。

新模型輕鬆拿下SOTA

用以上演化合併方法,團隊得到了3個基礎模型:

  • 大語言模型EvoLLM-JP

由日文大模型Shisa-Gamma和數學大模型WizardMath/Abel合併而成,擅長解決日文數學問題,進化了100-150代。

  • 視覺語言模型EvoVLM-JP

日文大模型Shisa Gamma 7B v1 LLaVa-1.6-Mistral-7B ,是具有日語能力的VLM。

  • 映像產生模型EvoSDXL-JP

#支援日文的SDXL擴散模型。

前兩個已在Hugging Face和GitHub上發布,最後一個也即將推出。

具體來看。

1、EvoLLM-JP

它在GSM8K資料集的多語言版本-MGSM的日文評估集上取得成績如下:

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

可以看到,EvoLLM-JP用日文解決數學問題的表現超過了它們的原始模型,也超過了Llama-2、GPT-3.5等高效能模型。

其中模型4是僅在參數空間進行了最佳化,模型6是使用模型4在資料流空間中進一步優化的結果。

在既評估數據能力也評估一般日語能力的日語lm-evaluation-harness基準上,EvoLLM-JP則在9個任務上的平均得分最高達到了70.5——只用70億參數,它就打敗了700億的Llama-2等模型。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

團隊表示,EvoLLM-JP已經足夠優秀,可以作為通用日語大模型,並解決一些有趣的例子:

例如需要特定日本文化知識的數學問題,或用關西方言講日本笑話。

2、EvoVLM-JP

在以下兩個影像問答的基準資料集上,分數越高,代表模型用日文回答的描述越準確。

結果,它不僅比其所基於的英語VLM LLaVa-1.6-Mistral-7B更出色,也比現有的日語VLM更厲害。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

如下圖所示,在回答圖中的訊號燈為何顏色之時,只有EvoVLM-JP答對:藍色。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

3、EvoSDXL-JP

這個支援日文的SDXL模型只需4個擴散模型即可執行推理,生成速度相當快。

具體跑分還沒出來,但團隊透露也是「相當有希望的」。

可以欣賞一些例子:

提示詞包括:味噌ラーメン、最高品質の浮世絵、葛飾北斎、江戸時代。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

對於以上3個新模型,團隊指出:

原則上,我們可以採用基於梯度的反向傳播來進一步提高以上這些模型的性能。

但我們不用,因為現在的目的是表明,即使沒有反向傳播,我們仍然可以得到足夠先進的基礎模型,挑戰當前的「昂貴範式」。

對此,網友們紛紛按讚。

Jim Fan也補充:

在基礎模型領域,目前社群幾乎完全專注於讓模型去學習,而不太重視搜尋# ,但後者在訓練(也就是本文提出的演化演算法)和推理階段其實都有巨大的潛力。

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了
馬斯克按讚

所以,如網友所說:

我們現在已經處於模型的寒武紀大爆發時代了嗎?

模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了

論文網址:https://arxiv.org/abs/2403.13187

以上是模型合併就進化,直接拿下SOTA! Transformer作者創業新成果火了的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板