首頁 > 科技週邊 > 人工智慧 > 我們需要的一切嗎?

我們需要的一切嗎?

王林
發布: 2025-02-25 19:49:12
原創
893 人瀏覽過

> reft:一種革命性的微調LLMS

> 在斯坦福(Stanford)2024年5月的論文中引入的REFT(表示命名)提供了一種開創性的方法,可有效地微調大型語言模型(LLMS)。 它的潛力立即顯現出來,由Oxen.AI於2024年7月的2024年7月在短短14分鐘內的單個NVIDIA A10 GPU上進行了微調Llama3(8b)。 與現有的參數效率微調(PEFT)方法(如Lora)不同,lora修改模型權重或輸入,REFT利用分佈式互換干預(DII)方法。 DII項目將嵌入較低維的子空間嵌入,從而通過此子空間進行微調。

>本文首先回顧了流行的PEFT算法(LORA,提示調整,前綴調整),然後解釋DII,然後再研究REFT及其實驗結果。

>參數有效的微調(PEFT)技術

Is ReFT All We Needed?擁抱臉提供了PEFT技術的全面概述。 讓我們簡要總結關鍵方法:

lora(低級適應):

在2021年推出,洛拉(Lora)的簡單性和概括性使其成為微調LLMS和擴散模型的領先技術。 Lora沒有調整所有層重量,而是增加了低級矩陣,大大降低了可訓練的參數(通常小於0.3%),加速訓練並最大程度地減少GPU內存使用。

提示調整:此方法使用“軟提示” - 可檢驗的特定任務特定嵌入 - 作為前綴,啟用有效的多任務預測,而無需重複每個任務的模型。

Is ReFT All We Needed?

>

前綴調整(p-tuning v2):Is ReFT All We Needed?解決迅速調整的限制,前綴調整將可訓練的及時嵌入到各種層中,從而允許在不同級別上進行特定於任務的學習。 >

>

洛拉的魯棒性和效率使其成為LLMS最廣泛使用的PEFT方法。 可以在Is ReFT All We Needed?>中找到詳細的經驗比較。

>分佈式互換干預(DII)

DII植根於因果抽像中,這是一種使用高級(因果)模型和低級(神經網絡)模型之間的干預框架來評估一致性的框架。 DII通過正交預測將這兩個模型投入到子空間中,從而通過旋轉操作創建了介入的模型。 一個詳細的視覺示例>。

DII過程可以用數學表示為:

>

Is ReFT All We Needed?

其中R代表正交投影,分佈式對齊搜索(DAS)優化了子空間,以最大程度地提高預期後預期的反事實輸出的概率。

>

> reft - 表示finetuning

REFT在較低維空間內介入模型的隱藏表示形式。 下圖顯示了應用於L層和位置P的干預措施(PHI)

Loreft(低率線性子空間REFT)引入了一個學識淵博的投影來源:Is ReFT All We Needed?

其中Is ReFT All We Needed?是隱藏的表示,而在由

>>的低維空間中進行了

編輯h。 Loreft集成到神經網絡層中如下所示:Rs hR

在LLM微調期間,LLM參數保留冷凍,並且僅訓練投影參數(

)。 Is ReFT All We Needed?實驗結果

原始的REFT紙提出了對全面微調(FT),Lora和前綴調整的比較實驗。 REFT技術始終優於現有方法,在達到卓越的性能的同時,將參數降低至少90%。 phi={R, W, b}

討論

REFT的吸引力源於其在各種基準的羊駝家庭模型及其在因果抽像中的基礎上的出色表現,這有助於模型可解釋性。 REFT表明,分佈在神經元中的線性子空間可以有效地控制許多任務,從而為LLM提供寶貴的見解。

參考

以上是我們需要的一切嗎?的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板