ICML 2024 | 揭示非線形Transformer在情境學習中學習與泛化的機制

WBOY
發布: 2024-06-29 00:44:41
原創
412 人瀏覽過
ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制
AIxiv專欄是本站發布學術、技術內容的欄位。過去數年,本站AIxiv專欄接收通報了2,000多篇內容,涵蓋全球各大專院校與企業的頂尖實驗室,有效促進了學術交流與傳播。如果您有優秀的工作想要分享,歡迎投稿或聯絡報道。投稿信箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

本文作者李宏康,美國倫斯勒理工大學電機、電腦與系統工程系在讀博士生,大學部畢業於中國科學技術大學。研究方向包括深度學習理論,大語言模型理論,統計機器學習等等。目前已在 ICLR/ICML/Neurips 等 AI 頂會發表多篇論文。

上下文學習 (in-context learning, 簡寫為 ICL) 已經在許多 LLM 有關的應用中展現了強大的能力,但是對其​​理論的分析仍然比較有限。人們仍然試圖理解為什麼基於 Transformer 架構的 LLM 可以展現出 ICL 的能力。

近期,一個來自美國倫斯勒理工大學和IBM 研究院的團隊從優化和泛化理論的角度分析了帶有非線性注意力模組(attention) 和多層感知機(MLP) 的Transformer 的ICL能力。他們特別從理論端證明了單層 Transformer 首先在 attention 層根據 query 選擇一些上下文範例,然後在 MLP 層根據標籤嵌入進行預測的 ICL 機制。該文章已收錄在 ICML 2024。

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

  • 論文題目:How Do Nonlinear Transformers Learn and Generalize in In-Context Learning?

  • 論文地址:https://arxiv.org/pdf/2402.pdf

上下文學習in context learning (ICL)

上下文學習(ICL) 是一種新的學習範式,在大語言模型(LLM) 中非常流行。它具體是指在測試查詢(testing query)

前添加N 個測試樣本testing examples (上下文),即測試輸入

和測試輸出的組合,從而構成一個testing prompt:,作為模型的輸入以引導模型作出正確的推斷。這種方式不同於經典的對預訓練模型進行微調的方式,它不需要改變模型的權重,從而更加的高效。

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制ICL 理論工作的進展ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制近期的許多理論工作都是基於[1] 所提出的研究框架,即人們可以直接使用prompt 的格式來對Transformer 進行訓練(這一步也可以理解為在模擬一種簡化的LLM 預訓練模式),從而使得模型具有ICL 能力。已有的理論工作聚焦於模型的表達能力 (expressive power) 的角度 [2]。他們發現,人們能夠找到一個有著 「完美」 的參數的 Transformer 可以透過前向運算執行 ICL,甚至隱含地執行梯度下降等經典機器學習演算法。但這些工作無法回答為什麼 Transformer 可以被訓練成這樣 “完美” 的,具有 ICL 能力的參數。因此,還有一些工作試圖從 Transformer 的訓練或泛化的角度來理解 ICL 機制 [3,4]。不過,受制於分析 Transformer 結構的複雜性,這些工作目前止步於研究線性迴歸任務,而所考慮的模型通常會略去 Transformer 中的非線形部分。

本文從最佳化和泛化理論的角度分析了具有非線性attention 和MLP 的Transformer 的ICL 能力和機制:

基於一個簡化的分類模型,本文具體量化了數據的特徵如何影響了一層單頭Transformer 的域內(in-domain) 和域外(out-of-domain, OOD) 的ICL 泛化能力。

    本文進一步闡釋了 ICL 是如何透過被訓練的 Transformer 來實現了。
  • 是基於被訓練的 Transformer 的特點,本文也分析了在 ICL 推論的時候使用基於振幅的模型剪枝 (magnitude-based pruning) 的可行性。

理論部分

問題描述

本文考慮一個二分類問題,即將ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制透過一個任務ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制映射到ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制。為了解決這樣的一個問題,本文建構了 prompt 來進行學習。這裡的 prompt 被表示為:

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

訓練網絡為一個單層單頭 Transformer:

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

預訓練過程是求解一個對所有訓練任務的經驗風險最小化 (empirical risk minimization)。損失函數使用的是適合二分類問題的 Hinge loss,訓練演算法是隨機梯度下降。

本文定義了兩種 ICL 泛化的情況。一個是 in-domain 的,即泛化的時候測試資料的分佈和訓練資料一樣,注意這個情況裡面測試任務不必和訓練任務一樣,即這裡已經考慮了對未見任務 (unseen task) 的泛化。另一個是 out-of-domain 的,即測試、訓練資料分佈不一樣。

本文也涉及了在 ICL 推斷的時候進行 magnitude-based pruning 的分析,這裡的剪枝方式是指對於訓練得到的中的各個神經元,根據其幅值大小,進行從小到大的刪除。

對資料和任務的建構

這一部分請參考原文的 Section 3.2,這裡只做一個概述。本文的理論分析是基於最近比較火熱的 feature learning 路線,即通常將數據假設為可分(通常是正交)的 pattern,從而推導出基於不同 pattern 的梯度變化。本文首先定義了一組 in-domain-relevant (IDR) pattern 用於決定 in-domain 任務的分類,和一組與任務無關的 in-domain-irrelevant (IDI) pattern,這些 pattern 之間互相正交。 IDR pattern 有ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制個,IDI pattern 有ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制個。一個ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制被表示為一個 IDR pattern 和一個 IDI pattern 的和。一個 in-domain 任務就被定義為基於某兩個 IDR pattern 的分類問題。

類似地,本文定義 out-of-domain-relevant (ODR) pattern 和 out-of-domain-irrelevant (ODI) pattern,可以刻畫 OOD 泛化時候的資料和任務。

本文對 prompt 的表示可以用下圖的例子來闡述,其中ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制是 IDR pattern,ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制是 IDI pattern。這裡在做的任務是基於 x 中的ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制做分類,如果是ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制那麼其標籤為 + 1,對應於 +q,如果是ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制那麼其標籤為 - 1,對應於 -q。 α,α' 分別被定義為訓練和測試 prompt 中跟 query 的 IDR/ODR pattern 一樣的上下文範例。下圖的例子裡面,ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

理論結果

首先,對於 in-domain 的情況,本文先給了一個 condition 3.2 來規定訓練任務需要滿足的條件,即訓練任務需要覆蓋所有的 IDR pattern 和標籤。然後in-domain 的結果如下:

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

這裡顯示:1,訓練任務的數量只需要在全部任務中佔比達到滿足condition 3.2 的小比例,我們就可以對unseen task 實現很好的泛化;2,跟當前任務相關的IDR pattern 在prompt 中的比例越高,就可以以更少的訓練數據,訓練迭代次數,以及更短的training/testing prompt 實現理想的泛化。

接下來是 out-of-domain 泛化的結果。

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

這裡說明,如果 ODR pattern 是 IDR pattern 的線性組合且係數和大於 1,那麼此時 OOD ICL 泛化可以達到理想的效果。這個結果給了在 ICL 的架構下,好的 OOD 泛化所需的訓練和測試資料之間的內在連結。該定理也透過 GPT-2 的實驗得到了驗證。如下圖所示,當 (12) 中的係數和ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制大於 1 的時候,OOD 分類可以達到理想的結果。同時,當ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制,也就是 prompt 中和分類任務相關的 ODR/IDR pattern 比例越高的時候,所需要的 context 長度越小。

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

然後,本文給出了帶有 magnitude-based pruning 的 ICL 泛化結果。

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

這個結果表明,首先,訓練得到的ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制中有一部分(常數比例)神經元的幅值很小,而剩下的相對比較大(公式 14)。當我們只枝剪小神經元的時候,對泛化結果基本上沒有影響,而當枝剪比例增加到要剪大神經元的時候,泛化誤差會隨之顯著變大(公式 15,16)。以下實驗驗證了定理 3.7。下圖 A 中淺藍色的垂直線表示訓練得到的ICML 2024 | 揭示非線形Transformer在情境學習中學習與泛化的機制呈現出了公式 14 的結果。而對小神經元進行枝剪不會使泛化變差,這個結果符合理論。圖 B 反映出當 prompt 中和任務相關的上下文越多的時候,我們可以允許更大的枝剪比例以達到相同的泛化性能。

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

ICL 機制

透過對預訓練過程的刻畫,本文得到了單層單頭非線性 Transformer 做 ICL 的內在機制,這一部分在原文的 Section 4。過程可以用下圖表示。

ICML 2024 | 揭示非线形Transformer在上下文学习中学习和泛化的机制

簡而言之,attention 層會選擇和query 的ODR/IDR pattern 一樣的上下文,賦予它們幾乎全部attention 權重,然後MLP 層會重點根據attention 層輸出中的標籤嵌入來作出最後的分類。

總結

本文講解了在 ICL 當中,非線性 Transformer 的訓練機制,以及對於新任務和分佈偏移資料的泛化能力。理論結果對於設計 prompt 選擇演算法和 LLM 剪枝演算法有一定實際意義。

參考文獻

[1] Garg, et al., Neurips 2022.「Transformers 可以在上下文中學習什麼?簡單函數類的案例研究。」 Oswald 等人,ICML 2023。 「變形金剛透過梯度下降在上下文中學習。」

[3] 張等人,JMLR 2024。 「訓練有素的變形金剛在上下文中學習線性模型。」

[4] Huang 等人,ICML 2024。 「變壓器的上下文融合。」

以上是ICML 2024 | 揭示非線形Transformer在情境學習中學習與泛化的機制的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:jiqizhixin.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板