首頁 > 科技週邊 > 人工智慧 > 封閉式學習背後的數學

封閉式學習背後的數學

王林
發布: 2025-02-26 00:03:10
原創
643 人瀏覽過

現代大語言模型(LLMS)的關鍵特徵(LLMS)

內部文化學習(ICL)允許變形金剛根據輸入提示中的示例進行適應。 使用幾個任務示例,很少有提示有效地證明了所需的行為。 但是,變形金剛如何實現這種適應?本文探討了ICL背後的潛在機制。

The Math Behind In-Context Learning

ICL的核心是:給定的示例對((x,y)),注意機制可以學習算法以將新查詢(x)映射到其輸出(y)?

> SoftMax的注意力和最近的鄰居搜索

softmax的注意公式是:

The Math Behind In-Context Learning

引入反向溫度參數,

c ,修改了注意力分配:

The Math Behind In-Context Learning

AS

> c 接近無窮大,注意變成了一個旋轉向量,僅關注最相似的令牌 - 實際上是最近的鄰居搜索。 使用有限的c ,注意與高斯內核平滑相似。 這表明ICL可能會在輸入輸出對上實現最近的鄰居算法。 的含義和進一步的研究

了解變壓器如何學習算法(如最近的鄰居)為汽車打開門。 Hollmann等。在合成數據集上展示了訓練變壓器,以學習整個汽車管道,從單個通行證中預測新數據的最佳模型和超參數。

最近的研究(Garg等,2022,Oswald等,2023)將變形金剛的ICL與梯度下降聯繫起來。 線性注意力,省略軟件操作:

>類似於預處理的梯度下降(PGD):>

The Math Behind In-Context Learning

一層線性注意執行一個PGD步驟。

結論The Math Behind In-Context Learning 注意機制可以實現學習算法,通過從演示對學習來啟用ICL。儘管多個注意層和MLP的相互作用很複雜,但研究闡明了ICL的力學。本文提供了這些見解的高級概述。

>

進一步閱讀:

  • >內部的學習和歸納負責人
  • >變形金剛可以在文化中學習什麼?簡單函數類別的案例研究
  • 變形金剛通過梯度下文學習
  • 變形金剛學習實施預處理的梯度下降

確認

>本文的靈感來自密歇根大學2024年秋季研究生課程。 任何錯誤都是作者的。

以上是封閉式學習背後的數學的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板