目錄
為什麼GPT可以在In-Context 學習?
實驗結果
總結
首頁 科技週邊 人工智慧 被GPT帶飛的In-Context Learning為什麼會起作用?模型在秘密執行梯度下降

被GPT帶飛的In-Context Learning為什麼會起作用?模型在秘密執行梯度下降

Apr 25, 2023 pm 10:16 PM
gpt 模型

繼 BERT 之後,研究者註意到了大規模預訓練模型的潛力,不同的預訓練任務、模型架構、訓練策略等被提出。但 BERT 類別模型通常有兩大缺點:一是過度依賴有標籤資料;二是存在過度擬合現象。

具體而言,現在的語言模型都傾向於兩段式框架,即預訓練下游任務微調,但是在針對下游任務的微調過程中又需要大量的樣本,否則效果很差,然而標註資料的成本高昂。還有就是標註資料有限,模型只能擬合訓練資料分佈,但資料較少的話容易造成過擬合,致使模型的泛化能力下降。

作為大模型的開路先鋒,大型預訓練語言模型,特別是 GPT-3 已經顯示出令人驚訝的 ICL(In-Context Learning)能力。與微調需要額外的參數更新不同,ICL 只需要一些演示“輸入 - 標籤”對,模型就可以預測標籤甚至是沒見過的輸入標籤。在許多下游任務中,一個大型 GPT 模型可以獲得相當好的性能,甚至超過了一些經過監督微調的小型模型。

為何ICL 的表現如此優秀,在來自OpenAI 的一篇長達70 多頁的論文《Language Models are Few-Shot Learners》中,他們對ICL 進行了探索,其目的是讓GPT-3 使用更少的領域資料、且不經過微調去解決問題。

如下圖所示,ICL 包含三種分類:Few-shot learning,允許輸入數條範例和一則任務說明;One-shot learning,只允許輸入一個範例和一則任務說明;Zero-shot learning,不允許輸入任何範例,只允許輸入一則任務說明。結果顯示 ICL 不需要反向傳播,只需要把少量標註樣本放在輸入文字的上下文中即可誘導 GPT-3 輸出答案。

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

#GPT-3 in-context learning

實驗證明在Few-shot 下GPT-3 有很好的表現:

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

為什麼GPT可以在In-Context 學習?

儘管 ICL 在效能上取得了巨大的成功,但其工作機制仍然是一個有待研究的開放性問題。為了更好地理解 ICL 是如何運作的,我們接下來介紹一篇來自北大、清華等機構的研究是如何解釋的。

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

  • 論文網址:https://arxiv.org/pdf/2212.10559v2.pdf
  • #專案網址:https://github.com/microsoft/LMOps

用網友的話來總結,即:「這項工作表明,GPT 自然地學會了使用內部優化來執行某些運行。該研究同時提供了經驗性證據來證明In-Context Learning 和顯式微調在多個層面上表現相似。」

為了更好地理解ICL 是如何運作的,該研究將語言模型解釋為元優化器,ICL 解釋為一個元優化過程,並將ICL 理解為一種隱式微調,試圖在基於GPT 的ICL 和微調之間建立聯繫。從理論上講,該研究發現 Transformer 的注意力具有基於梯度下降的對偶優化形式。

在此基礎上,研究提出了一個新的視角來解釋ICL:GPT 首先根據示範範例產生元梯度,然後將這些元梯度應用於原始GPT 以建立ICL模型。

如圖 1 所示,ICL 和明確微調共享基於梯度下降的對偶最佳化形式。唯一的差異是 ICL 透過前向計算產生元梯度,而微調透過反向傳播計算梯度。因此,將 ICL 理解為某種隱式微調是合理的

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

ICR 執行隱含微調 

該研究首先定性分析了鬆弛線性注意力(relaxed linear attention)形式下的Transformer 注意力,以找出它與基於梯度下降最佳化之間的對偶形式。然後,該研究將 ICL 與顯式微調進行比較,並在這兩種最佳化形式之間建立聯繫。基於這些理論發現,他們建議將 ICL 理解為一種隱式微調。

首先該研究將Transforme 注意力看作元優化,將ICL 解釋為一個元優化過程:(1)一個基於Transformer 的預訓練語言模型作為元優化器;( 2)透過前向計算根據實例產生元梯度;(3)透過注意力,將元梯度應用於原始語言模型,建構ICL。

接下來是 ICL 與微調的比較。經過一系列設定後,研究發現 ICL 與微調有許多共同特性。他們從以下四個面向來組織這些共通點:兩者都執行梯度下降;相同的訓練資訊;訓練例子的因果順序相同;都是圍繞著注意力。

考慮到 ICL 和微調之間的所有這些共同屬性,該研究認為將 ICL 理解為一種隱式微調是合理的。在本文的其餘部分,該研究從多個方面根據經驗比較 ICL 和微調,以提供支持這種理解的定量結果。

實驗結果

研究進行了一系列實驗來全面比較ICL 的行為和基於實際任務的明確微調,在六個分類任務上,他們比較了預訓練GPT 在ICL 和微調設定中關於預測、注意力輸出和注意力得分的情況。正如預期的那樣,ICL 在預測、表示和注意力水平等方面都與顯式微調高度相似。這些結果有力地證明了這一合理性:ICL 執行隱式微調。

 此外,受元最佳化理解的啟發,該研究透過類比基於動量的梯度下降演算法設計了一種基於動量的注意力。它始終優於 vanilla attention 的性能。

表 2 顯示了在六個分類資料集上 ZSL( Zero-Shot Learning )、ICL 和微調(FT)設定中的驗證精確度。與 ZSL 相比,ICL 和微調都取得了相當大的改進,這意味著所做的最佳化都有助於這些下游任務。此外,研究發現 ICL 在 Few-shot 場景中比微調更好。

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

表 3 中顯示了 6 個資料集上 2 個 GPT 模型的 Rec2FTP 分數。平均而言,ICL 可以從 ZSL 中正確預測 87.64% 的微調能夠修正的範例。這些結果顯示在預測層面,ICL 可以涵蓋大多數正確的微調行為。

表 3 也顯示了 6 個資料集上 2 個 GPT 模型的範例與圖層的平均 SimAOU 分數。為了進行比較,研究也提供了一個基準指標(Random SimAOU),用來計算 ICL 更新和隨機產生更新之間的相似性。從表中可以看出,ICL 更新更類似於微調更新而非隨機更新,這意味著在表示層面上,ICL 傾向於按照微調改變的方向來改變注意力結果。

最後,表 3 也顯示了 6 個資料集上 2 個 GPT 模型的範例與圖層的平均 SimAM 分數。作為 SimAM 的基準指標,ZSL SimAM 計算 ICL 注意力權重和 ZSL 注意力權重之間的相似性。透過比較這兩個指標,研究發現,與 ZSL 相比,ICL 更傾向於產生類似微調的注意力權重。同樣在註意力行為層面,研究證明 ICL 的行為類似於微調。

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

為了更徹底地探討 ICL 和微調之間的相似性,研究比較了不同層的 SimAOU 和 SimAM 分數。透過從每個資料集中隨機抽取 50 個驗證範例,分別繪製瞭如下圖 2 和圖 3 所示的 SimAOU 和 SimAM 箱形圖。

從圖中可以發現,SimAOU 和 SimAM 在較低層出現波動,並且往往在較高層更穩定。這種現象說明了 ICL 進行的元優化具有前向累積效應,隨著累積的增加,ICL 的行為更類似於較高層的微調。

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

被GPT带飞的In-Context Learning为什么起作用?模型在秘密执行梯度下降

總結

#總結而言,本文旨在解釋基於GPT 的ICL 工作機制。從理論上講,該研究找出了 ICL 的對偶形式,並建議將 ICL 理解為元最佳化過程。此外,該研究在 ICL 和特定微調設定之間建立了聯繫,發現將 ICL 視為一種隱式微調是合理的。為了支持對 ICL 執行隱式微調的理解,研究綜合比較了 ICL 和基於實際任務的微調的行為。結果證明,ICL 類似於顯式微調。

此外,受元最佳化的啟發,該研究設計了一種基於動量的注意力,以實現一致的性能改進。作者希望研究能幫助更多的人深入了解 ICL 應用和模型設計。

以上是被GPT帶飛的In-Context Learning為什麼會起作用?模型在秘密執行梯度下降的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! Mar 21, 2024 pm 05:21 PM

這篇論文探討了在自動駕駛中,從不同視角(如透視圖和鳥瞰圖)準確檢測物體的問題,特別是如何有效地從透視圖(PV)到鳥瞰圖(BEV)空間轉換特徵,這一轉換是透過視覺轉換(VT)模組實施的。現有的方法大致分為兩種策略:2D到3D和3D到2D轉換。 2D到3D的方法透過預測深度機率來提升密集的2D特徵,但深度預測的固有不確定性,尤其是在遠處區域,可能會引入不準確性。而3D到2D的方法通常使用3D查詢來採樣2D特徵,並透過Transformer學習3D和2D特徵之間對應關係的注意力權重,這增加了計算和部署的

See all articles