首頁 科技週邊 人工智慧 DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

Nov 07, 2023 pm 09:13 PM
理論 transformer

Transformer 難道注定無法解決「訓練資料」以外的新問題?

說起大語言模型所展示的令人印象深刻的能力,其中之一就是透過提供上下文中的樣本,要求模型根據最終提供的輸入生成一個響應,從而實現少樣本學習的能力。這一點依靠的是底層機器學習技術「Transformer 模型」,它們也能在語言以外的領域執行上下文學習任務。

根據過去的經驗,已經證明對於在預訓練的混合體中得到充分體現的任務族或函數類來說,選擇適當的函數類進行上下文學習幾乎沒有成本。因此,有些研究人員認為Transformer能夠很好地泛化與訓練資料相同分佈的任務或函數。然而,一個普遍存在但未解決的問題是:在與訓練資料分佈不一致的樣本上,這些模型的表現如何?

在最近的一項研究中,來自 DeepMind 的研究者藉助實證研究,對這個問題進行了探討。他們將泛化問題解釋為以下內容:「一個模型能否利用不屬於預訓練資料混合體中任何基本函數類別的函數的上下文樣本產生良好的預測?(Can a model generate good predictions with in-context examples from a function not in any of the base function classes seen in the pretraining data mixture? )”

這篇內容的重點是探討預訓練過程中使用的資料對由此產生的Transformer模型的少樣本學習能力的影響。為了解決這個問題,研究者首先研究了Transformer在預訓練過程中選擇不同函數類族進行模型選擇的能力(第3節),然後回答了幾個重點案例的OOD泛化問題(第4節)

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

論文連結:https://arxiv.org/pdf/2311.00871.pdf

在他們的研究中發現了以下情況:首先,預訓練的Transformer在預測從預訓練函數類別中提取的函數的凸組合時非常困難;其次,雖然Transformer可以有效地泛化函數類空間中較為罕見的部分,但當任務超出其分佈範圍時,Transformer仍然會發生錯誤

Transformer無法泛化出預訓練資料以外的認知,因此也無法解決認知以外的問題

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

總的來說,本文的貢獻如下所述:

  • 使用多種不同函數類別的混合體對Transformer 模型進行預訓練,以便進行上下文學習,並描述了模型選擇行為的特徵;

  • 對於與預訓練資料中函數類別「不一致」的函數,研究了預訓練Transformer 模型在上下文學習方面的行為

  • 強有力的證據已經表明,模型在上下文學習過程中可以在預訓練的函數類中進行模型選擇,而幾乎不需要額外的統計成本,但也存在有限證據,表明模型的上下文學習行為能夠超出其預訓練資料的範圍。

這位研究者認為,這可能是對安全方面來說的一個好消息,至少模型不會隨心所欲地行事

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

但也有人指出,這篇論文所使用的模型不太合適——「GPT-2 規模」意味著本文模型大概是15 億參數作用,這確實很難泛化。 DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

接下來,我們先來看看論文細節。

模型選擇現象

在對不同函數類別的資料混合體進行預訓練時,會面臨一個問題:當模型遇到預訓練混合體所支持的上下文樣本時,如何在不同函數類別之間做出選擇?

在研究中發現,當模型接觸到與預訓練資料中的函數類別相關的上下文樣本時,它能夠做出最佳(或接近最佳)的預測。研究人員也觀察了模型在不屬於任何單一成分函數類別的函數上的表現,並在第四部分討論了與預訓練資料完全不相關的函數

首先,我們從線性函數的研究入手,可以看到線性函數在情境學習領域引起了廣泛的關注。去年,史丹佛大學的 Percy Liang 等人發表的論文《變壓器在上下文中能學到什麼?一個簡單函數類別的案例研究》表明,預先訓練的變壓器在學習新的線性函數上下文時表現非常出色,幾乎達到了最佳水平

他們特別考慮了兩個模型:一個是在密集線性函數(線性模型的所有係數都非零)上訓練的模型,另一個是在稀疏線性函數(20 個係數中只有2 個係數非零)上訓練的模型。在新的密集線性函數和稀疏線性函數上,每個模型的表現分別與線性迴歸和 Lasso 迴歸相當。此外,研究者還將這兩個模型與在稀疏線性函數和密集線性函數的混合體上預先訓練的模型進行了比較。

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

如圖 1 所示,該模型在一個DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑混合體在情境學習中的表現與只對一個函數類別進行預訓練的模型相似。由於混合體預訓練模型的表現與 Garg et al.[4] 的理論最優模型相似,研究者推論模型也接近最適。圖 2 中的 ICL 學習曲線表明,這種情境模型選擇能力與所提供的上下文範例數量相對一致。在圖 2 中也可以看到,對於特定函數類,使用各種 non-trivial 權重DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

ICL學習曲線與最佳基線樣本複雜度幾乎一致。偏差很小,隨著ICL樣本數量的增加,偏差迅速減小,與圖1中的ICL學習曲線上的點相符

圖2顯示,Transformer模型的ICL泛化會受到分佈外的影響。雖然密集線性類別和稀疏線性類別都是線性函數,但可以看到圖2a中紅色曲線(對應於只在稀疏線性函數上進行預訓練並在密集線性資料上進行評估的Transformer)的表現很差,反之亦然,圖2b中茶色曲線的表現也很差。研究者在其他非線性函數類別中也觀察到了類似的表現

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

回到圖1 的實驗,將誤差繪製為整個可能範圍內非零係數數量的函數,結果顯示,在w = .5 的混合體上預處理的模型,DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑,在整個過程中的表現與在混合體上預處理的模型(即w = 0 以及w = 1)一樣好(圖3a)。這表明該模型能夠進行模型選擇,以選擇是否僅使用預訓練混合體中一個基函數類的知識或另一個基函數類的知識進行預測。

事實上,圖3b 顯示,當上下文中提供的樣本來自非常稀疏或非常密集的函數時,預測結果幾乎與只使用稀疏資料或只使用密集資料預訓練的模型預測結果完全相同。然而,在兩者之間,當非零係數的數量≈4 時,混合預測結果偏離了純密集或純稀疏預訓練 Transformer 的預測結果。

這表明對混合體進行預訓練的模型並不是簡單地選擇單一函數類別進行預測,而是預測介於兩者之間的結果。

模型選擇能力的限制

接著,研究人員從兩個角度檢視了模型的ICL泛化能力。第一,測試了模型在訓練過程中未曾接觸過的函數的ICL表現;第二,評估了模型在預訓練中曾經接觸過的函數的極端版本的ICL表現

在這兩種情況下,研究幾乎沒有發現分佈外泛化的證據。當函數與預訓練期間看到的函數相差很大時,預測就會不穩定;當函數足夠接近預訓練資料時,模型可以很好地近似

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

Transformer在中等稀疏等級(nnz = 3到7)下的預測與預訓練提供的任何函數類別的預測都不相似,而是介於兩者之間,如圖3a所示。因此,我們可以推斷模型具有某種歸納偏差,使其能夠以非平凡的方式組合預先訓練的函數類別。例如,我們可以懷疑模型可以根據預訓練期間看到的函數組合來產生預測。為了驗證這個假設,研究者探討了對線性函數、正弦曲線和兩者的凸組合執行ICL的能力。他們將重點放在一維情況上,以便更容易評估和可視化非線性函數類別

圖4 顯示,雖然在線性函數和正弦曲線的混合上預訓練的模型(即DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑)能夠分別對這兩個函數中的任何一個做出良好的預測,它無法擬合兩者的凸組合函數。這表明圖 3b 中所示的線性函數插值現象並不是 Transformer 上下文學習的可概括的歸納偏差。然而,它繼續支持更狹隘的假設,即當情境樣本接近預訓練中學習的函數類別時,模型能夠選擇最佳函數類別用於預測。

DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑

如需了解更多研究細節,請查閱原文

以上是DeepMind指出「Transformer無法超出預訓練資料實現泛化」,但有人投來質疑的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1664
14
CakePHP 教程
1421
52
Laravel 教程
1315
25
PHP教程
1266
29
C# 教程
1239
24
突破傳統缺陷檢測的界限,\'Defect Spectrum\'首次實現超高精度豐富語意的工業缺陷檢測。 突破傳統缺陷檢測的界限,\'Defect Spectrum\'首次實現超高精度豐富語意的工業缺陷檢測。 Jul 26, 2024 pm 05:38 PM

在現代製造業中,精準的缺陷檢測不僅是確保產品品質的關鍵,更是提升生產效率的核心。然而,現有的缺陷檢測資料集常常缺乏實際應用所需的精確度和語意豐富性,導致模型無法辨識特定的缺陷類別或位置。為了解決這個難題,由香港科技大學廣州和思謀科技組成的頂尖研究團隊,創新地開發了「DefectSpectrum」資料集,為工業缺陷提供了詳盡、語義豐富的大規模標註。如表一所示,相較於其他工業資料集,「DefectSpectrum」資料集提供了最多的缺陷標註(5438張缺陷樣本),最細緻的缺陷分類(125個缺陷類別

英偉達對話模式ChatQA進化到2.0版本,上下文長度提到128K 英偉達對話模式ChatQA進化到2.0版本,上下文長度提到128K Jul 26, 2024 am 08:40 AM

開放LLM社群正是百花齊放、競相爭鳴的時代,你能看到Llama-3-70B-Instruct、QWen2-72B-Instruct、Nemotron-4-340B-Instruct、Mixtral-8x22BInstruct-v0.1等許多表現優良的模型。但是,相較於以GPT-4-Turbo為代表的專有大模型,開放模型在許多領域仍有明顯差距。在通用模型之外,也有一些專精關鍵領域的開放模型已被開發出來,例如用於程式設計和數學的DeepSeek-Coder-V2、用於視覺-語言任務的InternVL

數百萬晶體資料訓練,解決晶體學相位問題,深度學習方法PhAI登Science 數百萬晶體資料訓練,解決晶體學相位問題,深度學習方法PhAI登Science Aug 08, 2024 pm 09:22 PM

編輯|KX時至今日,晶體學所測定的結構細節和精度,從簡單的金屬到大型膜蛋白,是任何其他方法都無法比擬的。然而,最大的挑戰——所謂的相位問題,仍然是從實驗確定的振幅中檢索相位資訊。丹麥哥本哈根大學研究人員,開發了一種解決晶體相問題的深度學習方法PhAI,利用數百萬人工晶體結構及其相應的合成衍射數據訓練的深度學習神經網絡,可以產生準確的電子密度圖。研究表明,這種基於深度學習的從頭算結構解決方案方法,可以以僅2埃的分辨率解決相位問題,該分辨率僅相當於原子分辨率可用數據的10%到20%,而傳統的從頭算方

GoogleAI拿下IMO奧數銀牌,數學推理模型AlphaProof面世,強化學習 is so back GoogleAI拿下IMO奧數銀牌,數學推理模型AlphaProof面世,強化學習 is so back Jul 26, 2024 pm 02:40 PM

對AI來說,奧數不再是問題了。本週四,GoogleDeepMind的人工智慧完成了一項壯舉:用AI做出了今年國際數學奧林匹克競賽IMO的真題,並且距拿金牌僅一步之遙。上週剛結束的IMO競賽共有六道賽題,涉及代數、組合學、幾何和數論。谷歌提出的混合AI系統做對了四道,獲得28分,達到了銀牌水準。本月初,UCLA終身教授陶哲軒剛剛宣傳了百萬美元獎金的AI數學奧林匹克競賽(AIMO進步獎),沒想到7月還沒過,AI的做題水平就進步到了這種水平。 IMO上同步做題,做對了最難題IMO是歷史最悠久、規模最大、最負

PRO | 為什麼基於 MoE 的大模型更值得關注? PRO | 為什麼基於 MoE 的大模型更值得關注? Aug 07, 2024 pm 07:08 PM

2023年,幾乎AI的每個領域都在以前所未有的速度進化,同時,AI也不斷地推動著具身智慧、自動駕駛等關鍵賽道的技術邊界。在多模態趨勢下,Transformer作為AI大模型主流架構的局面是否會撼動?為何探索基於MoE(專家混合)架構的大模型成為業界新趨勢?大型視覺模型(LVM)能否成為通用視覺的新突破? ……我們從過去的半年發布的2023年本站PRO會員通訊中,挑選了10份針對以上領域技術趨勢、產業變革進行深入剖析的專題解讀,助您在新的一年裡為大展宏圖做好準備。本篇解讀來自2023年Week50

為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 為大模型提供全新科學複雜問答基準與評估體系,UNSW、阿貢、芝加哥大學等多家機構共同推出SciQAG框架 Jul 25, 2024 am 06:42 AM

編輯|ScienceAI問答(QA)資料集在推動自然語言處理(NLP)研究中發揮著至關重要的作用。高品質QA資料集不僅可以用於微調模型,也可以有效評估大語言模型(LLM)的能力,尤其是針對科學知識的理解和推理能力。儘管目前已有許多科學QA數據集,涵蓋了醫學、化學、生物等領域,但這些數據集仍有一些不足之處。其一,資料形式較為單一,大多數為多項選擇題(multiple-choicequestions),它們易於進行評估,但限制了模型的答案選擇範圍,無法充分測試模型的科學問題解答能力。相比之下,開放式問答

準確率達60.8%,浙大基於Transformer的化學逆合成預測模型,登Nature子刊 準確率達60.8%,浙大基於Transformer的化學逆合成預測模型,登Nature子刊 Aug 06, 2024 pm 07:34 PM

編輯|KX逆合成是藥物發現和有機合成中的關鍵任務,AI越來越多地用於加快這一過程。現有AI方法性能不盡人意,多樣性有限。在實踐中,化學反應通常會引起局部分子變化,反應物和產物之間存在很大重疊。受此啟發,浙江大學侯廷軍團隊提出將單步逆合成預測重新定義為分子串編輯任務,迭代細化目標分子串以產生前驅化合物。並提出了基於編輯的逆合成模型EditRetro,該模型可以實現高品質和多樣化的預測。大量實驗表明,模型在標準基準資料集USPTO-50 K上取得了出色的性能,top-1準確率達到60.8%。

Nature觀點,人工智慧在醫學上的測試一片混亂,該怎麼做? Nature觀點,人工智慧在醫學上的測試一片混亂,該怎麼做? Aug 22, 2024 pm 04:37 PM

編輯|ScienceAI基於有限的臨床數據,數百種醫療演算法已被批准。科學家們正在討論由誰來測試這些工具,以及如何最好地進行測試。 DevinSingh在急診室目睹了一名兒科患者因長時間等待救治而心臟驟停,這促使他探索AI在縮短等待時間中的應用。 Singh利用了SickKids急診室的分診數據,與同事們建立了一系列AI模型,用於提供潛在診斷和推薦測試。一項研究表明,這些模型可以加快22.3%的就診速度,將每位需要進行醫學檢查的患者的結果處理速度加快近3小時。然而,人工智慧演算法在研究中的成功只是驗證此

See all articles