目錄
CoT 是解决数学问题的关键
CoT 是解決一般決策問題的關鍵
實驗
首頁 科技週邊 人工智慧 思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

Jun 03, 2023 pm 04:49 PM
模型 思維

大模型涌现中最神秘的现象之一是思维链提示(CoT),尤其在解决数学推理和决策问题方面展现出惊人的效果。CoT到底有多重要呢?它背后成功的机制是什么?本文中,北大的几位研究者证明了CoT在实现大语言模型(LLM)推理中是不可或缺的,并从理论和实验角度揭示了CoT如何释放LLM的巨大潜力。

最近的研究发现,思维链提示(Chain of Thought prompting,简称为 CoT)可以显著提升大语言模型(LLM)的性能,尤其适用于处理涉及数学或推理的复杂任务。不过尽管取得了很大成功,但 CoT 背后的机制以及如何释放 LLM 的潜力仍然难以捉摸。

近日,北京大学的一项新研究从理论视角揭示了 CoT 背后的奥秘。

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

论文链接:https://arxiv.org/abs/2305.15408

基于 Transformer 的大语言模型已经成为自然语言处理中的通用模型,在各种任务上都获得了广泛的应用。主流的大模型通常基于自回归范式来实现,具体而言,各种不同的任务(如文本翻译、文本生成、问题回答等)都可以统一地视为序列生成问题,其中问题的输入和问题描述被一起被编码为一个单词(token)序列,称为提示(prompt);问题的答案便可以转化为基于提示来条件生成后续单词的任务。

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

在大模型领域中有大量的研究已经表明,精心设计的提示词对模型的表现起着至关重要的作用。特别是在涉及算术或推理相关的任务时, CoT 已被表明能够大大提高所生成答案的正确性。如下图所示,对于一个需要数学推理的任务,大模型直接生成的答案往往是错误的(下图 a,b)。但是如果通过修改提示使得大模型输出整个思维链(中间推导步骤),最终便能够得到正确答案(下图 c,d)。

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

在实践中,思维链提示有两种主流的实现方式:一种是在提示中添加特定短语,如 “Let’s think step by step” 来触发(如上图 c);另一种是通过提供少量的思维链演示的例子来让大模型模拟相应的推导过程(如上图 d)。

然而,尽管 CoT 在大量实验上都取得了显著的表现,但背后的理论机制却仍然是个谜。一方面,大模型在直接回答数学、推理等问题方面是否确实存在固有理论缺陷?另一方面,为什么 CoT 可以提升大模型在这些任务上的能力?这篇论文从理论角度对上述问题进行了回答。

具体而言,研究者从模型表达能力的角度来研究 CoT:对于数学任务和一般的决策任务,本文研究了基于自回归的 Transformer 模型在以下两个方面的表达能力:(1)直接生成答案,以及(2)采用 CoT 的方式生成完整的解决步骤。 

CoT 是解决数学问题的关键

以 GPT-4 为代表的大模型已经展现出了令人震惊的数学能力。例如,它能够正确求解大部分高中数学题,甚至已经成为数学家们的研究助手。

为了研究大模型在数学方面的能力,本文选取了两个非常基础但核心的数学任务:算术和方程(下图给出了这两个任务的输入输出示例)。由于它们是解决复杂数学问题的基本组件,因此通过对这两个核心数学问题的研究,我们可以对大模型在一般数学问题上的能力有一个更深刻的理解。

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

研究者首先探究了 Transformer 是否能夠輸出上述問題的答案而不輸出中間步驟。他們考慮了一個與實際上非常吻合的假設 ——log 精度 Transformer,即 Transformer 的每個神經元只能表示有限精度的浮點數(精度為 log n 位元),其中 n 是句子的最大長度。這個假設與實際非常接近,例如在 GPT-3 中,機器精確度(16 位元或 32 位元)通常要遠小於最大輸出句子長度(2048)。

在這個假設下,研究者證明了一個核心不可能結果:#對於常數層、寬度為d 的自回歸Transformer 模型,以直接輸出答案的方式在解上述兩個數學問題時,需要使用極大的模型寬度d。具體而言,d 需要以超越多項式的成長速度隨輸入長度 n 的成長而變大。

造成這一結果的本質原因在於,上述兩個問題不存在高效的平行演算法,因此 Transformer 作為典型的平行模型無法對其進行求解。文章使用理論計算機科學中的電路複雜性理論對上述定理進行了嚴格證明。

那麼,如果模型不是直接輸出答案,而是依照上圖的形式輸出中間推導步驟呢?研究者進一步透過構造證明了,當模型可以輸出中間步驟時,一個固定大小(不依賴輸入長度n)的自回歸Transformer 模型便可以解決上述兩個數學問題

對比先前的結果可以看出,加入 CoT 大大提升了大模型的表達能力。研究者進一步對此給出了直觀的理解:這是因為CoT 的引入會將生成的輸出單字不斷回饋到輸入層,這大大增加了模型的有效深度,使其正比於CoT 的輸出長度,從而極大地提升了Transformer 的平行複雜度。

CoT 是解決一般決策問題的關鍵

除了數學問題,研究者進一步考慮了 CoT 在解決一般任務上的能力。他們從決策問題出發,考慮了解決決策問題的通用框架,稱為動態規劃。

動態規劃(DP)的基本概念在於將複雜問題分解為一系列可以依序解決的小規模子問題。其中對問題的分解確保了各個子問題之間存在顯著的相互關聯(重疊),從而使得每個子問題可以利用先前的子問題上的答案來有效解決。

最長上升子序列(LIS)和求解編輯距離(ED)是《演算法導論》一書中提出的兩個著名的DP 問題,下表列出了這兩個問題的狀態空間、轉移函數的聚合函數。

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

#研究者證明了,自回歸Transformer 模型可以依照解決子問題的順序輸出一個完整的動態規劃思維鏈,從而對於所有能夠用動態規劃解決的任務都能輸出正確答案。同樣地,研究者進一步證明了產生思維鍊是必要的:對於許多困難的動態規劃問題,一個常數層、多項式大小的 Transformer 模型無法直接輸出正確答案。文章透過上下文無關文法成員測試這一問題給了反例。

實驗

研究者最後設計了大量實驗對上述理論進行了驗證,考慮了四種不同的任務:算術表達式求值、解線性方程組、求解最長上升子序列以及求解編輯距離。

實驗結果表明,當使用 CoT 資料進行訓練時,一個 3 層的自回歸 Transformer 模型已經能夠在所有任務上均取得幾乎完美的表現。然而,直接輸出正確答案在所有任務上的表現都很差(即使使用更深的模型)。這一結果清楚地展示了自回歸 Transformer 在解決各種複雜任務上的能力,並表明了 CoT 在解決這些任務中的重要性。

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

研究者也探討了學得的自迴歸模型是否可以進一步外推到更長的資料。他們為運算任務建立了一個 CoT 訓練資料集,其中運算子數量從 1 到 15,並在算子數量 n ∈ {16, 17, 18} 的表達式上測試模型。結果如下圖 3 所示,研究者的三層 Transformer 模型依然在更長的序列上表現良好,顯示模型在某種程度上確實學習了底層機制。因此,研究者相信在更多不同長度的資料上訓練的模型最終可以揭示完整的算術規則。

思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘

以上是思維鏈如何釋放語言模型的隱藏能力?最新理論研究揭示背後奧秘的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 全球最強開源 MoE 模型來了,中文能力比肩 GPT-4,價格僅 GPT-4-Turbo 的近百分之一 May 07, 2024 pm 04:13 PM

想像一下,一個人工智慧模型,不僅擁有超越傳統運算的能力,還能以更低的成本實現更有效率的效能。這不是科幻,DeepSeek-V2[1],全球最強開源MoE模型來了。 DeepSeek-V2是一個強大的專家混合(MoE)語言模型,具有訓練經濟、推理高效的特點。它由236B個參數組成,其中21B個參數用於啟動每個標記。與DeepSeek67B相比,DeepSeek-V2效能更強,同時節省了42.5%的訓練成本,減少了93.3%的KV緩存,最大生成吞吐量提高到5.76倍。 DeepSeek是一家探索通用人工智

AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 AI顛覆數學研究!菲爾茲獎得主、華裔數學家領銜11篇頂刊論文|陶哲軒轉贊 Apr 09, 2024 am 11:52 AM

AI,的確正在改變數學。最近,一直十分關注這個議題的陶哲軒,轉發了最近一期的《美國數學學會通報》(BulletinoftheAmericanMathematicalSociety)。圍繞著「機器會改變數學嗎?」這個話題,許多數學家發表了自己的觀點,全程火花四射,內容硬核,精彩紛呈。作者陣容強大,包括菲爾茲獎得主AkshayVenkatesh、華裔數學家鄭樂雋、紐大電腦科學家ErnestDavis等多位業界知名學者。 AI的世界已經發生了天翻地覆的變化,要知道,其中許多文章是在一年前提交的,而在這一

Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Google狂喜:JAX性能超越Pytorch、TensorFlow!或成GPU推理訓練最快選擇 Apr 01, 2024 pm 07:46 PM

谷歌力推的JAX在最近的基準測試中表現已經超過Pytorch和TensorFlow,7項指標排名第一。而且測試並不是JAX性能表現最好的TPU上完成的。雖然現在在開發者中,Pytorch依然比Tensorflow更受歡迎。但未來,也許有更多的大型模型會基於JAX平台進行訓練和運行。模型最近,Keras團隊為三個後端(TensorFlow、JAX、PyTorch)與原生PyTorch實作以及搭配TensorFlow的Keras2進行了基準測試。首先,他們為生成式和非生成式人工智慧任務選擇了一組主流

你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 你好,電動Atlas!波士頓動力機器人復活,180度詭異動作嚇到馬斯克 Apr 18, 2024 pm 07:58 PM

波士頓動力Atlas,正式進入電動機器人時代!昨天,液壓Atlas剛「含淚」退出歷史舞台,今天波士頓動力就宣布:電動Atlas上崗。看來,在商用人形機器人領域,波士頓動力是下定決心要跟特斯拉硬剛一把了。新影片放出後,短短十幾小時內,就已經有一百多萬觀看。舊人離去,新角色登場,這是歷史的必然。毫無疑問,今年是人形機器人的爆發年。網友銳評:機器人的進步,讓今年看起來像人類的開幕式動作、自由度遠超人類,但這真不是恐怖片?影片一開始,Atlas平靜地躺在地上,看起來應該是仰面朝天。接下來,讓人驚掉下巴

替代MLP的KAN,被開源專案擴展到卷積了 替代MLP的KAN,被開源專案擴展到卷積了 Jun 01, 2024 pm 10:03 PM

本月初,來自MIT等機構的研究者提出了一種非常有潛力的MLP替代方法—KAN。 KAN在準確性和可解釋性方面表現優於MLP。而且它能以非常少的參數量勝過以更大參數量運行的MLP。例如,作者表示,他們用KAN以更小的網路和更高的自動化程度重現了DeepMind的結果。具體來說,DeepMind的MLP有大約300,000個參數,而KAN只有約200個參數。 KAN與MLP一樣具有強大的數學基礎,MLP基於通用逼近定理,而KAN基於Kolmogorov-Arnold表示定理。如下圖所示,KAN在邊上具

特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! 特斯拉機器人進廠打工,馬斯克:手的自由度今年將達到22個! May 06, 2024 pm 04:13 PM

特斯拉機器人Optimus最新影片出爐,已經可以在工廠裡打工了。正常速度下,它分揀電池(特斯拉的4680電池)是這樣的:官方還放出了20倍速下的樣子——在小小的「工位」上,揀啊揀啊揀:這次放出的影片亮點之一在於Optimus在廠子裡完成這項工作,是完全自主的,全程沒有人為的干預。而且在Optimus的視角之下,它還可以把放歪了的電池重新撿起來放置,主打一個自動糾錯:對於Optimus的手,英偉達科學家JimFan給出了高度的評價:Optimus的手是全球五指機器人裡最靈巧的之一。它的手不僅有觸覺

FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 FisheyeDetNet:首個以魚眼相機為基礎的目標偵測演算法 Apr 26, 2024 am 11:37 AM

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP

DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! DualBEV:大幅超越BEVFormer、BEVDet4D,開卷! Mar 21, 2024 pm 05:21 PM

這篇論文探討了在自動駕駛中,從不同視角(如透視圖和鳥瞰圖)準確檢測物體的問題,特別是如何有效地從透視圖(PV)到鳥瞰圖(BEV)空間轉換特徵,這一轉換是透過視覺轉換(VT)模組實施的。現有的方法大致分為兩種策略:2D到3D和3D到2D轉換。 2D到3D的方法透過預測深度機率來提升密集的2D特徵,但深度預測的固有不確定性,尤其是在遠處區域,可能會引入不準確性。而3D到2D的方法通常使用3D查詢來採樣2D特徵,並透過Transformer學習3D和2D特徵之間對應關係的注意力權重,這增加了計算和部署的

See all articles