模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準

WBOY
發布: 2023-04-13 12:04:02
轉載
1812 人瀏覽過

隨著語言模型變得越來越大(參數數量、使用的計算量和資料集大小都變大),它們的表現似乎也原來越好,這被稱為自然語言的Scaling Law。這一點已經在許多任務中被證明是正確的。

或許,也存在某些任務的結果會因為模型規模的增加反而變得糟糕。這類任務稱為 Inverse Scaling,它們可以指示出訓練資料或最佳化目標是否有某種缺陷。

今年,紐約大學的幾位研究者組織了一項較為另類的競賽:尋找一些大模型不擅長的任務。在這些任務上,語言模型越大,表現反而越差。

為了鼓勵大家參與識別 Inverse Scaling 任務,他們創立了 Inverse Scaling 獎,獲獎的投稿任務將從 25 萬美元的獎金池中獲得獎勵。發布該獎項的專家會根據一系列標準對提交的內容進行評估:標準包括 Inverse Scaling 的強度、任務重要性、新穎性、任務覆蓋率、可再現性和 Inverse Scaling 的通用性。

比賽共有兩輪,第一輪截止時間是 2022 年 8 月 27 日,第二輪截止時間是 2022 年 10 月 27 日。兩輪中的第一輪收到了 43 份提交,其中四項任務被授予三等獎,它們將被納入最終的 Inverse Scaling 基準。

相關的研究成果,被Google的幾位研究者總結在了一篇論文裡:

模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準

論文連結:https://arxiv.org/pdf/2211.02011.pdf

這四項任務的Inverse Scaling 應用在了三個語言模型,模型的參數跨越三個量級:Gopher(42M–280B)、Chinchilla(400M–70B)和Anthropic internal model(13M–52B)。獲得 Inverse Scaling 獎勵的任務是 Negation QA、Hindsight Neglect、Quote Repetition 和 Redefine Math。相關任務示例如圖 1 所示。

模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準

在論文中,作者對這四個任務的縮放表現進行了詳細研究。

作者首先在 PaLM-540B 模型上進行評估,該模型的計算量是 Inverse Scaling 獎提交文件中的評估模型的 5 倍。有了PaLM-540B 的對比,作者發現,四個任務中有三個表現出稱為U 型縮放的特性:性能先是隨著模型規模增大降到一定程度,然後隨著模型的增大性能再次上升。

作者認為,當一項任務同時包含「true task」和「distractor task」時,就會出現 U 型縮放。中等模型可能會執行“distractor task”,從而影響性能,而更大的模型可能會忽略“distractor task”並且能執行“true task”。作者對 U 型縮放的發現與 BIG-Bench 任務(如 TruthfulQA、辨識數學定理)的結果一致。 U 型縮放的含義是,Inverse Scaling 曲線可能不適用於更大的模型,因為效能可能會繼續下降,也可能會開始上升。

接著,作者探討了 chain-of-thought(CoT)的 prompt 是否改變了這些任務的縮放。與不使用 CoT 的 prompt 相比,使用 CoT 的 prompt 會激勵模型將任務分解為多個中間步驟。作者的實驗表明,使用 CoT 讓三個 U 型縮放任務中的兩個變成了 Positive Scaling 曲線,其餘任務從 Inverse Scaling 變成 Positive Scaling。使用 CoT 的 prompt 時,大型模型甚至在 Redefine Math. 中的兩個任務和八個子任務中的七個任務上實現了 100% 的準確率。

結果表明,「Inverse Scaling」這個術語其實並不明確,因為對於一個prompt,給定的任務可能是Inverse Scaling,但對於不同的prompt ,則可能是Positive Scaling 也可能是U 型縮放。

U-shaped scaling 

在這一部分,作者分別使用原始論文中提出的8B、62B 和540B 的Palm 模型,評估了Palm 模型在四個Inverse Scaling 獎的任務上的表現,也包含40B tokens 訓練所得的1B 模型(其計算量約為0.2 zettaFLOP)。單一 Palm-540B 的參數大約是 Inverse Scaling 獎中評估的最大模型 (Gopher-280B) 的兩倍,計算量約為 2.5K zettaFLOP,而 Chinchilla-70B 的計算量僅有 560 zettaFLOP。

作者在遵循Inverse Scaling 獎的預設設定之外,也做了小的修改,例如使用free-form generation(其後緊接著是精確的字串匹配,而非排名分類),後者比較了Prompt 的兩個可能延續的機率。作者同時對 Prompt 進行了小的修改以適應 free-form generation,即所有 Prompt 都至少是單次的,輸入 prompt 中提供了答案選項,prompt 讓模型輸出“the answer is”。

具體形式如圖 1 所示。作者認為這是合理的,因為這種形式與最近研究prompt 的工作是一致的,先前評估的模型和PaLM 8B/62B 之間的經驗表現相似(作者在本文中使用的所有prompt 都是可用的。 )

圖2 展示了Palm、Anthropic、Gopher、Chinchilla 在四個任務上的結果:


模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準


在Negation QA 任務上,Palm-62B 的準確率同Palm-8B 模型相比大幅下降,而Palm-540B模型的準確率又有所提高;

在Hindsight Neglect 任務上,Palm-8B 和Palm-62B 的準確率下降到遠低於隨機數的水平,但Palm- 540B 的準確率卻達到了100%;模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準

在Quote Repetition 任務上,準確率從Palm-8B 的86% 下降到Palm-62B 的81%,但Palm-540B的準確率卻達到了100%。事實上,在 Quote Repetition 任務中,Gopher 和 Chinchilla 模型已經顯示出 U 型縮放的跡象。

###這四個任務中的例外是 Redefine Math,因為即使是 Palm-540B,它也沒有顯示任何 U 型縮放的跡象。因此,對於目前存在的大模型,目前還不清楚這項任務是否會變成 U 型縮放。或者它真的會是 Inverse Scaling 呢? ############對於 U 型縮放的一個問題是:為什麼效能會先下降後又會上升? ############作者給出一個推測假設:即每個Inverse Scaling 獎中的任務可以分解為兩個任務(1)“true task”和(2)影響性能的“distractor task」。由於小模型不能完成這兩個任務,所以只能達到隨機準確度附近的表現。中等模型可能會執行“distractor task”,這會導致效能下降。大型模型能夠忽略分「distractor task」,執行「true task」讓效能的提高,並有可能解決任務。 ############圖 5 展示了潛在的「distractor task」。雖然可以僅在“distractor task”上測試模型的性能,但這是一個不完美的消融實驗,因為“distractor task”和“true task”不僅可能相互競爭,而且可能對性能產生聯合影響。接下來作者進一步解釋為什麼會出現 U 型縮放以及未來需做的工作。 ##################CoT prompt 對Inverse Scaling 的影響#########接下來,作者探索了使用不同類型prompt 時,Inverse Scaling 獎的4 個任務的縮放是如何變化的。雖然Inverse Scaling 獎的發起者使用了基本的prompt 策略,即在指令中包括少樣本, chain-of-thought(CoT)激勵模型在給出最終答案之前輸出中間步驟,這可以在多步驟推理任務中大幅提高性能。即沒有 CoT 的 prompt 是模型能力的下限。對於某些任務,CoT 的 prompt 能更好代表模型的最佳表現。 ######

圖 3 的上半部是 CoT 的 prompt 範例,下半部是 Negation QA、Hindsight Neglect、Quote Repetition 在有 CoT 的 prompt 情況下的表現。

對於 Negation QA 和 Hindsight Neglect,CoT 的 prompt 使縮放曲線從 U 型變成正向的。對於 Quote Repetition,CoT 的 prompt 仍呈現出 U 型曲線,儘管 Palm-8B 和 Palm-62B 的性能明顯更好,並且 Palm-540B 準確率達到 100%。

模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準

圖 4 展示了 Redefine Math 在有 CoT 的 prompt 情況下的結果。該任務實際上由 8 個子任務組成,每個子任務都有不同的指令,因此作者還按子任務對效能進行了劃分,以探索子任務是否具有相同的縮放行為。總之,CoT 的 prompt 對所有子任務都顯示出 Positive Scaling,8 個子任務中有 7 個在 Palm-62B 和 Palm-540B 模型上實現了 100% 的準確率。但對於「 as digit」和「 as random number」子任務,就算使用 Palm-540B,也顯示出明顯的 Inverse Scaling 曲線。

模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準

綜上所述,所有被研究的任務和子任務,在使用 CoT 的 prompt 時都呈現出 U 型縮放或 Positive Scaling。這並不意味著 no-CoT 的 prompt 結果是無效的,相反地它透過強調任務的縮放曲線如何根據使用的 prompt 類型而不同,提供了額外的細微差別。即相同任務對於一種類型的 prompt 可以具有 Inverse Scaling 曲線,而對於另一種類型的 prompt 就可能具有 U 型縮放或 Positive Scaling。因此“inverse scaling task”這個術語沒有明確的定義。

以上是模型越大,表現越差?谷歌收集了讓大模型折戟的任務,也打造了一個新基準的詳細內容。更多資訊請關注PHP中文網其他相關文章!

相關標籤:
來源:51cto.com
本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn
最新問題
熱門教學
更多>
最新下載
更多>
網站特效
網站源碼
網站素材
前端模板