首頁 科技週邊 人工智慧 RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

Aug 05, 2024 pm 02:20 PM
產業 mamba Griffin Hawk

去年 12 月,新架構 Mamba 引爆了 AI 圈,向屹立不倒的 Transformer 發起了挑戰。如今,Google DeepMind“Hawk ”和“Griffin ”的推出為 AI 圈提供了新的選擇。


這次,Google DeepMind 在基礎模型方面又有了新動作。

我們知道,循環神經網路(RNN)在深度學習和自然語言處理研究的早期發揮了核心作用,並在許多應用中取得了實功,包括谷歌第一個端到端機器翻譯系統。不過近年來,深度學習和 NLP 都以 Transformer 架構為主,該架構融合了多層感知器(MLP)和多頭注意力(MHA)。

Transformer 已經在實踐中實現了比 RNN 更好的性能,並且在利用現代硬體方面也非常高效。基於 Transformer 的大語言模型在從網路收集的海量資料集上進行訓練,取得了顯著的成功。

縱然取得了很大的成功,但Transformer 架構仍有不足之處,例如由於全局注意力的二次複雜性,Transformer 很難有效地擴展到長序列。此外,鍵值(KV)快取隨序列長度線性成長,導致 Transformer 在推理過程中變慢。這時,循環語言模型成為一種替代方案,它們可以將整個序列壓縮為固定大小的隱藏狀態,並迭代更新。但若想取代 Transformer,新的 RNN 模型不僅必須在擴充上表現出相當的效能,而且必須實現類似的硬體效率。

在GoogleDeepMind 近日的一篇論文中,研究者提出了RG-LRU 層,它是一種新穎的門控線性循環層,並圍繞它設計了一個新的循環區塊來取代多查詢注意力(MQA)。

他們使用該循環塊構建了兩個新的模型,一個是混合了MLP 和循環塊的模型Hawk另一個是混合了MLP 與循環塊、局部注意力的模型Griffin

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

  • 論文標題:Griffin: Mixing Gated Linear Recurrences with Local Attention for Efficient Language Models
  • 連結:https://arxiv.org/pdf/2402.19427.pdf

研究者表示,Hawk 和Griffin 在held-out 損失和訓練FLOPs 之間表現出了冪律縮放,最高可以達到7B 參數,正如先前在Transformers 中觀察到的。其中 Griffin 在所有模型規模上實現了比強大 Transformer 基線略低的 held-out 損失。

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

研究者針對一系列模型規模、在300B tokens 上對Hawk 和Griffin 進行了過度訓練,結果顯示,Hawk-3B 在下游任務的表現上超越了Mamba-3B,儘管訓練的tokens 數量只有後者的一半。 Griffin-7B 和 Griffin-14B 的表現與 Llama-2 相當,儘管訓練的 tokens 數量只有後者的 1/7。

此外,Hawk 和 Griffin 在 TPU-v3 上達到了與 Transformers 相當的訓練效率。由於對角 RNN 層受記憶體限制,研究者使用了 RG-LRU 層的內核來實現這一點。

同時在推理過程中,Hawk 和 Griffin 都實現比 MQA Transformer 更高的吞吐量,並在採樣長序列時實現更低的延遲。當評估的序列比訓練中觀察到的更長時,Griffin 的表現比 Transformers 更好,並且可以有效地從訓練資料中學習複製和檢索任務。不過當在未經微調的情況下在複製和精確檢索任務上評估預訓練模型時,Hawk 和 Griffin 的表現不如 Transformers。

共同一作、DeepMind 研究科學家Aleksandar Botev 表示,混合了門控線性循環和局部注意力的模型Griffin 保留了RNN 的所有高效優勢和Transformer 的表達能力,最高可以擴展到14B 參數規模。

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba                         . 🎜>

Griffin 模型架構

Griffin 所有模型都包含以下組成部分:(i) 一個殘差區塊,(ii) 一個MLP 區塊,(iii) 一個時間混合區塊。所有模型的 (i) 和 (ii) 都是相同的,但時間混合區塊有三個:全域多查詢注意(MQA)、局部(滑動視窗)MQA 和本文提出的循環區塊。作為循環塊的一部分,研究者使用了真實門控線性循環單元(RG-LRU)— 一種受線性循環單元啟發的新型循環層。

如圖 2(a)所示,殘差塊定義了 Griffin 模型的全域結構,其靈感來自 pre-normTransformer。在嵌入輸入序列後,研究者將其通過 ? 這樣的區塊(? 表示模型深度),然後應用 RMSNorm 產生最終活化。為了計算 token 機率,應用了最後的線性層,然後是 softmax。此層的權重與輸入嵌入層共享。

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

循環模型,縮放效率媲美Transformer 

縮放研究如何調整模型的超參數及其在縮放時的行為提供了重要見解。

研究者定義了本研究中進行評估的模型,並提供了高達和超過 7B 參數的縮放曲線,並評估了模型在下游任務中的表現。

他們考慮了3 個模型系列:(1)MQA-Transformer 基線;(2)Hawk:純RNN 模型;(3)Griffin:混合模型,它將循環塊與局部注意力混合在一起。附錄 C 中定義了各種規模模型的關鍵模型超參數。

Hawk 架構使用了與Transformer 基線相同的殘差模式和MLP 區塊,但研究者使用了帶有RG-LRU 層的循環區塊作為時序混合區塊,而不是MQA。他們將循環區塊的寬度擴大了約 4/3 倍(即?_??? ≈4?/3),以便在兩者使用相同的模型維度 ? 時,與 MHA 區塊的參數數量大致匹配。

Griffin。與全域注意力相比,循環區塊的主要優勢在於它們使用固定的狀態大小來總結序列,而 MQA 的 KV 快取大小則與序列長度成正比增長。局部注意力具有相同的特性,而將循環塊與局部注意力混合則可以保留此優勢。研究者發現這種組合極為高效,因為局部注意力能準確模擬最近的過去,而循環層則能在長序列中傳遞訊息。

Griffin 使用了與 Transformer 基線相同的殘差模式和 MLP 區塊。但與 MQA Transformer 基線和 Hawk 模型不同的是,Griffin 混合使用了循環區塊和 MQA 區塊。具體來說,研究者採用了一種分層結構,將兩個殘差塊與一個循環塊交替使用,然後再使用一個局部(MQA)注意力塊。除非另有說明,局部注意力視窗大小固定為 1024 個 token。

主要縮放結果如圖 1(a)所示。三個模型系列都是在從 1 億到 70 億個參數的模型規模範圍內進行訓練的,不過 Griffin 擁有 140 億參數的版本。

在下游任務上的評估結果如表 1 所示:

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

Hawk 和 Griffin 的表現都非常出色。上表報告了 MMLU、HellaSwag、PIQA、ARC-E 和 ARC-C 的特徵歸一化準確率,同時報告了 WinoGrande 的絕對準確率和部分評分。隨著模型規模的增大,Hawk 的表現也得到了顯著提高,Hawk-3B 在下游任務中的表現要強於 Mamba-3B,儘管其訓練的 token 數量只有 Mamba-3B 的一半。 Griffin-3B 的表現明顯優於 Mamba-3B,Griffin-7B 和 Griffin-14B 的表現可與 Llama-2 相媲美,儘管它們是在少了近 7 倍的 token 上訓練出來的。 Hawk 能與 MQA Transformer 基線相媲美,而 Griffin 的表現則超過了這一基線。

在端側高效訓練循環模型

在開發和擴展模型時,研究者遇到了兩大工程挑戰。首先,如何在多台設備上有效地分片處理模型。第二,如何有效地實現線性循環,以最大限度地提高 TPU 的訓練效率。本文討論了這兩個難題,然後對 Griffin 和 MQA 基準的訓練速度進行實證比較。

研究者比較了不同模型大小和序列長度的訓練速度,以研究本文模型在訓練過程中的計算優勢。對於每種模型大小,都保持每批 token 的總數固定不變,這意味著隨著序列長度的增加,序列數量也會按比例減少。

圖 3 繪製了 Griffin 模型與 MQA 基線模型在 2048 個序列長度下的相對運行時間。

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

推理速度

LLM 的推理由兩個階段組成。 「預填充 」階段是接收並處理 prompt。這一步其實是對模型進行前向傳遞。由於prompt 可以在整個序列中並行處理,因此在這一階段,大多數模型操作都是計算受限的因此,研究者預計Transformers 模型和循環模型在預填充階段的相對速度與前文討論的那些模型在訓練期間的相對速度相似。

預填充之後是解碼階段,在這一階段,研究者從模型中自回歸地採 token。如下所示,尤其是對於序列長度較長時,注意力中使用的鍵值(KV)快取變得很大,循環模型在解碼階段具有更低的延遲和更高的吞吐量。

評估推論速度時有兩個主要指標需要考慮。第一個是延遲,它衡量在特定批次大小下產生指定數量 token 所需的時間。第二個是吞吐量,它衡量在單一裝置上採樣指定數量 token 時每秒可以產生的最大 token 數。因為吞吐量由採樣的 token 數乘以批次大小除以延遲得出,所以可以透過減少延遲或減少記憶體使用以在裝置上使用更大的批次大小來提高吞吐量。對於需要快速反應時間的即時應用來說,考慮延遲是有用的。吞吐量也值得考慮,因為它可以告訴我們在給定時間內可以從特定模型中採樣的最大 token 數量。當考慮其他語言應用,如基於人類回饋的強化學習(RLHF)或評分語言模型輸出(如AlphaCode 中所做的)時,這個屬性是有吸引力的,因為能夠在給定時間內輸出大量token 是一個吸引人的特性。

在此,研究者研究了參數為 1B 的模型推理結果。在基線方面,它們與 MQA  Transformer 進行了比較,後者在推理過程中的速度明顯快於文獻中常用的標準 MHA 變換器。研究者比較的模型有:i) MQA 變換器,ii) Hawk 和 iii) Griffin。為了比較不同的模型,我們報告了延遲和吞吐量。

如圖 4 所示,研究者比較了批量大小為 16、空預填充和預填充 4096 個 token 的模型的延遲。

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

圖 1(b)中比較了相同模型在空提示後分別取樣 512、1024、2048 和 4196 個 token 時的最大吞吐量(token / 秒)。

長上下文建模

本文也探討了Hawk 和Griffin 使用較長上下文來改進下一個token 預測的有效性,並研究它們在推理過程中的外推能力。另外也探討了 Griffin 在需要複製和檢索能力的任務中的表現,既包括在此類任務中訓練的模型,也包括在使用預訓練的語言模型測試這些能力時的表現。

從圖5 左側的曲線圖中,可以觀察到,在一定的最大長度範圍內,Hawk 和Griffin 都能在更長的上下文中提高下一個token 的預測能力,而且它們總體上能夠推斷出比訓練時更長的序列(至少4 倍)。尤其是 Griffin,即使在局部注意力層使用 RoPE 時,它的推理能力也非常出色。

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

如圖 6 所示,在選擇性複製任務中,所有 3 個模型都能完美地完成任務。在比較該任務的學習速度時, Hawk 明顯慢於 Transformer,這與 Jelassi et al. (2024) 的觀察結果類似,他們發現 Mamba 在類似任務上的學習速度明顯較慢。有趣的是,儘管 Griffin 只使用了一個局部注意力層,但它的學習速度幾乎沒有減慢,與 Transformer 的學習速度不相上下。

RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba

更多細節,請閱讀原文。

以上是RNN效率媲美Transformer,Google新架構兩連發:同等規模強於Mamba的詳細內容。更多資訊請關注PHP中文網其他相關文章!

本網站聲明
本文內容由網友自願投稿,版權歸原作者所有。本站不承擔相應的法律責任。如發現涉嫌抄襲或侵權的內容,請聯絡admin@php.cn

熱AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover

AI Clothes Remover

用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool

Undress AI Tool

免費脫衣圖片

Clothoff.io

Clothoff.io

AI脫衣器

Video Face Swap

Video Face Swap

使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱工具

記事本++7.3.1

記事本++7.3.1

好用且免費的程式碼編輯器

SublimeText3漢化版

SublimeText3漢化版

中文版,非常好用

禪工作室 13.0.1

禪工作室 13.0.1

強大的PHP整合開發環境

Dreamweaver CS6

Dreamweaver CS6

視覺化網頁開發工具

SublimeText3 Mac版

SublimeText3 Mac版

神級程式碼編輯軟體(SublimeText3)

熱門話題

Java教學
1654
14
CakePHP 教程
1413
52
Laravel 教程
1306
25
PHP教程
1252
29
C# 教程
1225
24
DeepMind機器人打乒乓球,正手、反手溜到飛起,全勝人類初學者 DeepMind機器人打乒乓球,正手、反手溜到飛起,全勝人類初學者 Aug 09, 2024 pm 04:01 PM

但可能打不過公園裡的老大爺?巴黎奧運正在如火如荼地進行中,乒乓球項目備受關注。同時,機器人打乒乓球也取得了新突破。剛剛,DeepMind提出了第一個在競技乒乓球比賽中達到人類業餘選手等級的學習型機器人智能體。論文地址:https://arxiv.org/pdf/2408.03906DeepMind這個機器人打乒乓球什麼程度呢?大概和人類業餘選手不相上下:正手反手都會:對手採用多種打法,機器人也能招架得住:接不同旋轉的發球:不過,比賽激烈程度似乎不如公園老大爺對戰。對機器人來說,乒乓球運動

首配機械爪!元蘿蔔亮相2024世界機器人大會,發布首個走進家庭的西洋棋機器人 首配機械爪!元蘿蔔亮相2024世界機器人大會,發布首個走進家庭的西洋棋機器人 Aug 21, 2024 pm 07:33 PM

8月21日,2024世界機器人大會在北京隆重召開。商湯科技旗下家用機器人品牌「元蘿蔔SenseRobot」家族全系產品集體亮相,並最新發布元蘿蔔AI下棋機器人-國際象棋專業版(以下簡稱「元蘿蔔國象機器人」),成為全球首個走進家庭的西洋棋機器人。作為元蘿蔔的第三款下棋機器人產品,全新的國象機器人在AI和工程機械方面進行了大量專項技術升級和創新,首次在家用機器人上實現了透過機械爪拾取立體棋子,並進行人機對弈、人人對弈、記譜複盤等功能,

Claude也變懶了!網友:學會給自己放假了 Claude也變懶了!網友:學會給自己放假了 Sep 02, 2024 pm 01:56 PM

開學將至,該收心的不只即將開啟新學期的同學,可能還有AI大模型。前段時間,Reddit擠滿了吐槽Claude越來越懶的網友。 「它的水平下降了很多,經常停頓,甚至輸出也變得很短。在發布的第一周,它可以一次性翻譯整整4頁文稿,現在連半頁都輸出不了!」https:// www.reddit.com/r/ClaudeAI/comments/1by8rw8/something_just_feels_wrong_with_claude_in_the/在一個名為“對Claude徹底失望了的帖子裡”,滿滿地

世界機器人大會上,這家承載「未來養老希望」的國產機器人被包圍了 世界機器人大會上,這家承載「未來養老希望」的國產機器人被包圍了 Aug 22, 2024 pm 10:35 PM

在北京舉行的世界機器人大會上,人形機器人的展示成為了現場絕對的焦點,在星塵智能的展台上,由於AI機器人助理S1在一個展區上演揚琴、武術、書法三台大戲,能文能武,吸引了大量專業觀眾和媒體的駐足。在有彈性的琴弦上優雅的演奏,讓S1展現出速度、力度、精準度兼具的精細操作與絕對掌控。央視新聞對「書法」背後的模仿學習和智慧控制進行了專題報道,公司創始人來傑解釋到,絲滑動作的背後,是硬體側追求最好力控和最仿人身體指標(速度、負載等),而是在AI側則採集人的真實動作數據,讓機器人遇強則強,快速學習進化。而敏捷

ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎 ACL 2024獎項發表:華科大破解甲骨文最佳論文之一、GloVe時間檢驗獎 Aug 15, 2024 pm 04:37 PM

本屆ACL大會,投稿者「收穫滿滿」。為期六天的ACL2024正在泰國曼谷舉辦。 ACL是計算語言學和自然語言處理領域的頂級國際會議,由國際計算語言學協會組織,每年舉辦一次。一直以來,ACL在NLP領域的學術影響力都名列第一,它也是CCF-A類推薦會議。今年的ACL大會已是第62屆,接收了400餘篇NLP領域的前沿工作。昨天下午,大會公佈了最佳論文等獎項。此次,最佳論文獎7篇(兩篇未公開)、最佳主題論文獎1篇、傑出論文獎35篇。大會也評出了資源論文獎(ResourceAward)3篇、社會影響力獎(

李飛飛團隊提出ReKep,讓機器人具備空間智能,還能整合GPT-4o 李飛飛團隊提出ReKep,讓機器人具備空間智能,還能整合GPT-4o Sep 03, 2024 pm 05:18 PM

視覺與機器人學習的深度融合。當兩隻機器手絲滑地互相合作疊衣服、倒茶、將鞋子打包時,加上最近老上頭條的1X人形機器人NEO,你可能會產生一種感覺:我們似乎開始進入機器人時代了。事實上,這些絲滑動作正是先進機器人技術+精妙框架設計+多模態大模型的產物。我們知道,有用的機器人往往需要與環境進行複雜精妙的交互,而環境則可被表示成空間域和時間域上的限制。舉個例子,如果要讓機器人倒茶,那麼機器人首先需要抓住茶壺手柄並使之保持直立,不潑灑出茶水,然後平穩移動,一直到讓壺口與杯口對齊,之後以一定角度傾斜茶壺。這

分散式人工智慧盛會DAI 2024徵稿:Agent Day,強化學習之父Richard Sutton將出席!顏水成、Sergey Levine以及DeepMind科學家將做主旨報告 分散式人工智慧盛會DAI 2024徵稿:Agent Day,強化學習之父Richard Sutton將出席!顏水成、Sergey Levine以及DeepMind科學家將做主旨報告 Aug 22, 2024 pm 08:02 PM

會議簡介隨著科技的快速發展,人工智慧成為了推動社會進步的重要力量。在這個時代,我們有幸見證並參與分散式人工智慧(DistributedArtificialIntelligence,DAI)的創新與應用。分散式人工智慧是人工智慧領域的重要分支,這幾年引起了越來越多的關注。基於大型語言模型(LLM)的智能體(Agent)異軍突起,透過結合大模型的強大語言理解和生成能力,展現了在自然語言互動、知識推理、任務規劃等方面的巨大潛力。 AIAgent正在接棒大語言模型,成為目前AI圈的熱門話題。 Au

鴻蒙智行享界S9全場景新品發表會,多款重磅新品齊發 鴻蒙智行享界S9全場景新品發表會,多款重磅新品齊發 Aug 08, 2024 am 07:02 AM

今天下午,鸿蒙智行正式迎来了新品牌与新车。8月6日,华为举行鸿蒙智行享界S9及华为全场景新品发布会,带来了全景智慧旗舰轿车享界S9、问界新M7Pro和华为novaFlip、MatePadPro12.2英寸、全新MatePadAir、华为毕昇激光打印机X1系列、FreeBuds6i、WATCHFIT3和智慧屏S5Pro等多款全场景智慧新品,从智慧出行、智慧办公到智能穿戴,华为全场景智慧生态持续构建,为消费者带来万物互联的智慧体验。鸿蒙智行:深度赋能,推动智能汽车产业升级华为联合中国汽车产业伙伴,为

See all articles