Aufmerksamkeitsfreies großes Modell Eagle7B: Basierend auf RWKV werden die Inferenzkosten um das 10- bis 100-fache reduziert

WBOY
Freigeben: 2024-02-01 14:39:46
nach vorne
1132 Leute haben es durchsucht

Aufmerksamkeitsfreies großes Modell Eagle7B: Basierend auf RWKV werden die Inferenzkosten um das 10- bis 100-fache reduziert

Im KI-Bereich haben kleine Modelle in letzter Zeit viel Aufmerksamkeit auf sich gezogen, verglichen mit Modellen mit Hunderten von Milliarden Parameter. Beispielsweise übertraf das vom französischen KI-Startup veröffentlichte Mistral-7B-Modell Llama 2 in jedem Benchmark um 13 Milliarden und Llama 1 um 34 Milliarden in Code, Mathematik und Inferenz.

Im Vergleich zu großen Modellen haben kleine Modelle viele Vorteile, wie zum Beispiel einen geringen Bedarf an Rechenleistung und die Möglichkeit, auf der Geräteseite zu laufen.

Kürzlich ist ein neues Sprachmodell aufgetaucht, nämlich 7.52B Parameter Eagle 7B, von der Open-Source-Non-Profit-Organisation RWKV, das die folgenden Merkmale aufweist:

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍


  • Basierend auf RWKV -v5-Architekturkonstruktion, die Inferenzkosten dieser Architektur sind niedrig (RWKV ist ein linearer Transformator, die Inferenzkosten werden um mehr als das 10- bis 100-fache reduziert);
  • Trainiert auf mehr als 100 Sprachen und 1,1 Billionen Token ;
  • Übertrifft alle Modelle der 7B-Klasse in mehrsprachigen Benchmarks.
  • In der englischen Bewertung liegt die Leistung von Eagle 7B nahe an Falcon (1,5T), LLaMA2 (2T),
  • Verglichen mit MPT - in englischer Bewertung 7B (1T) Ziemlich;
  • Transformer ohne Aufmerksamkeit.

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

Eagle 7B basiert auf der RWKV-v5-Architektur. RWKV (Receptance Weighted Key Value) ist eine neuartige Architektur, die die Vorteile von RNN und Transformer kombiniert und deren Nachteile vermeidet. Es ist sehr gut gestaltet und kann die Speicher- und Erweiterungsengpässe von Transformer lindern und eine effektivere lineare Erweiterung erreichen. Gleichzeitig behält RWKV auch einige der Eigenschaften bei, die Transformer auf diesem Gebiet dominant gemacht haben.

Derzeit wurde RWKV zur sechsten Generation RWKV-6 iteriert, mit ähnlicher Leistung und Größe wie Transformer. Zukünftige Forscher können diese Architektur nutzen, um effizientere Modelle zu erstellen.

Weitere Informationen zu RWKV finden Sie unter „RNN in der Transformer-Ära umgestalten, RWKV erweitert Nicht-Transformer-Architektur auf zig Milliarden Parameter“.

Erwähnenswert ist, dass RWKV-v5 Eagle 7B ohne Einschränkungen für den persönlichen oder kommerziellen Gebrauch genutzt werden kann.

Testergebnisse für 23 Sprachen

Die Leistung verschiedener Modelle in mehreren Sprachen ist wie folgt. Die Testbenchmarks umfassen xLAMBDA, xStoryCloze, xWinograd, xCopa. 23 Sprachen insgesamt bis v5. Aufgrund des Fehlens mehrsprachiger Benchmarks kann die Studie ihre Fähigkeiten jedoch nur in 23 häufiger verwendeten Sprachen testen, und die Fähigkeiten in den verbleibenden 75 oder mehr Sprachen sind noch unbekannt.

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

Leistung auf Englisch


Die Leistung verschiedener Modelle auf Englisch wird anhand von 12 Benchmarks beurteilt, einschließlich gesundem Menschenverstand und Weltwissen. 无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

An den Ergebnissen können wir erneut den großen Sprung von RWKV von der v4- zur v5-Architektur erkennen. v4 verlor zuvor gegen den 1T-Token MPT-7b, aber v5 hat in Benchmark-Tests begonnen, aufzuholen und kann in einigen Fällen (sogar in einigen Benchmark-Tests LAMBADA, StoryCloze16, WinoGrande, HeadQA_en, Sciq) Falcon oder sogar llama2 übertreffen .

Darüber hinaus beginnt sich die Leistung von Version 5 anhand der ungefähren Token-Trainingsstatistiken an die erwarteten Leistungsniveaus von Transformer anzupassen.

Zuvor verwendete Mistral-7B eine Trainingsmethode von 2-7 Billionen Token, um seinen Vorsprung im 7B-Modell zu behaupten. Die Studie hofft, diese Lücke zu schließen, sodass RWKV-v5 Eagle 7B die Leistung von llama2 übertrifft und das Niveau von Mistral erreicht.

Die folgende Abbildung zeigt, dass die Kontrollpunkte von RWKV-v5 Eagle 7B in der Nähe von 300 Milliarden Token-Punkten eine ähnliche Leistung wie Pythia-6.9b aufweisen:

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

Dies steht im Einklang mit früheren Arbeiten an der experimentellen RWKV-v4-Architektur ( Stapelbasierte) Übereinstimmung besteht darin, dass lineare Transformatoren wie RWKV ein ähnliches Leistungsniveau wie Transformatoren aufweisen und mit der gleichen Anzahl von Token trainiert werden.

无注意力大模型Eagle7B:基于RWKV,推理成本降低10-100 倍

Vorhersehbar markiert die Entstehung dieses Modells die Einführung des bisher stärksten linearen Transformators (in Bezug auf Bewertungsmaßstäbe).

Das obige ist der detaillierte Inhalt vonAufmerksamkeitsfreies großes Modell Eagle7B: Basierend auf RWKV werden die Inferenzkosten um das 10- bis 100-fache reduziert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage
Über uns Haftungsausschluss Sitemap
Chinesische PHP-Website:Online-PHP-Schulung für das Gemeinwohl,Helfen Sie PHP-Lernenden, sich schnell weiterzuentwickeln!