Heim Technologie-Peripheriegeräte KI Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher

Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher

Jul 16, 2024 am 11:57 AM
工程 Eunhanan Memory3

2,4B Speicher3 erreicht eine bessere Leistung als größere LLM- und RAG-Modelle.

In den letzten Jahren haben große Sprachmodelle (LLMs) aufgrund ihrer außergewöhnlichen Leistung beispiellose Aufmerksamkeit erhalten. Das Trainieren und Ableiten von LLM ist jedoch teuer, und es wird versucht, die Kosten durch verschiedene Optimierungsmethoden zu senken.

In diesem Artikel ließen sich Forscher des Shanghai Algorithm Innovation Research Institute, der Universität Peking und anderer Institutionen von der Gedächtnishierarchie des menschlichen Gehirns inspirieren. Sie statteten LLM mit explizitem Gedächtnis aus (einem Speicherformat, das billiger als Modellparameter ist). RAG), um diese Kosten zu reduzieren. Konzeptionell können LLMs von geringeren Parametergrößen, Trainingskosten und Inferenzkosten profitieren, da der Großteil ihres Wissens in den expliziten Speicher externalisiert wird. T-Papier-Adresse: https://arxiv.org/pdf/2407.01178 2.4B LLM von Grund auf entwickelt, das eine bessere Leistung als größere LLM- und RAG-Modelle und eine höhere Dekodierungsgeschwindigkeit als RAG erzielte. Dieses Modell heißt Memory
3
, weil in LLM das explizite Gedächtnis nach dem impliziten Gedächtnis (Modellparameter) und dem Arbeitsgedächtnis (Kontextschlüsselwerte) die dritte Form des Gedächtnisses ist. Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
  • In diesem Artikel wird insbesondere ein neues Speicherformat vorgestellt, das explizite Gedächtnis, das sich durch relativ niedrige Schreibkosten und relativ niedrige Lesekosten auszeichnet. Wie in Abbildung 1 dargestellt, wandelt das Modell zunächst die Wissensbasis (oder einen beliebigen Textdatensatz) in explizite Erinnerungen um, die als Schlüsselwerte mit geringer Aufmerksamkeit implementiert werden, ruft diese Erinnerungen dann während der Inferenz auf und integriert sie in die Mitte der Selbstaufmerksamkeitsschicht.
  • Das neue Speicherformat definiert eine neue Speicherhierarchie:
Darüber hinaus stellt dieser Artikel auch eine Speicherschaltkreistheorie vor, die die Externalisierung von Wissen unterstützt, und schlägt eine Speichersparsität vor, die den Speicher handhabbar machen kann. Mechanismen und ein zweistufiger Mechanismus Vortrainingsprotokoll zur Förderung der Gedächtnisbildung.
Zusammenfassung:
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
SpeicherAkademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher3
Nutzt expliziten Speicher während des Inferenzprozesses, wodurch die Belastung durch das Speichern spezifischer Kenntnisse für Modellparameter verringert wird die Wissensbasis, in der das Sparse-Memory-Format die wahre Speichergröße beibehält; Es bietet außerdem eine bessere Leistung und schnellere Schlussfolgerungen als RAG.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher Darüber hinaus verbessert das Gedächtnis
3
die Faktizität, lindert Halluzinationen und ermöglicht eine schnelle Anpassung an berufliche Aufgaben.


Einführung in die Methode
  • Die Speicherschaltungstheorie hilft zu bestimmen, welches Wissen als expliziter Speicher gespeichert werden kann und welche Modellarchitektur zum Lesen und Schreiben des expliziten Speichers geeignet ist.
  • Forscher betrachten die Input-Output-Beziehung als den internen Mechanismus des Schaltkreises und definieren Wissen als die Input-Output-Beziehung und ihren Schaltkreis. Durch die Manipulation dieser Schaltkreise kann man einen Großteil des Wissens vom LLM isolieren und gleichzeitig seine Funktionalität beibehalten.
  • Speicher
    3
  • : In Bezug auf die Architektur besteht das Ziel dieses Artikels darin, einen expliziten Speichermechanismus für Transformer LLM zu entwerfen, sodass die Schreib- und Lesekosten relativ niedrig sind. Darüber hinaus hofft dieser Artikel, die Änderungen an der Transformer-Architektur auf den kleinstmöglichen Umfang zu beschränken, ohne neue trainierbare Parameter hinzuzufügen, sodass die meisten vorhandenen Transformer-LLMs nahezu ohne Feinabstimmung in den Speicher konvertiert werden können
  • 3
    Modell. Der einfache Entwurfsprozess ist wie folgt:
Schreibkosten: Vor der Inferenz schreibt LLM jede Referenz in den expliziten Speicher, der auf dem Laufwerk gespeichert wird.Erinnerungen werden aus den Schlüsselvektoren der Selbstaufmerksamkeitsschicht ausgewählt, sodass der Schreibprozess kein Training erfordert. Jede Referenz wird unabhängig verarbeitet, wodurch die Kosten einer langen Kontextaufmerksamkeit vermieden werden.

Lesekosten: Während der Inferenz wird der explizite Speicher vom Laufwerk abgerufen und durch Selbstaufmerksamkeit zusammen mit den üblichen Kontextschlüsselwerten gelesen. Jeder Speicher besteht aus einer sehr kleinen Anzahl von Schlüsselwerten aus einer kleinen Anzahl von Aufmerksamkeitsköpfen, wodurch zusätzliche Berechnungen, GPU-Speicher, Laufwerksspeicher und Ladezeit erheblich reduziert werden. Dadurch kann LLM viele Referenzen häufig abrufen, ohne dass sich dies auf die Decodierungsgeschwindigkeit auswirkt.

Der Argumentationsprozess ist in Abbildung 9 dargestellt. Immer wenn LLM 64 Token generiert, verwirft es den aktuellen Speicher, verwendet diese 64 Token als Abfragetext, um 5 neue Speicher abzurufen, und verwendet diese Speicher weiterhin für die Dekodierung. Ebenso ruft LLM bei der Verarbeitung von Hinweisen 5 Speicher für jeden 64-Token-Block ab. Jeder Block konzentriert sich auf seinen eigenen Speicher, und der Speicher kann zwischen den Blöcken variieren.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Erinnerungen schreiben und lesen: Während der Inferenz kann LLM die abgerufenen expliziten Erinnerungen direkt über seine Selbstaufmerksamkeitsschicht lesen, indem es sie mit kontextuellen Schlüsselwerten verkettet (Abbildung 9). Insbesondere ändert sich für jeden Aufmerksamkeitskopf h der l-ten Schicht, wenn er als Speicherkopf ausgewählt wird, seine Ausgabe Y^(l,h):
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Darüber hinaus verwendet diese Studie explizites Gedächtnis parallel Positionskodierung, das heißt, alle Schlüsselpositionen liegen im gleichen Intervall der Länge 128, wie in Abbildung 9 dargestellt.

Zweistufiges Vortraining: Das Vortraining besteht aus zwei Phasen, dem Aufwärmen und dem kontinuierlichen Training. Nur die laufende Trainingsphase erfordert explizites Gedächtnis, während die Aufwärmphase das gleiche Format wie das normale Vortraining verwendet.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Abbildung 13 zeigt den Trainingsverlust- und Lernratenplan während der Aufwärmphase.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Abbildung 14 zeigt den Trainingsverlust- und Lernratenplan während der kontinuierlichen Trainingsphase.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Experimentelle Ergebnisse

Die Forscher bewerteten die allgemeinen Fähigkeiten (Benchmark-Aufgaben), Konversationsfähigkeiten, beruflichen Fähigkeiten (Recht und Medizin) und Halluzinationen des Memory3-Modells. Darüber hinaus haben die Forscher auch die Dekodierungsgeschwindigkeit von Memory3 gemessen und sie mit ähnlichen und größeren SOTA LLM- und RAG-Modellen verglichen.

Die Bewertungsergebnisse der allgemeinen Fähigkeiten sind unten aufgeführt. Die Ergebnisse zeigen, dass das explizite Gedächtnis die durchschnittliche Punktzahl um 2,51 % erhöhte. Im Vergleich dazu beträgt der Punkteunterschied zwischen Llama2-7B und 13B 4,91 %. Explizites Gedächtnis kann die „effektive Modellgröße“ um 2,51/4,91 ≈ 51,1 % erhöhen.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Als nächstes bewerteten die Autoren die Dialogfähigkeiten von Memory3. Die Ergebnisse sind in Tabelle 18 aufgeführt. Sie zeigen, dass das Modell Vicuna-7B, Falcon-40B-Instruct und ChatGLM2-6B mit weniger Parametern übertrifft.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Derzeit hat LLM immer noch mit Halluzinationsproblemen zu kämpfen. Konzeptionell sollte Memory3 weniger anfällig für Halluzinationen sein, da sein explizites Gedächtnis direkt dem Referenztext entspricht. Um Halluzinationen zu bewerten, wählten die Forscher zwei englische Datensätze zur Auswertung aus. Die Ergebnisse sind in Tabelle 19 aufgeführt. Memory3 erreicht bei den meisten Aufgaben die höchsten Werte.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Ein Vorteil der Verwendung von explizitem Speicher besteht darin, dass sich LLM durch die Aktualisierung seiner Wissensdatenbank leicht an neue Domänen und Aufgaben anpassen kann. Importieren Sie einfach aufgabenbezogene Referenzen in die Wissensdatenbank von Memory3 und konvertieren Sie diese optional im Falle eines Warmstarts in den expliziten Speicher.Das Modell kann dieses neue Wissen dann für Schlussfolgerungen nutzen, den kostspieligeren und potenziell verlustbehafteten Feinabstimmungsprozess überspringen und schneller als RAG laufen. Diese Kostenreduzierung wurde in Abbildung 4 dargestellt und könnte die schnelle Einführung von LLM in verschiedenen Branchen erleichtern.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Die Tabelle unten zeigt, dass Memory3 besser abschneidet als die meisten Modelle.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Abschließend bewerteten die Forscher die Decodierungsgeschwindigkeit oder den Speicherdurchsatz3 anhand der Anzahl der pro Sekunde generierten Token.
Akademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher
Weitere Informationen finden Sie im Originalpapier.

Das obige ist der detaillierte Inhalt vonAkademiker E Weinan leitet die neue Arbeit: Große Modelle verfügen nicht nur über RAG und Parameterspeicher, sondern auch über eine dritte Art von Speicher. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1667
14
PHP-Tutorial
1273
29
C#-Tutorial
1255
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles