Heim Technologie-Peripheriegeräte KI LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Jul 15, 2024 pm 03:59 PM
工程 Vorhersage von Zeitreihen

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Dies scheint der Fall zu sein: Ein so leistungsstarkes LLM kann Zeitreihendaten nicht gut verarbeiten.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind.

Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. In diesen Arbeiten wird davon ausgegangen, dass Sprachmodelle, die sequentielle Abhängigkeiten in Texten gut verarbeiten können, auch auf sequentielle Abhängigkeiten in Zeitreihendaten verallgemeinert werden können. Diese Annahme ist nicht überraschend, schließlich sind Sprachmodelle im Bereich des maschinellen Lernens mittlerweile am beliebtesten.

Wie viel Hilfe können Sprachmodelle also bei herkömmlichen Timing-Aufgaben leisten?

Kürzlich hat ein Team der University of Virginia und der University of Washington versucht, diese Frage zu beantworten und schließlich einen einfachen, aber wichtigen Vorschlag gemacht: Bei Zeitreihenvorhersageaufgaben ist die Leistung gängiger Methoden, die Sprachmodelle verwenden, nahe oder schlechter als die einfache Ablationsmethode, aber die erstere erfordert mehrere Größenordnungen mehr Berechnungen als die letztere.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

  • Titel des Papiers: Sind Sprachmodelle tatsächlich nützlich für die Vorhersage von Zeitreihen? eine große Zahl von Ablationsforschungen, die einen „besorgniserregenden Trend“ in der aktuellen Zeitreihenprognoseforschung offenbaren.

  • Aber das Team sagte auch: „Unser Ziel ist es nicht, zu implizieren, dass Sprachmodelle niemals für Zeitreihen verwendet werden können.“ Tatsächlich haben einige neuere Studien gezeigt, dass es ein gutes Potenzial für die Interaktion zwischen Sprache und Zeitreihen gibt, um mit der Zeit umzugehen Reihenschlussfolgerungen und Aufgaben wie soziales Verständnis.
  • Stattdessen besteht ihr Ziel darin, diese überraschende Erkenntnis hervorzuheben: Für bestehende Zeitreihenaufgaben nutzen bestehende Methoden kaum die angeborenen Argumentationsfähigkeiten vorab trainierter Sprachmodelle.

Experimenteller Aufbau

Das Team verwendete drei hochmoderne Zeitreihenvorhersagemethoden und schlug drei Ablationsmethoden für LLM vor: ohne LLM, LLM2Attn, LLM2Trsf.

Um die Wirksamkeit von LLM bei Zeitreihenprognoseaufgaben zu bewerten, testeten sie diese Methoden an 8 Standarddatensätzen.

Referenzmethoden für Sprachmodelle und Zeitreihen

Sie experimentierten mit drei aktuellen Methoden zur Zeitreihenvorhersage mithilfe von LLM. Siehe Tabelle 2. Das von diesen Methoden verwendete Basismodell ist GPT-2 oder LLaMA, und es werden verschiedene Ausrichtungs- und Feinabstimmungsstrategien verwendet.

OneFitsAll: Die OneFitsAll-Methode (manchmal auch GPT4TS genannt) verwendet zunächst Instanznormalisierungs- und Patching-Techniken für die Eingabezeitreihe und leitet sie dann an eine lineare Ebene weiter, um die Eingabedarstellung für das Sprachmodell zu erhalten. Während des Trainings werden die Multi-Head-Aufmerksamkeits- und Feed-Forward-Schichten des Sprachmodells eingefroren, während Positionseinbettungen und Schichtnormalisierung optimiert werden. Die Aufgabe der letzten Ebene besteht darin, den endgültigen verborgenen Zustand des Sprachmodells in Vorhersageergebnisse umzuwandeln.

Time-LLM: Bei Verwendung von Time-LLM wird die Eingabezeitreihe durch die Patching-Technik tokenisiert und durch Multi-Head-Aufmerksamkeit an der niedrigdimensionalen Darstellung der Worteinbettung ausgerichtet. Die Ausgabe dieses Ausrichtungsprozesses wird dann zusammen mit der Einbettung beschreibender statistischer Merkmale einem eingefrorenen, vorab trainierten Sprachmodell zugeführt. Die Ausgabedarstellung dieses Sprachmodells wird dann abgeflacht und durch eine lineare Ebene geleitet, was zu Vorhersagen führt.

LLaTA: Die Art und Weise, wie LLaTA die Eingabezeitreihen einbettet, besteht darin, jeden Kanal als Token zu behandeln. Eine Hälfte der Architektur ist der „Textzweig“, der mithilfe von Kreuzaufmerksamkeit die Zeitreihendarstellung mit der niedrigdimensionalen Darstellung der Worteinbettungen des Sprachmodells in Einklang bringt. Diese Darstellung wird dann an ein eingefrorenes, vorab trainiertes Sprachmodell übergeben, was zu einer „Textvorhersage“ führt. Gleichzeitig lernt der „zeitliche“ Zweig der Architektur basierend auf der Eingabezeitreihe einen niedrigrangigen Adapter für das vorab trainierte Sprachmodell und erhält so eine „zeitliche Vorhersage“ für die Inferenz. Das Modell enthält einen zusätzlichen Verlustterm, der die Ähnlichkeit zwischen diesen Darstellungen berücksichtigt.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Vom Team vorgeschlagene Ablationsmethoden

Um die Auswirkungen von LLM zu isolieren, schlug das Team für LLM-basierte Prädiktoren drei Ablationsmethoden vor: Entfernen der LLM-Komponente oder Ersetzen durch ein einfaches Modul.

Konkret wurden für jede der oben genannten drei Methoden die folgenden drei Änderungen vorgenommen:

ohne LLM, siehe Abbildung 1b. Entfernen Sie das Sprachmodell vollständig und übergeben Sie das Eingabetoken direkt an die letzte Ebene der Referenzmethode.

LLM2Attn, siehe Abbildung 1c. Ersetzen Sie das Sprachmodell durch eine einzelne, zufällig initialisierte Aufmerksamkeitsschicht mit mehreren Köpfen.

LLM2Trsf, siehe Abbildung 1d. Ersetzen Sie das Sprachmodell durch ein einzelnes zufällig initialisiertes Transformer-Modul.

In der obigen Ablationsstudie bleibt der Rest des Prädiktors unverändert (trainierbar). Wie beispielsweise in Abbildung 1b dargestellt, wird die Eingabekodierung nach dem Entfernen des LLM direkt an die Ausgabekarte übergeben. Und wie in Abbildung 1c und 1d dargestellt, werden sie nach dem Ersetzen des LLM durch Attention oder Transformer zusammen mit der verbleibenden Struktur der ursprünglichen Methode trainiert.

Datensätze und Bewertungsmetriken

Benchmark-Datensätze. Die Auswertung verwendet die folgenden realen Datensätze: ETT (enthält 4 Teilmengen: ETTm1, ETTm2, ETTh1, ETTh2), Krankheit, Wetter, Verkehr, Elektrizität. Tabelle 1 enthält die Statistiken dieser Datensätze. Ebenfalls verfügbar sind Wechselkurs, Covid-Todesfälle, Taxi (30 Min.), NN5 (Täglich) und FRED-MD.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Bewertungsindikatoren. Die in dieser Studie angegebenen Bewertungsmetriken sind der mittlere absolute Fehler (MAE) und der mittlere quadratische Fehler (MSE) zwischen vorhergesagten und wahren Zeitreihenwerten.

Ergebnisse

Konkret untersuchte das Team die folgenden Forschungsfragen (RQ):

  • (RQ1) Können vorab trainierte Sprachmodelle dazu beitragen, die Vorhersageleistung zu verbessern?

  • (RQ2) Sind LLM-basierte Methoden den Rechenaufwand wert, den sie verbrauchen?

  • (RQ3) Hilft das Vortraining des Sprachmodells bei der Durchführung von Vorhersageaufgaben?

  • (RQ4) Kann LLM sequentielle Abhängigkeiten in Zeitreihen charakterisieren?

  • (RQ5) Hilft LLM beim Lernen mit wenigen Schüssen?

  • (RQ6) Woher kommt die Leistung?

Hat das Vortraining von Sprachmodellen dazu beigetragen, die Vorhersageleistung zu verbessern? (RQ1)

Experimentelle Ergebnisse zeigen, dass vorab trainiertes LLM für Zeitreihenvorhersageaufgaben noch nicht sehr nützlich ist.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Insgesamt, wie in Tabelle 3 gezeigt, ist die Ablationsmethode bei 8 Datensätzen und 2 Indikatoren in 26/26 Fällen besser als die Time-LLM-Methode und übertrifft die Time-LLM-Methode in 22/ 26 Fälle besser als LLaTA und in 19/26 Fällen besser als OneFitsAll.

Zusammenfassend ist es schwierig zu sagen, dass LLM effektiv für die Zeitreihenprognose eingesetzt werden kann.

Sind LLM-basierte Methoden den Rechenaufwand wert, den sie verursachen? (RQ2)

Hier wird die Rechenintensität dieser Methoden anhand ihrer nominellen Leistung bewertet. Sprachmodelle im Referenzansatz nutzen Hunderte Millionen oder sogar Milliarden Parameter, um Zeitreihenvorhersagen durchzuführen. Selbst wenn die Parameter dieser Sprachmodelle eingefroren sind, verursachen sie während des Trainings und der Inferenz immer noch einen erheblichen Rechenaufwand.

Zum Beispiel hat Time-LLM 6642 M Parameter und benötigt 3003 Minuten, um das Training für den Wetterdatensatz abzuschließen, während die Ablationsmethode nur 0,245 M Parameter hat und die durchschnittliche Trainingszeit nur 2,17 Minuten beträgt. Tabelle 4 enthält Informationen zum Training anderer Methoden für die ETTh1- und Wetterdatensätze.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Was die Inferenzzeit betrifft, besteht der Ansatz hier darin, durch die maximale Batchgröße zu dividieren, um die Inferenzzeit pro Beispiel abzuschätzen. Im Durchschnitt benötigen Time-LLM, OneFitsAl und LLaTA im Vergleich zum modifizierten Modell 28,2-, 2,3- und 1,2-mal mehr Inferenzzeit.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Abbildung 3 zeigt einige Beispiele, bei denen die grünen Markierungen (Ablationsmethoden) im Allgemeinen niedriger sind als die roten Markierungen (LLM) und auf der linken Seite konzentriert sind, was zeigt, dass sie weniger rechenintensiv sind, aber eine bessere Vorhersageleistung haben.

Kurz gesagt, bei Zeitreihenvorhersageaufgaben kann die Rechenintensität von LLM keine entsprechenden Leistungsverbesserungen bringen.

Hilft das Vortraining des Sprachmodells bei der Durchführung von Vorhersageaufgaben? (RQ3)

Die Auswertungsergebnisse zeigen, dass für Zeitreihenvorhersageaufgaben ein Vortraining mit großen Datensätzen wirklich nicht notwendig ist. Um zu testen, ob das während des Vortrainings erlernte Wissen zu sinnvollen Verbesserungen der Vorhersageleistung führen kann, experimentierte das Team mit den Auswirkungen verschiedener Kombinationen aus Vortraining und Feinabstimmung von LLaTA auf Zeitreihendaten.

  • Vortraining + Feinabstimmung (Pre+FT): Dies ist die ursprüngliche Methode, die darin besteht, ein vorab trainiertes Sprachmodell anhand von Zeitreihendaten zu optimieren. Für LLaTA besteht der Ansatz hier darin, das Basissprachenmodell einzufrieren und einen Low-Rank-Adapter (LoRA) zu erlernen.

  • Zufällige Initialisierung + Feinabstimmung (woPre + FT): Hilft das aus dem Vortraining erhaltene Textwissen bei der Vorhersage von Zeitreihen? Hier werden die Gewichte des Sprachmodells zufällig initialisiert (wodurch die Auswirkungen des Vortrainings beseitigt werden) und das LLM anhand des fein abgestimmten Datensatzes von Grund auf trainiert.

  • Pre-Training + keine Feinabstimmung (Pre+woFT): Wie viel Verbesserung kann die Feinabstimmung von Zeitreihendaten zur Vorhersageleistung bringen? Hier frieren wir das Sprachmodell ein und geben das Erlernen von LoRA auf. Dies kann die Leistung des Sprachmodells selbst bei der Verarbeitung von Zeitreihen widerspiegeln.

  • Zufällige Initialisierung + keine Feinabstimmung (woPre+woFT): Dies dient offensichtlich dazu, die Eingabezeitreihe zufällig auf ein Prognoseergebnis zu projizieren. Die Ergebnisse dienten als Basis für den Vergleich mit anderen Methoden.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Die Gesamtergebnisse sind in Tabelle 5 aufgeführt. Laut MAE- und MSE-Indikatoren schnitt „Vortraining + Feinabstimmung“ bei 8 Datensätzen dreimal am besten ab, während „Zufällige Initialisierung + Feinabstimmung“ achtmal die beste Leistung erbrachte. Dies zeigt, dass Sprachkenntnisse für die Vorhersage von Zeitreihen nur begrenzt hilfreich sind. Allerdings haben „Vortraining + keine Feinabstimmung“ und die Basislinie „Zufällige Initialisierung + keine Feinabstimmung“ 5 bzw. 0 beste Ergebnisse, was zeigt, dass Sprachkenntnisse beim Feinabstimmungsprozess nicht viel helfen.

Kurz gesagt, das durch das Vortraining erworbene Textwissen ist für die Vorhersage von Zeitreihen nur begrenzt hilfreich.

Kann LLM sequentielle Abhängigkeiten in Zeitreihen charakterisieren? (RQ4)

Die meisten Zeitreihenvorhersagemethoden, die LLM zur Feinabstimmung der Positionskodierung verwenden, sind hilfreich, um die Position von Zeitschritten in der Sequenz zu verstehen. Das Team prognostiziert, dass die Vorhersageleistung eines Zeitreihenmodells mit hervorragender Standortdarstellung erheblich sinken wird, wenn die Eingabeorte verschlüsselt werden. Sie experimentierten mit drei Methoden zum Verschlüsseln von Zeitreihendaten: zufälliges Mischen der gesamten Sequenz (sf-all), zufälliges Mischen nur der ersten Hälfte der Sequenz (sf-half) und Austauschen der ersten und zweiten Hälfte der Sequenz (ex- Hälfte). . Die Ergebnisse sind in Tabelle 6 dargestellt.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Die Auswirkung des Input Shufflings auf LLM-basierte Methoden ist ähnlich wie bei der Ablationsmethode. Dies zeigt, dass LLM keine herausragende Fähigkeit besitzt, sequentielle Abhängigkeiten in Zeitreihen zu charakterisieren.

Hilft LLM beim Lernen mit wenigen Schüssen? (RQ5)

Die Evaluationsergebnisse zeigen, dass LLM für wenige Lernszenarien von geringer Bedeutung ist.

Ihr Bewertungsexperiment bestand darin, 10 % jedes Datensatzes zu nehmen und das Modell und seine Ablationsmethode neu zu trainieren. Konkret wird hier LLaMA (Time-LLM) ausgewertet. Die Ergebnisse sind in Tabelle 7 aufgeführt.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Man erkennt, dass die Leistung mit und ohne LLM ähnlich ist – es gibt jeweils 8 Fälle, die besser abschneiden. Das Team führte auch ähnliche Experimente mit der GPT-2-basierten Methode LLaTA durch. Die Ergebnisse sind in Tabelle 8 dargestellt, wobei die Ablationsmethode im Szenario mit wenigen Proben besser abschneidet als LLM.

Woher kommt die Leistung? (RQ6)

In diesem Abschnitt werden Codierungstechniken bewertet, die üblicherweise in LLM-Zeitreihenmodellen verwendet werden. Es stellt sich heraus, dass die Kombination von Patching und einschichtiger Aufmerksamkeit eine einfache, aber effektive Option ist.

Zuvor wurde festgestellt, dass eine einfache Ablation der LLM-basierten Methode ihre Leistung nicht beeinträchtigt. Um die Ursache dieses Phänomens zu verstehen, untersuchte das Team einige Codierungstechniken, die üblicherweise bei LLM-Zeitreihenaufgaben verwendet werden, wie etwa Patching und Dekomposition. Ein einfaches Transformer-Modul ist ebenfalls verfügbar, um die Codierung zu unterstützen.

Es wurde festgestellt, dass eine Struktur, die Patching und Aufmerksamkeit kombiniert, die meisten anderen Kodierungsmethoden bei kleinen Datensätzen (weniger als 1 Million Zeitstempel) übertrifft und sogar mit der LLM-Methode vergleichbar ist.

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.

Die detaillierte Struktur ist in Abbildung 4 dargestellt. Dabei wird die „Instanznormalisierung“ auf Zeitreihen angewendet, gefolgt von Patching und Projektion. Anschließend wird zwischen den Patches eine Aufmerksamkeitsebene zum Lernen von Funktionen verwendet. Bei größeren Datensätzen wie Verkehr (~15 Millionen) und Elektrizität (~8 Millionen) ist die Codierungsleistung eines einschichtigen linearen Modells mit einem einfachen Transformer besser. Bei diesen Methoden wird schließlich eine einzelne lineare Schicht verwendet, um die Zeitreiheneinbettung zu projizieren und die Vorhersageergebnisse zu erhalten.

Kurz gesagt: Patchen ist für das Codieren sehr wichtig. Darüber hinaus können grundlegende Aufmerksamkeits- und Transformer-Module die Codierung effektiv unterstützen.

Das obige ist der detaillierte Inhalt vonLLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1667
14
PHP-Tutorial
1273
29
C#-Tutorial
1255
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles