Heim Technologie-Peripheriegeräte KI Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Aug 11, 2024 pm 04:02 PM
工程

Seit der Veröffentlichung von Sora ist der Bereich der KI-Videogenerierung „geschäftiger“ geworden. In den letzten Monaten haben wir erlebt, wie Jimeng, Runway Gen-3, Luma AI und Kuaishou Keling abwechselnd explodierten.

Im Gegensatz zu den früheren Modellen, die auf den ersten Blick als KI-generiert identifiziert werden können, ist diese Reihe großer Videomodelle möglicherweise die „besten“, die wir je gesehen haben.

Hinter der erstaunlichen Leistung des Video Large Language Model (LLM) steckt jedoch ein riesiger und fein annotierter Videodatensatz, der sehr hohe Kosten erfordert. In jüngster Zeit sind im Forschungsbereich eine Reihe innovativer Methoden aufgetaucht, die kein zusätzliches Training erfordern: Verwenden Sie trainierte Bild-Großsprachmodelle, um Videoaufgaben direkt zu verarbeiten und so den „teuren“ Trainingsprozess zu umgehen.

Darüber hinaus haben die meisten vorhandenen Video-LLMs zwei große Nachteile: (1) Sie können Videoeingaben nur mit einer begrenzten Anzahl von Bildern verarbeiten, was es für das Modell schwierig macht, die subtilen räumlichen und zeitlichen Inhalte zu erfassen das Video; (2) es fehlt ihnen das zeitliche Modellierungsdesign, sondern sie geben einfach Videofunktionen in LLM ein und verlassen sich vollständig auf die Fähigkeit von LLM, Bewegung zu modellieren.

Als Reaktion auf die oben genannten Probleme schlugen Apple-Forscher SlowFast-LLaVA (kurz SF-LLaVA) vor. Dieses Modell basiert auf der vom Byte-Team entwickelten LLaVA-NeXT-Architektur. Es erfordert keine zusätzliche Feinabstimmung und kann sofort verwendet werden. Inspiriert durch das erfolgreiche Two-Stream-Netzwerk im Bereich der Aktionserkennung entwarf das Forschungsteam einen neuartigen SlowFast-Eingabemechanismus für Video-LLM.

Einfach ausgedrückt: SF-LLaVA erkennt die Details und Bewegungen im Video durch zwei verschiedene Beobachtungsgeschwindigkeiten (langsam und schnell).

  • Langsamer Pfad: Features mit niedrigen Bildraten extrahieren und dabei so viele räumliche Details wie möglich beibehalten (z. B. 24×24 Token alle 8 Bilder beibehalten)
  • Schneller Pfad: Mit hohen Bildraten ausführen, aber verwenden eine größere räumliche Pooling-Schrittgröße, um die Auflösung des Videos zu reduzieren, um einen größeren zeitlichen Kontext zu simulieren und sich mehr auf das Verständnis der Kohärenz von Aktionen zu konzentrieren. Dies entspricht dem Modell mit zwei „Augen“: einem. Schauen Sie einfach hin langsam und auf die Details achten; die andere besteht darin, schnell zu schauen und auf die Bewegungen zu achten. Dies löst die Schwachstellen der meisten vorhandenen Video-LLMs und kann sowohl detaillierte räumliche Semantik als auch längere zeitliche Kontexte erfassen.
Link zum Papier: https://arxiv.org/pdf/2407.15841

Experimentelle Ergebnisse zeigen, dass SF-LLaVA bestehende trainingsfreie Methoden durch signifikante Vorteile in allen Benchmark-Tests übertrifft. Im Vergleich zu sorgfältig abgestimmten SFT-Modellen erreicht SF-LLaVA die gleiche Leistung oder sogar eine bessere. Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet


Modellarchitektur

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Wie in der Abbildung unten gezeigt, folgt SF-LLaVA dem standardmäßigen schulungsfreien Video-LLM-Prozess. Es nimmt ein Video V und eine Frage Q als Eingabe und gibt die entsprechende Antwort A aus.
Für die Eingabe werden N Frames gleichmäßig aus jedem Video beliebiger Größe und Länge abgetastet, I = {I_1, I_2, ..., I_N}, und es ist keine spezielle Kombination oder Anordnung der ausgewählten Videoframes erforderlich. Das unabhängig extrahierte Frequenzmerkmal in der Rahmeneinheit ist F_v ∈ R^N×H×W, wobei H und W die Höhe bzw. Breite des Rahmenmerkmals sind.

Der nächste Schritt besteht darin, F_v sowohl im langsamen als auch im schnellen Pfad weiter zu verarbeiten und sie zu einer effektiven Videodarstellung zu kombinieren. Der langsame Pfad tastet gleichmäßig die Rahmenmerkmale von Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet von F_v ab, wobei Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet.

Frühere Untersuchungen haben ergeben, dass eine geeignete Bündelung in der räumlichen Dimension die Effizienz und Robustheit der Videogenerierung verbessern kann. Daher wandte das Forschungsteam einen Pooling-Prozess mit einer Schrittgröße von σ_h×σ_w auf F_v an, um das endgültige Merkmal zu erhalten: Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet, wobei Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet, Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet. Der gesamte Prozess des langsamen Pfades ist in Gleichung 2 dargestellt.

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Der schnelle Pfad behält alle Bildfunktionen in F_v bei, um so viel wie möglich vom zeitlichen Langzeitkontext des Videos zu erfassen. Konkret verwendet das Forschungsteam eine räumliche Pooling-Schrittweite Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet, um F_v aggressiv herunterzurechnen, um das endgültige Merkmal Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet zu erhalten. Das Forschungsteam hat Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet, Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet so eingerichtet, dass sich der schnelle Pfad auf die Simulation von zeitlichem Kontext und Bewegungshinweisen konzentrieren kann. Der gesamte Prozess des langsamen Pfades ist in Gleichung 3 dargestellt.

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Abschließend werden die aggregierten Videofunktionen erhalten: Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet, wobei flat und [, ] die Reduzierungs- bzw. Verkettungsoperationen darstellen. Wie der Ausdruck zeigt, erfordert Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet kein spezielles Token, um langsame und schnelle Pfade zu trennen. SF-LLaVA verwendet insgesamt Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet Video-Tokens. Die visuellen Merkmale des Videos Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet werden mit Textinformationen (z. B. von Benutzern gestellten Fragen) kombiniert und als Eingabedaten zur Verarbeitung an ein großes Sprachmodell (LLM) gesendet.

SlowFast-Prozess ist in Gleichung 4 dargestellt.

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Hasil eksperimen

Pasukan penyelidik menjalankan penilaian prestasi komprehensif SF-LLaVA, membandingkannya dengan model tanpa latihan SOTA semasa (seperti IG-VLM dan LLoVi) dalam berbilang tugasan menjawab soalan video. Selain itu, mereka membandingkannya dengan LLM video seperti VideoLLaVA dan PLLaVA yang diselia dengan penalaan halus (SFT) pada set data video.

Menjawab Soalan Video Terbuka

Seperti yang ditunjukkan dalam jadual di bawah, dalam tugas menjawab soalan video terbuka, SF-LLaVA berprestasi lebih baik daripada kaedah tanpa latihan sedia ada dalam semua penanda aras. Khususnya, apabila dilengkapi dengan LLM bersaiz parameter 7B dan 34B, SF-LLaVA adalah 2.1% dan 5.0% lebih tinggi daripada IGVLM pada MSRVTT-QA, 5.7% dan 1.5% lebih tinggi pada TGIF-QA, dan 1.5% lebih tinggi pada ActivityNet. 2.0% dan 0.8% lebih tinggi pada QA.

Walaupun dibandingkan dengan kaedah SFT yang diperhalusi, SF-LLaVA menunjukkan prestasi yang setanding dalam kebanyakan penanda aras, hanya pada penanda aras ActivityNet-QA, PLLaVA dan LLaVA-NeXT-VideoDPO sedikit mengatasi prestasi Satu cip.

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Soal Jawab Video Aneka Pilihan

Seperti yang dapat dilihat daripada jadual di bawah, SF-LLaVA mengatasi kaedah tanpa latihan lain dalam Soal Jawab video pilihan berbilang dalam semua penanda aras. Dalam set data EgoSchema, yang memerlukan penaakulan jangka panjang yang kompleks, versi SF-LLaVA7B dan 34B masing-masing mendapat skor 11.4% dan 2.2% lebih tinggi daripada model IG-VLM.

Sementara VideoTree mendahului dalam penanda aras kerana ia adalah model proprietari berdasarkan GPT-4, prestasinya jauh lebih tinggi daripada LLM sumber terbuka. Model SF-LLaVA 34B juga mencapai hasil yang lebih baik pada EgoSchema berbanding kaedah SFT, yang mengesahkan kuasa reka bentuk SlowFast dalam mengendalikan video panjang.
Penjanaan Teks

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

文生视频

Seperti yang ditunjukkan dalam Jadual 3, untuk tugasan penjanaan teks video juga menunjukkan beberapa kelebihan.VA, SF-LLa SF-LLaVA-34B melebihi semua penanda aras tanpa latihan dalam prestasi keseluruhan. Walaupun dari segi orientasi perincian, SF-LLaVA adalah lebih rendah sedikit daripada LLaVA-NeXT-Image. Berdasarkan reka bentuk SlowFast, SF-LLaVA boleh merangkumi konteks temporal yang lebih panjang dengan token visual yang lebih sedikit, dan oleh itu berfungsi dengan baik dalam tugas pemahaman temporal.

Selain itu, SF-LLaVA-34B juga mengatasi kebanyakan kaedah SFT dari segi prestasi video Vincent.

Fügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet

Untuk butiran lanjut, sila rujuk kertas asal.

Das obige ist der detaillierte Inhalt vonFügen Sie dem Videomodell schnelle und langsame Augen hinzu, Apples neue trainingsfreie Methode übertrifft alles, was SOTA in Sekundenschnelle leistet. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1668
14
PHP-Tutorial
1273
29
C#-Tutorial
1256
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles