Heim Technologie-Peripheriegeräte KI Ein Agent, der sich „unabhängig weiterentwickeln' kann? Das erste symbolische Trainingsframework für End-to-End-Agenten ist Open Source

Ein Agent, der sich „unabhängig weiterentwickeln' kann? Das erste symbolische Trainingsframework für End-to-End-Agenten ist Open Source

Jul 22, 2024 pm 02:25 PM
工程 ai agent Wellenformintelligenz

Ein Agent, der sich „unabhängig weiterentwickeln kann? Das erste symbolische Trainingsframework für End-to-End-Agenten ist Open Source
Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Die Hauptautoren dieses Artikels sind von Waveform Intelligence, der Zhejiang University und der Beihang University. In der gemeinsamen Arbeit ist Zhou Wangchunshu Mitbegründer und CTO von Waveform Intelligence, Ou Yixin ein Masterstudent im zweiten Jahr an der Zhejiang-Universität und Ding Shengwei ein Bachelorstudent im vierten Jahr an der Beihang-Universität. Die entsprechenden Autoren des Artikels sind Zhou Wang Chunshu und Jiang Yuchen, Mitbegründer und CEO von Waveform Intelligence.

Mit der Iteration verschiedener APIs für große Modelle und der Open Source verschiedener AI-Agent-Frameworks haben Agenten, die auf großen Modellen basieren, große Aufmerksamkeit, Forschung und Anwendungen in Wissenschaft und Industrie erlangt.

Obwohl großmodellbasierte Agenten (KI-Agenten) in vielen Szenarien gute Ergebnisse erzielt haben und in einigen Szenarien tatsächlich angewendet werden können, ist der Fortschritt der Forschung und Entwicklung von KI-Agenten immer noch auf „Experten“ beschränkt “ oder „technikzentriertes“ Paradigma. Mit anderen Worten: Der aktuelle Erstellungs- und Optimierungsprozess für Agenten verlässt sich immer noch fast ausschließlich auf die Arbeitskraft und Erfahrung menschlicher Experten (Algorithmeningenieure), um die Eingabeaufforderungen, Tools und Arbeitsabläufe des Agenten zu entwerfen. Ein solcher Prozess ist zeit- und arbeitsintensiv und wird wahrscheinlich nicht in der Lage sein, umfangreiche Daten zum Erlernen und Trainieren dieser symbolischen Elemente des Agenten zu nutzen. Die meisten Agenten sind auf Closed-Source-API-Aufrufe angewiesen und können die große Modellbasis selbst nicht optimieren. Selbst wenn große Open-Source-Modelle verwendet werden, ist die Optimierung der Modellbasis selbst in den meisten Anwendungsszenarien von KI-Agenten nicht möglich aus Gründen wie Rechenleistung und Stabilität in die Praxis umgesetzt werden. Daher befinden sich aktuelle intelligente Agenten noch im Entwicklungsstadium von „Expertensystemen“.

Wie wir alle wissen, liegt der wichtige Grund, warum neuronale Netze zum Grundparadigma des maschinellen Lernens/der künstlichen Intelligenz geworden sind, genau darin, dass sie riesige Datenmengen effizient für Training und Optimierung nutzen können, ohne dass komplexe Strukturen und Lernprozesse manuell entworfen werden müssen Algorithmen. Daher glauben Forscher von Waveform Intelligence, dass die Transformation von KI-Agenten von einer Expertenzentrierung zu einer Datenzentrierung eine wichtige Entwicklung für intelligente Agenten sein wird, die auf großen Modellen basieren.

Um dieses Ziel zu erreichen, greift das Forschungsteam von Waveform Intelligence auf die grundlegenden Methoden des konnektionistischen Lernens zurück, um neuronale Netze zu trainieren (konnektionistisches Lernen), also Backpropagation und Gradient Descent, und analogisiert KI-Agenten und neuronale Netze. und verwendet Text und große Modelle, modelliert Verlustfunktionen, Gradienten und Optimierer, simuliert Backpropagation- und Gradientenabstiegsalgorithmen, implementiert symbolische End-to-End-Trainingsalgorithmen für Agenten und erstellt eine Reihe von Algorithmen für das End-to-End-Training von KI-Agenten . Das Framework und der Code wurden als Open Source auf GitHub bereitgestellt. ?? Gesagt dass das Team zunächst den großen modellbasierten Agenten in drei Hauptelemente zerlegte, nämlich Eingabeaufforderungen, Tools und Agentenpipeline (Workflow). Als nächstes wird im Framework ein Agentensystem als „symbolisches“ neuronales Netzwerk betrachtet, jeder Knoten im Agenten-Workflow wird als eine Schicht im Netzwerk betrachtet und die Eingabeaufforderungen und Tools in jedem Knoten werden als diese betrachtet Die Schicht und der Workflow/die Pipeline des Agenten können als Berechnungsdiagramm des Netzwerks betrachtet werden. Auf diese Weise kann das Agentensystem als neuronales Netzwerk betrachtet werden, dessen Gewichte sich vom numerischen/tensorischen Raum zum diskreten symbolischen Raum ändern (Texte und Codes sind symbolische Darstellungen), und das Training dieser Art von Netzwerk kann natürlich auf traditionelle Optimierungsmethoden zurückgreifen neuronaler Netze, nämlich Backpropagation und Gradient Descent.

Ein Agent, der sich „unabhängig weiterentwickeln kann? Das erste symbolische Trainingsframework für End-to-End-Agenten ist Open Source

Abbildung 1: Diagramm für das symbolische Lerngerüst der Agenten

, um die traditionelle Backpropagation und den Gradientenabstieg mit dem symbolischen Gewichtsraum zu bewältigen Verlustfunktionen, Backpropagation-Prozesse, Gradienten und Gradienten-basierte Optimierer. Insbesondere speichert das Framework während des Vorwärtsausbreitungsprozesses die Eingabe, das Gewicht und die Ausgabe jeder Schicht im Berechnungsdiagramm. Als nächstes werden durch die Methode „Großes Modell + Eingabeaufforderungswörter“ die Eingabe, Ausgabe und Beschreibung der Gesamtaufgabe der aktuellen Stichprobe in den Eingabeaufforderungswörtern kombiniert, und dann gibt das große Sprachmodell eine Bewertung und Zusammenfassung des Abschlusses aus aktuelle Beispielaufgabe. Die erhaltene Auswertung/Zusammenfassung in Textform dient ebenso wie der Verlust in neuronalen Netzen zur Messung der Qualität der Aufgabenerfüllung. Das Forschungsteam nennt es „Textformverlust“, also sprachbasierten Verlust.

Danach nutzt die Forschung ein großes Sprachmodell und eine sorgfältig konzipierte Prompt-Word-Engineering, um eine „Reflexion“ am letzten Knoten im Agentenprozess zu erzeugen. Zu den Überlegungen gehört, wie sich die Ausgabe des Modells ändern sollte, um den Anforderungen besser gerecht zu werden, und wie Eingabeaufforderungen und Werkzeugaufrufe optimiert werden sollten, damit sich die Ausgabe in diese Richtung ändert. Dieser Inhalt ist genau derselbe wie die Rolle des Gradienten bei der Optimierung neuronaler Netze. Beide enthalten Informationen darüber, wie Parameter angepasst werden sollten, um den Verlust des gesamten Modells zu minimieren , sprachbasierter Gradient.

Als nächstes müssen Sie den Gradienten jeder Schicht von hinten nach vorne ermitteln, was für die Optimierung neuronaler Netze von entscheidender Bedeutung ist. Inspiriert durch die Rückausbreitung der auf Kettenregeln basierenden Formel in neuronalen Netzen simulierten Forscher von Waveform Intelligence die Kettenregel der traditionellen Optimierung neuronaler Netze mit einer Reihe sorgfältig gestalteter Eingabeaufforderungen durch Text und große Modelle. Insbesondere ermöglicht dieser Satz von Eingabeaufforderungen, dass das große Modell auf den Gradienteninformationen der vorherigen Ebene (dh der Reflexion der von der vorherigen Ebene ausgeführten Aufgaben) und den Eingaben, Ausgaben und Gewichten dieser Ebene (diese Eingaben sind) basiert stimmt vollständig mit den Parametern in der Backpropagation-Formel überein (entsprechend) und gibt eine Reflexion über die Eingabeaufforderung/Werkzeugverwendung des aktuellen Knotens aus, dh den sprachbasierten Gradienten der aktuellen Ebene. Dieses textbasierte Backpropagation-Schema ermöglicht es dieser Forschung, den Gradienten der Parameter jedes Knotens/jeder Schicht in einem Agenten zu erhalten, der mehrere Knoten und komplexe Arbeitsabläufe enthält, und kann dadurch die Rolle der Leistung direkt für den gesamten Agenten optimieren eine durchgängige gemeinsame Optimierung zu erreichen.

Nachdem das Framework schließlich den sprachbasierten Gradienten jedes Parametersatzes erhalten hat, verwendet es einen Optimierer, der auf einem großen Modell basiert und sorgfältig gestaltete Eingabeaufforderungen, Eingabeaufforderungswörter und Werkzeugaufrufe für jede Ebene sowie textbasierte Farbverläufe verwendet Als Eingabe werden die optimierten Eingabeaufforderungen und Tools ausgegeben, um die Agentenparameter zu aktualisieren.

Darüber hinaus unterstützt das Framework auch die Optimierung der Netzwerkstruktur, also des Agenten-Workflows. Konkret drückt das Framework den Agenten-Workflow in einer bestimmten Programmiersprache aus, sodass auch der „Berechnungsgraph“ des Agentennetzwerks in symbolische Gewichte verarbeitet wird. Anschließend wird der Arbeitsablauf des Agenten über einen separat entwickelten, auf großen Modellen basierenden Optimierer aktualisiert, wobei der Arbeitsablauf des aktuellen Agenten und die Farbverläufe in Textform jedes Knotens im Arbeitsablauf als Eingabe verwendet werden. Dies kann mit der Forschung im Zusammenhang mit der automatischen Netzwerkstruktursuche beim Training neuronaler Netzwerke verglichen werden.​​​​​​​                                                                                                                                                                                                                                           Abbildung 3 Experimentelle Ergebnisse der großen Modellbewertungsaufgabe

Ein Agent, der sich „unabhängig weiterentwickeln kann? Das erste symbolische Trainingsframework für End-to-End-Agenten ist Open Source

Abbildung 4 Experimentelle Ergebnisse der Bewertungsaufgabe auf Agentenebene

Forscher der Wellenform-Intelligenz bewerteten den Algorithmus auf einer Reihe von Benchmarks für große Modelle und Wirkstoffe, wie in den Abbildungen 3 und 4 gezeigt, dass das Agent symbolisch symbolisch ist Das Lernen hat sich bei verschiedenen Aufgaben im Vergleich zu DSpy und herkömmlichen Agenten-Frameworks ohne Lernfunktionen erheblich verbessert. Bei einigen Aufgaben kann GPT-3.5 sogar mit anderen Agenten-Frameworks konkurrieren. Die einfache Verwendung eines lokalen Optimierungsalgorithmus für Eingabeaufforderungswörter (AutoPE), der auf einem großen Sprachmodell für die Eingabeaufforderungswörter in jedem Knoten im Agenten basiert, kann jedoch keine offensichtlichen Ergebnisse erzielen. Wie in Abbildung 5 dargestellt, hat sich der Algorithmus in der kreativen Schreibaufgabe außerdem unabhängig von einem anfänglichen Einzelknotenagenten, der nur auf der Grundlage eines Eingabeaufforderungsworts schreibt, zu einem Workflow entwickelt, der das Schreiben + Bearbeiten und das Eingabeaufforderungswort des unterstützt Schreibknoten Aktualisiert und optimiert. S Abbildung 5 Agent Symbolic Learning Framework Lerneffekteffekte (am Beispiel kreativer Schreibaufgaben)

Ein Agent, der sich „unabhängig weiterentwickeln kann? Das erste symbolische Trainingsframework für End-to-End-Agenten ist Open Source

Das Forschungsteam für Wellenformintelligenz stellte die beiden Anwendungsszenarien des Agent Symbolic Learning vor. Erstens kann das Framework von Entwicklern oder Forschern zum Erstellen und Optimieren von Agentensystemen verwendet werden. Wie beim Training neuronaler Netze können Entwickler und Forscher eine große Anzahl von Beispielen für bestimmte Aufgaben sammeln (oder die im Framework bereitgestellte automatische Generierung verwenden) und dann das Framework verwenden, um das Training „datenzentrierter“ Agenten im Großen und Ganzen abzuschließen Nach der Schulung und Optimierung werden die optimierten Agenten, genau wie bei der Bereitstellung gewöhnlicher Agenten, statisch in der Produktionsumgebung bereitgestellt.

Darüber hinaus besteht ein weiteres wichtiges Anwendungsszenario dieses Frameworks darin, Agenten zu unterstützen, die sich autonom in der Umgebung/Interaktion weiterentwickeln können. Da das Trainings-Framework selbst nur die Fähigkeiten großer Modelle ohne komplexes GPU-basiertes Training und Bereitstellung aufrufen muss, kann ein Agent das Trainings-Framework als Werkzeug verwenden, das er durch Erkunden der Umgebung oder während der Interaktion aufrufen kann Mit Menschen sammelt es kontinuierlich neue Trainingsbeispiele, ruft regelmäßig oder aktiv Algorithmustools für das Agententraining auf und aktualisiert seine eigenen Eingabeaufforderungen, Tools und Arbeitsabläufe. Waveform Intelligence unterstützt eine solche Bereitstellungslogik auch in der Open-Source-Codebasis von AIWaves Agents und realisiert so das erste Agentensystem, das sich nach der Bereitstellung in tatsächlichen Produkten und Produktionsumgebungen unabhängig weiterentwickeln und iterieren kann.

Das Agent Symbolic Learning-Framework betrachtet AI Agent als symbolisches „neuronales Netzwerk“, das durch Eingabeaufforderungen und Tools in komplexen Arbeitsabläufen verbunden ist. Durch die Simulation von Backpropagation und Gradientenabstieg auf der Grundlage natürlicher Sprache wird eine groß angelegte modellbasierte Entwicklung des Agenten ermöglicht kann seine eigenen „Netzwerkparameter“, also Eingabeaufforderungen und Tools, sowie die „Netzwerkstruktur“, also den Agenten-Workflow, selbstständig optimieren und so eine Intelligenz erreichen, die große Daten- und Erfahrungsmengen effizient nutzen und „datenzentriertes Lernen“ durchführen kann „Das Agenten-Framework ermöglicht intelligente Agentensysteme, die sich autonom weiterentwickeln können. Derzeit spielt dieses Framework in mehreren Produkten und Anwendungen von Waveform Intelligence eine Rolle und löst das Problem der schwierigen manuellen Optimierung und Bewertung von Agenten. Um die Entwicklung und Forschung von „Data-centric Agent“ und „Agent Learning“ voranzutreiben, hat das Forschungsteam von Waveform Intelligence auch alle Codes des Algorithmus als Open Source bereitgestellt. Wir freuen uns auf die akademischen und industriellen Kreise auf diesem Gebiet von intelligenten Agenten, die gemeinsam weitere interessante Algorithmen und Anwendungen erkunden.

Das obige ist der detaillierte Inhalt vonEin Agent, der sich „unabhängig weiterentwickeln' kann? Das erste symbolische Trainingsframework für End-to-End-Agenten ist Open Source. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1671
14
PHP-Tutorial
1276
29
C#-Tutorial
1256
24
Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Der Autor von ControlNet hat einen weiteren Hit! Der gesamte Prozess der Generierung eines Gemäldes aus einem Bild, der in zwei Tagen 1,4.000 Sterne verdient Jul 17, 2024 am 01:56 AM

Es ist ebenfalls ein Tusheng-Video, aber PaintsUndo ist einen anderen Weg gegangen. ControlNet-Autor LvminZhang begann wieder zu leben! Dieses Mal ziele ich auf den Bereich der Malerei. Das neue Projekt PaintsUndo hat nicht lange nach seinem Start 1,4.000 Sterne erhalten (die immer noch wahnsinnig steigen). Projektadresse: https://github.com/lllyasviel/Paints-UNDO Bei diesem Projekt gibt der Benutzer ein statisches Bild ein, und PaintsUndo kann Ihnen dabei helfen, automatisch ein Video des gesamten Malprozesses zu erstellen, vom Linienentwurf bis zum fertigen Produkt . Während des Zeichenvorgangs sind die Linienänderungen erstaunlich. Das Endergebnis des Videos ist dem Originalbild sehr ähnlich: Schauen wir uns eine vollständige Zeichnung an.

Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Die agentenlose Lösung von UIUC steht ganz oben auf der Liste der Open-Source-KI-Softwareentwickler und löst problemlos echte Programmierprobleme im SWE-Bench Jul 17, 2024 pm 10:02 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Die Autoren dieses Artikels stammen alle aus dem Team von Lehrer Zhang Lingming an der University of Illinois in Urbana-Champaign, darunter: Steven Code Repair; Doktorand im vierten Jahr, Forscher

Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Von RLHF über DPO bis TDPO sind große Modellausrichtungsalgorithmen bereits auf „Token-Ebene' Jun 24, 2024 pm 03:04 PM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com Im Entwicklungsprozess der künstlichen Intelligenz war die Steuerung und Führung großer Sprachmodelle (LLM) schon immer eine der zentralen Herausforderungen, um sicherzustellen, dass diese Modelle beides sind kraftvoll und sicher dienen der menschlichen Gesellschaft. Frühe Bemühungen konzentrierten sich auf Methoden des verstärkenden Lernens durch menschliches Feedback (RL

arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es arXiv-Artikel können als „Barrage' gepostet werden, die Diskussionsplattform von Stanford alphaXiv ist online, LeCun gefällt es Aug 01, 2024 pm 05:18 PM

Prost! Wie ist es, wenn es bei einer Papierdiskussion auf Worte ankommt? Kürzlich haben Studenten der Stanford University alphaXiv erstellt, ein offenes Diskussionsforum für arXiv-Artikel, das es ermöglicht, Fragen und Kommentare direkt zu jedem arXiv-Artikel zu posten. Website-Link: https://alphaxiv.org/ Tatsächlich ist es nicht erforderlich, diese Website speziell zu besuchen. Ändern Sie einfach arXiv in einer beliebigen URL in alphaXiv, um den entsprechenden Artikel direkt im alphaXiv-Forum zu öffnen: Sie können die Absätze darin genau lokalisieren das Papier, Satz: Im Diskussionsbereich auf der rechten Seite können Benutzer Fragen stellen, um dem Autor Fragen zu den Ideen und Details des Papiers zu stellen. Sie können beispielsweise auch den Inhalt des Papiers kommentieren, wie zum Beispiel: „Gegeben an.“

Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Posthume Arbeit des OpenAI Super Alignment Teams: Zwei große Modelle spielen ein Spiel und die Ausgabe wird verständlicher Jul 19, 2024 am 01:29 AM

Wenn die Antwort des KI-Modells überhaupt unverständlich ist, würden Sie es wagen, sie zu verwenden? Da maschinelle Lernsysteme in immer wichtigeren Bereichen eingesetzt werden, wird es immer wichtiger zu zeigen, warum wir ihren Ergebnissen vertrauen können und wann wir ihnen nicht vertrauen sollten. Eine Möglichkeit, Vertrauen in die Ausgabe eines komplexen Systems zu gewinnen, besteht darin, vom System zu verlangen, dass es eine Interpretation seiner Ausgabe erstellt, die für einen Menschen oder ein anderes vertrauenswürdiges System lesbar ist, d. h. so vollständig verständlich, dass mögliche Fehler erkannt werden können gefunden. Um beispielsweise Vertrauen in das Justizsystem aufzubauen, verlangen wir von den Gerichten, dass sie klare und lesbare schriftliche Stellungnahmen abgeben, die ihre Entscheidungen erläutern und stützen. Für große Sprachmodelle können wir auch einen ähnlichen Ansatz verfolgen. Stellen Sie bei diesem Ansatz jedoch sicher, dass das Sprachmodell generiert wird

Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Ein bedeutender Durchbruch in der Riemann-Hypothese! Tao Zhexuan empfiehlt dringend neue Arbeiten vom MIT und Oxford, und der 37-jährige Fields-Medaillengewinner nahm daran teil Aug 05, 2024 pm 03:32 PM

Kürzlich gelang der Riemann-Hypothese, die als eines der sieben großen Probleme des Jahrtausends bekannt ist, ein neuer Durchbruch. Die Riemann-Hypothese ist ein sehr wichtiges ungelöstes Problem in der Mathematik, das sich auf die genauen Eigenschaften der Verteilung von Primzahlen bezieht (Primzahlen sind Zahlen, die nur durch 1 und sich selbst teilbar sind, und sie spielen eine grundlegende Rolle in der Zahlentheorie). In der heutigen mathematischen Literatur gibt es mehr als tausend mathematische Thesen, die auf der Aufstellung der Riemann-Hypothese (oder ihrer verallgemeinerten Form) basieren. Mit anderen Worten: Sobald die Riemann-Hypothese und ihre verallgemeinerte Form bewiesen sind, werden diese mehr als tausend Sätze als Theoreme etabliert, die einen tiefgreifenden Einfluss auf das Gebiet der Mathematik haben werden, und wenn sich die Riemann-Hypothese als falsch erweist, dann unter anderem Auch diese Sätze werden teilweise ihre Gültigkeit verlieren. Neuer Durchbruch kommt von MIT-Mathematikprofessor Larry Guth und der Universität Oxford

LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. LLM eignet sich wirklich nicht für die Vorhersage von Zeitreihen. Es nutzt nicht einmal seine Argumentationsfähigkeit. Jul 15, 2024 pm 03:59 PM

Können Sprachmodelle wirklich zur Zeitreihenvorhersage verwendet werden? Gemäß Betteridges Gesetz der Schlagzeilen (jede Schlagzeile, die mit einem Fragezeichen endet, kann mit „Nein“ beantwortet werden) sollte die Antwort „Nein“ lauten. Die Tatsache scheint wahr zu sein: Ein so leistungsstarkes LLM kann mit Zeitreihendaten nicht gut umgehen. Zeitreihen, also Zeitreihen, beziehen sich, wie der Name schon sagt, auf eine Reihe von Datenpunktsequenzen, die in der Reihenfolge ihres Auftretens angeordnet sind. Die Zeitreihenanalyse ist in vielen Bereichen von entscheidender Bedeutung, einschließlich der Vorhersage der Ausbreitung von Krankheiten, Einzelhandelsanalysen, Gesundheitswesen und Finanzen. Im Bereich der Zeitreihenanalyse haben viele Forscher in letzter Zeit untersucht, wie man mithilfe großer Sprachmodelle (LLM) Anomalien in Zeitreihen klassifizieren, vorhersagen und erkennen kann. Diese Arbeiten gehen davon aus, dass Sprachmodelle, die gut mit sequentiellen Abhängigkeiten in Texten umgehen können, auch auf Zeitreihen verallgemeinert werden können.

Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Das erste Mamba-basierte MLLM ist da! Modellgewichte, Trainingscode usw. waren alle Open Source Jul 17, 2024 am 02:46 AM

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail-Adresse: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com. Einleitung In den letzten Jahren hat die Anwendung multimodaler großer Sprachmodelle (MLLM) in verschiedenen Bereichen bemerkenswerte Erfolge erzielt. Als Grundmodell für viele nachgelagerte Aufgaben besteht aktuelles MLLM jedoch aus dem bekannten Transformer-Netzwerk, das

See all articles