


Durch MAmmoT wird LLM zum mathematischen Generalisten: von der formalen Logik bis zu vier arithmetischen Operationen
Mathematisches Denken ist eine wichtige Fähigkeit moderner großer Sprachmodelle (LLM). Trotz einiger jüngster Fortschritte in diesem Bereich besteht immer noch eine deutliche Lücke zwischen Closed-Source- und Open-Source-LLM. Closed-Source-Modelle wie GPT-4, PaLM-2 und Claude 2 dominieren bei gängigen Benchmarks für mathematisches Denken wie GSM8K und MATH, während Open-Source-Modelle wie Llama, Falcon und OPT bei allen Benchmarks deutlich zurückbleiben
Um dieses Problem zu lösen, arbeitet die Forschungsgemeinschaft in zwei Richtungen:
(1) Kontinuierliche Vortrainingsmethoden wie Galactica und MINERVA können LLM kontinuierlich auf der Grundlage von mehr als 100 Milliarden mathematikbezogenen Netzwerkdaten trainieren. Diese Methode kann die allgemeine wissenschaftliche Argumentationsfähigkeit des Modells verbessern, aber der Rechenaufwand ist höher
Rejection Sampling Fine-Tuning (RFT) und spezifische Datensatz-Feinabstimmungsmethoden wie WizardMath, das überwachte Daten aus einem bestimmten Datensatz verwendet zur Feinabstimmung des LLM. Obwohl diese Methoden die Leistung innerhalb eines bestimmten Bereichs verbessern können, lassen sie sich nicht auf umfassendere mathematische Denkaufgaben über die Feinabstimmung von Daten hinaus verallgemeinern. Beispielsweise können RFT und WizardMath die Genauigkeit bei GSM8K (eines davon ist ein fein abgestimmter Datensatz) um mehr als 30 % verbessern, beeinträchtigen jedoch die Genauigkeit bei Datensätzen außerhalb der Domäne wie MMLU-Math und AQuA, wodurch sie niedriger ist bis zu 10 %
Kürzlich haben Forschungsteams von Institutionen wie der University of Waterloo und der Ohio State University eine leichte, aber verallgemeinerbare Methode zur Feinabstimmung des mathematischen Unterrichts vorgeschlagen, die verwendet werden kann, um die Allgemeingültigkeit von LLM (d. h. nicht begrenzt) zu verbessern zur Feinabstimmung von Aufgaben) mathematisches Denkvermögen.
Umgeschriebener Inhalt: In der Vergangenheit war die Fokusmethode hauptsächlich die Chain of Thought (CoT)-Methode, bei der mathematische Probleme durch schrittweise Beschreibung in natürlicher Sprache gelöst werden sollen. Diese Methode ist sehr allgemein und kann auf die meisten mathematischen Disziplinen angewendet werden, es gibt jedoch einige Schwierigkeiten in Bezug auf die Rechengenauigkeit und komplexe mathematische oder algorithmische Argumentationsprozesse (wie das Lösen von Wurzeln quadratischer Gleichungen und das Berechnen von Matrixeigenwerten)
Im Vergleich Als Nächstes: Codeformat-Prompt-Entwurfsmethoden wie Program of Thought (PoT) und PAL verwenden externe Tools (z. B. Python-Interpreter), um den mathematischen Lösungsprozess erheblich zu vereinfachen. Bei diesem Ansatz wird der Rechenprozess auf einen externen Python-Interpreter verlagert, um komplexe mathematische und algorithmische Überlegungen zu lösen (z. B. das Lösen quadratischer Gleichungen mit Sympy oder das Berechnen von Matrixeigenwerten mit Numpy). PoT hat jedoch Probleme mit abstrakteren Argumentationsszenarien wie gesundem Menschenverstand, formaler Logik und abstrakter Algebra, insbesondere ohne integrierte API.
Um die Vorteile sowohl der CoT- als auch der PoT-Methoden zu berücksichtigen, führte das Team einen neuen mathematischen Hybridanweisungs-Feinabstimmungsdatensatz MathInstruct ein, der zwei Hauptmerkmale aufweist: (1) Breite Abdeckung verschiedener mathematischer Bereiche und komplexer Abschlüsse , (2) Verschmelzung von CoT- und PoT-Prinzipien
MathInstruct basiert auf sieben vorhandenen Datensätzen mathematischer Prinzipien und sechs neu zusammengestellten Datensätzen. Sie verwendeten MathInstruct, um Lama-Modelle unterschiedlicher Größe (von 7B bis 70B) zu optimieren. Sie nannten das resultierende Modell das MAmmoTH-Modell und stellten fest, dass MAmmoTH über beispiellose Fähigkeiten verfügte, wie ein mathematischer Generalist.
Um MAmmoTH zu bewerten, verwendete das Forschungsteam eine Reihe von Bewertungsdatensätzen, darunter Testsätze innerhalb der Domäne (GSM8K, MATH, AQuA-RAT, NumGLUE) und Testsätze außerhalb der Domäne (SVAMP, (SAT, MMLU-Math, Mathematik, SimulEq)
Forschungsergebnisse zeigen, dass das MAmmoTH-Modell bei der Verallgemeinerung auf Datensätze außerhalb der Domäne besser abschneidet und auch die Fähigkeit von Open-Source-LLM im mathematischen Denken deutlich verbessert
Es ist erwähnenswert, dass die 7B-Version von MAmmoTH im häufig verwendeten MATH-Datensatz auf Wettbewerbsebene WizardMath (das bisher beste Open-Source-Modell für MATH) um das 3,5-fache schlagen konnte (35,2 % gegenüber 10,7 %). Nach der Feinabstimmung kann der 34B MAmmoTH-Coder mithilfe von CoT sogar GPT-4 übertreffen Feinabstimmungsdatensatz, der eine Vielzahl unterschiedlicher mathematischer Probleme und Mischprinzipien enthält. (2) Im Hinblick auf die Modellierung trainierten und bewerteten sie mehr als 50 verschiedene neue Modelle und Basismodelle mit einer Größe von 7B bis 70B, um die Auswirkungen verschiedener Datenquellen und Eingabe-Ausgabe-Formate zu untersuchen
Die Forschungsergebnisse zeigen das , Neue Modelle wie MAmmoTH und MAmmoTH-Coder übertreffen bisherige Open-Source-Modelle in puncto Genauigkeit deutlich
- Papier: https://arxiv.org/pdf/2309.05653.pdf
- Code: https://github.com/TIGER-AI-Lab/MAmmoTH
- Datensatz mit das Modell: https://huggingface.co/datasets/TIGER-Lab/MathInstruct
Das Team hat den von ihnen zusammengestellten Datensatz veröffentlicht und den Code der neuen Methode als Open Source bereitgestellt und auf Hugging Face veröffentlicht Gleichzeitig möchte das Team eine Liste hochwertiger und vielfältiger Feinabstimmungsdatensätze für Mathematikunterricht erstellen, die zwei Hauptmerkmale aufweisen sollten: (1) verschiedene mathematische Bereiche und Komplexitätsstufen weitgehend abdecken und (2) CoT- und PoT-Prinzipien kombinieren.
Für das erste Feature wählten die Forscher zunächst einige weit verbreitete hochwertige Datensätze aus, die verschiedene mathematische Bereiche und Komplexitätsstufen abdecken, wie etwa GSM8K, MATH, AQuA, Camel und TheoremQA. Dann stellten sie fest, dass es in den vorhandenen Datensätzen an Hochschulmathematik wie abstrakter Algebra und formaler Logik mangelte. Um dieses Problem zu lösen, verwendeten sie eine kleine Anzahl online gefundener Seed-Beispiele, synthetisierten das CoT-Prinzip der Frage in TheoremQA unter Verwendung von GPT-4 und erstellten auf selbstgesteuerte Weise eine „Frage-CoT“-Paarung
Für Das zweite Merkmal, die Kombination von CoT- und PoT-Prinzipien, kann die Vielseitigkeit des Datensatzes verbessern und die von ihm trainierten Modelle in die Lage versetzen, verschiedene Arten mathematischer Probleme zu lösen. Allerdings liefern die meisten vorhandenen Datensätze nur begrenzte Verfahrensbegründungen, was zu einem Ungleichgewicht zwischen CoT- und PoT-Prinzipien führt. Zu diesem Zweck nutzte das Team GPT-4, um PoT-Prinzipien für ausgewählte Datensätze zu ergänzen, darunter MATH, AQuA, GSM8K und TheoremQA. Diese GPT-4-synthetisierten Programme werden dann gefiltert, indem ihre Ausführungsergebnisse mit der von Menschen kommentierten Grundwahrheit verglichen werden, um sicherzustellen, dass nur hochwertige Prinzipien hinzugefügt werden.
Nach diesen Richtlinien erstellten sie einen neuen Datensatz MathInstruct, wie in Tabelle 1 unten beschrieben.
Es enthält 260.000 Paare (Anweisungen, Antworten), die ein breites Spektrum zentraler mathematischer Bereiche (Arithmetik, Algebra, Wahrscheinlichkeit, Analysis und Geometrie usw.) abdecken, einschließlich gemischter CoT- und PoT-Prinzipien, und verfügt über unterschiedliche Sprache und Schwierigkeit.
Reset-Training
Alle Teilmengen von MathInstruct sind in einer Struktur vereinheitlicht, die dem Befehlsdatensatz von Alpaca ähnelt. Diese Normalisierungsoperation stellt sicher, dass das resultierende fein abgestimmte Modell die Daten konsistent verarbeiten kann, unabhängig vom Format des ursprünglichen Datensatzes
Für das Basismodell wählte das Team Llama-2 und Code Llama
über MathInstruct Für Anpassungen erhielten sie Modelle unterschiedlicher Größe, darunter 7B, 13B, 34B und 70B Der Satz, siehe Tabelle 2 unten, enthält viele verschiedene In-Field- und Out-of-Field-Stichproben, die mehrere verschiedene Bereiche der Mathematik abdecken.
Der Bewertungsdatensatz enthält verschiedene Schwierigkeitsgrade, darunter Primar-, Sekundar- und Universitätsniveau. Einige Datensätze umfassen auch formale Logik und logisches Denken.
Die ausgewählten Bewertungsdatensätze enthalten sowohl offene als auch Multiple-Choice-Fragen.
Für offene Probleme (wie GSM8K und MATH) verwenden Forscher die PoT-Dekodierung, da die meisten dieser Probleme programmgesteuert gelöst werden können. ,
Für Multiple-Choice-Fragen (wie AQuA und MMLU) haben die Forscher die CoT-Dekodierung übernommen, da die meisten Fragen in diesem Datensatz von CoT besser bearbeitet werden können. Für die CoT-Dekodierung sind keine Triggerwörter erforderlich, während für die PoT-Dekodierung ein Triggerwort erforderlich ist: „Lassen Sie uns ein Programm schreiben, um das Problem zu lösen.“
Hauptergebnisse
Insgesamt übertreffen sowohl MAmmoTH als auch MAmmoTH-Coder die bisherigen besten Modelle in verschiedenen Modellgrößen. Das neue Modell erzielt bei Datensätzen außerhalb der Domäne größere Leistungssteigerungen als bei Datensätzen innerhalb der Domäne. Diese Ergebnisse deuten darauf hin, dass das neue Modell das Potenzial hat, ein mathematischer Generalist zu werden. MAmmoTH-Coder-34B und MAmmoTH-70B übertreffen bei einigen Datensätzen sogar Closed-Source-LLM. Die Forscher verglichen auch mit verschiedenen Basismodellen. Konkret führten sie Experimente durch, in denen zwei Grundmodelle verglichen wurden: Llama-2 und Code-Llama. Wie aus den beiden obigen Tabellen hervorgeht, ist Code-Llama insgesamt besser als Llama-2, insbesondere bei Out-of-Field-Datensätzen. Die Lücke zwischen MAmmoTH und MAmmoTH-Coder kann sogar 5 % erreichen. Um die Quelle der Vorteile von MAmmoTH gegenüber bestehenden Benchmark-Modellen besser zu verstehen, führten die Forscher eine Reihe kontrollierter Experimente durch. Die Ergebnisse sind in Abbildung 2 dargestellt. Zusammenfassend lassen sich die erheblichen Leistungsvorteile von MAmmoTH auf Folgendes zurückführen: 1) Verschiedene Datenquellen abdecken verschiedene mathematische Bereiche und Komplexitätsstufen, 2) Hybridstrategien für die Feinabstimmung von CoT- und PoT-Unterricht. Sie untersuchten auch die Auswirkungen wichtiger Teilmengen. Im Hinblick auf die verschiedenen Quellen von MathInstruct, die zum Trainieren von MAmmoTH verwendet werden, ist es auch wichtig zu verstehen, inwieweit jede Quelle zur Gesamtleistung des Modells beiträgt. Sie konzentrieren sich auf vier Hauptuntergruppen: GSM8K, MATH, Camel und AQuA. Sie führten ein Experiment durch, bei dem jeder Datensatz nach und nach zum Training hinzugefügt wurde, und verglichen die Leistung mit einem Modell, das auf das gesamte MathInstruct abgestimmt war.
Anhand der Ergebnisse in Tabelle 5 ist ersichtlich, dass die Generalisierungsfähigkeit des Modells unzureichend ist, wenn die Diversität des Trainingsdatensatzes nicht ausreicht (z. B. wenn nur GSM8K vorhanden ist). sehr schlecht: Das Modell kann sich nur an Situationen innerhalb der Datenverteilung anpassen, es ist schwierig, Probleme über GSM-Probleme hinaus zu lösen Der wichtige Einfluss verschiedener Datenquellen auf MAmmoTH wird in diesen Ergebnissen hervorgehoben, was auch der Kernschlüssel dafür ist MAmmoTH zu einem mathematischen Generalisten machen. Diese Ergebnisse liefern auch wertvolle Erkenntnisse und Orientierungshilfen für unsere zukünftigen Datenkurations- und -erfassungsbemühungen. Beispielsweise sollten wir immer vielfältige Daten sammeln und vermeiden, nur bestimmte Datentypen zu sammeln
Das obige ist der detaillierte Inhalt vonDurch MAmmoT wird LLM zum mathematischen Generalisten: von der formalen Logik bis zu vier arithmetischen Operationen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



0.Was bewirkt dieser Artikel? Wir schlagen DepthFM vor: ein vielseitiges und schnelles generatives monokulares Tiefenschätzungsmodell auf dem neuesten Stand der Technik. Zusätzlich zu herkömmlichen Tiefenschätzungsaufgaben demonstriert DepthFM auch hochmoderne Fähigkeiten bei nachgelagerten Aufgaben wie dem Tiefen-Inpainting. DepthFM ist effizient und kann Tiefenkarten innerhalb weniger Inferenzschritte synthetisieren. Lassen Sie uns diese Arbeit gemeinsam lesen ~ 1. Titel der Papierinformationen: DepthFM: FastMonocularDepthEstimationwithFlowMatching Autor: MingGui, JohannesS.Fischer, UlrichPrestel, PingchuanMa, Dmytr

Stellen Sie sich ein Modell der künstlichen Intelligenz vor, das nicht nur die Fähigkeit besitzt, die traditionelle Datenverarbeitung zu übertreffen, sondern auch eine effizientere Leistung zu geringeren Kosten erzielt. Dies ist keine Science-Fiction, DeepSeek-V2[1], das weltweit leistungsstärkste Open-Source-MoE-Modell, ist da. DeepSeek-V2 ist ein leistungsstarkes MoE-Sprachmodell (Mix of Experts) mit den Merkmalen eines wirtschaftlichen Trainings und einer effizienten Inferenz. Es besteht aus 236B Parametern, von denen 21B zur Aktivierung jedes Markers verwendet werden. Im Vergleich zu DeepSeek67B bietet DeepSeek-V2 eine stärkere Leistung, spart gleichzeitig 42,5 % der Trainingskosten, reduziert den KV-Cache um 93,3 % und erhöht den maximalen Generierungsdurchsatz auf das 5,76-fache. DeepSeek ist ein Unternehmen, das sich mit allgemeiner künstlicher Intelligenz beschäftigt

KI verändert tatsächlich die Mathematik. Vor kurzem hat Tao Zhexuan, der diesem Thema große Aufmerksamkeit gewidmet hat, die neueste Ausgabe des „Bulletin of the American Mathematical Society“ (Bulletin der American Mathematical Society) weitergeleitet. Zum Thema „Werden Maschinen die Mathematik verändern?“ äußerten viele Mathematiker ihre Meinung. Der gesamte Prozess war voller Funken, knallhart und aufregend. Der Autor verfügt über eine starke Besetzung, darunter der Fields-Medaillengewinner Akshay Venkatesh, der chinesische Mathematiker Zheng Lejun, der NYU-Informatiker Ernest Davis und viele andere bekannte Wissenschaftler der Branche. Die Welt der KI hat sich dramatisch verändert. Viele dieser Artikel wurden vor einem Jahr eingereicht.

Boston Dynamics Atlas tritt offiziell in die Ära der Elektroroboter ein! Gestern hat sich der hydraulische Atlas einfach „unter Tränen“ von der Bühne der Geschichte zurückgezogen. Heute gab Boston Dynamics bekannt, dass der elektrische Atlas im Einsatz ist. Es scheint, dass Boston Dynamics im Bereich kommerzieller humanoider Roboter entschlossen ist, mit Tesla zu konkurrieren. Nach der Veröffentlichung des neuen Videos wurde es innerhalb von nur zehn Stunden bereits von mehr als einer Million Menschen angesehen. Die alten Leute gehen und neue Rollen entstehen. Das ist eine historische Notwendigkeit. Es besteht kein Zweifel, dass dieses Jahr das explosive Jahr der humanoiden Roboter ist. Netizens kommentierten: Die Weiterentwicklung der Roboter hat dazu geführt, dass die diesjährige Eröffnungsfeier wie Menschen aussieht, und der Freiheitsgrad ist weitaus größer als der von Menschen. Aber ist das wirklich kein Horrorfilm? Zu Beginn des Videos liegt Atlas ruhig auf dem Boden, scheinbar auf dem Rücken. Was folgt, ist atemberaubend

Anfang dieses Monats schlugen Forscher des MIT und anderer Institutionen eine vielversprechende Alternative zu MLP vor – KAN. KAN übertrifft MLP in Bezug auf Genauigkeit und Interpretierbarkeit. Und es kann MLP, das mit einer größeren Anzahl von Parametern ausgeführt wird, mit einer sehr kleinen Anzahl von Parametern übertreffen. Beispielsweise gaben die Autoren an, dass sie KAN nutzten, um die Ergebnisse von DeepMind mit einem kleineren Netzwerk und einem höheren Automatisierungsgrad zu reproduzieren. Konkret verfügt DeepMinds MLP über etwa 300.000 Parameter, während KAN nur etwa 200 Parameter hat. KAN hat eine starke mathematische Grundlage wie MLP und basiert auf dem universellen Approximationssatz, während KAN auf dem Kolmogorov-Arnold-Darstellungssatz basiert. Wie in der folgenden Abbildung gezeigt, hat KAN

Stehen Sie vor einer Verzögerung oder einer langsamen mobilen Datenverbindung auf dem iPhone? Normalerweise hängt die Stärke des Mobilfunk-Internets auf Ihrem Telefon von mehreren Faktoren ab, wie z. B. der Region, dem Mobilfunknetztyp, dem Roaming-Typ usw. Es gibt einige Dinge, die Sie tun können, um eine schnellere und zuverlässigere Mobilfunk-Internetverbindung zu erhalten. Fix 1 – Neustart des iPhone erzwingen Manchmal werden durch einen erzwungenen Neustart Ihres Geräts viele Dinge zurückgesetzt, einschließlich der Mobilfunkverbindung. Schritt 1 – Drücken Sie einfach einmal die Lauter-Taste und lassen Sie sie los. Drücken Sie anschließend die Leiser-Taste und lassen Sie sie wieder los. Schritt 2 – Der nächste Teil des Prozesses besteht darin, die Taste auf der rechten Seite gedrückt zu halten. Lassen Sie das iPhone den Neustart abschließen. Aktivieren Sie Mobilfunkdaten und überprüfen Sie die Netzwerkgeschwindigkeit. Überprüfen Sie es erneut. Fix 2 – Datenmodus ändern 5G bietet zwar bessere Netzwerkgeschwindigkeiten, funktioniert jedoch besser, wenn das Signal schwächer ist

Ich weine zu Tode. Die Daten im Internet reichen überhaupt nicht aus. Das Trainingsmodell sieht aus wie „Die Tribute von Panem“, und KI-Forscher auf der ganzen Welt machen sich Gedanken darüber, wie sie diese datenhungrigen Esser ernähren sollen. Dieses Problem tritt insbesondere bei multimodalen Aufgaben auf. Zu einer Zeit, als sie ratlos waren, nutzte ein Start-up-Team der Abteilung der Renmin-Universität von China sein eigenes neues Modell, um als erstes in China einen „modellgenerierten Datenfeed selbst“ in die Realität umzusetzen. Darüber hinaus handelt es sich um einen zweigleisigen Ansatz auf der Verständnisseite und der Generierungsseite. Beide Seiten können hochwertige, multimodale neue Daten generieren und Datenrückmeldungen an das Modell selbst liefern. Was ist ein Modell? Awaker 1.0, ein großes multimodales Modell, das gerade im Zhongguancun-Forum erschienen ist. Wer ist das Team? Sophon-Motor. Gegründet von Gao Yizhao, einem Doktoranden an der Hillhouse School of Artificial Intelligence der Renmin University.

Kürzlich wurde die Militärwelt von der Nachricht überwältigt: US-Militärkampfflugzeuge können jetzt mithilfe von KI vollautomatische Luftkämpfe absolvieren. Ja, erst kürzlich wurde der KI-Kampfjet des US-Militärs zum ersten Mal der Öffentlichkeit zugänglich gemacht und sein Geheimnis gelüftet. Der vollständige Name dieses Jägers lautet „Variable Stability Simulator Test Aircraft“ (VISTA). Er wurde vom Minister der US-Luftwaffe persönlich geflogen, um einen Eins-gegen-eins-Luftkampf zu simulieren. Am 2. Mai startete US-Luftwaffenminister Frank Kendall mit einer X-62AVISTA auf der Edwards Air Force Base. Beachten Sie, dass während des einstündigen Fluges alle Flugaktionen autonom von der KI durchgeführt wurden! Kendall sagte: „In den letzten Jahrzehnten haben wir über das unbegrenzte Potenzial des autonomen Luft-Luft-Kampfes nachgedacht, aber es schien immer unerreichbar.“ Nun jedoch,
