Mit der Weiterentwicklung der Forschung in verschiedenen Fachgebieten ist in den letzten Jahren die Zahl der wissenschaftlichen Literatur und Daten explosionsartig angestiegen, was es für akademische Forscher immer schwieriger macht, aus großen Informationsmengen nützliche Erkenntnisse zu gewinnen. Normalerweise nutzen Menschen Suchmaschinen, um an wissenschaftliche Erkenntnisse zu gelangen, doch Suchmaschinen können wissenschaftliche Erkenntnisse nicht autonom organisieren.
Jetzt hat ein Forschungsteam von Meta AI Galactica vorgeschlagen, ein neues groß angelegtes Sprachmodell, das wissenschaftliche Erkenntnisse speichern, kombinieren und darüber nachdenken kann.
Galactica-Modell Wie leistungsfähig ist es? Es kann eine Rezensionsarbeit selbst zusammenfassen und zusammenfassen:
Es kann auch Enzyklopädieabfragen für Einträge generieren:
Geben Sie sachkundige Antworten auf die aufgeworfenen Fragen:
Diese Aufgaben sind für Anthropologen immer noch eine Herausforderung, aber die Galactica hat sie gut gemeistert. Turing-Award-Gewinner Yann LeCun twitterte ebenfalls sein Lob:
Werfen wir einen Blick auf die spezifischen Details des Galactica-Modells.
Das Galactica-Modell basiert auf einem großen wissenschaftlichen Korpus aus Aufsätzen, Referenzmaterialien, Wissensdatenbanken und vielen anderen Quellen, darunter mehr als 48 Millionen Aufsätze, Lehrbücher und Handouts, Millionen wissenschaftlicher Erkenntnisse über Verbindungen und Proteine Websites, Enzyklopädien usw. Im Gegensatz zu bestehenden Sprachmodellen, die auf nicht kuratiertem, Web-Crawler-basiertem Text basieren, ist das für das Galactica-Training verwendete Korpus von hoher Qualität und stark kuratiert. Diese Studie trainierte das Modell für mehrere Epochen ohne Überanpassung, wobei die Leistung bei Upstream- und Downstream-Aufgaben durch die Verwendung wiederholter Token verbessert wurde.
Galactica übertrifft bestehende Modelle bei einer Reihe wissenschaftlicher Aufgaben. Bei technischen Wissenserkundungsaufgaben wie LaTeX-Gleichungen beträgt die Leistung von Galactica und GPT-3 68,2 % gegenüber 49,0 %. Galactica zeichnet sich auch durch Schlussfolgerungen aus und übertrifft Chinchilla im mathematischen MMLU-Benchmark deutlich.
Galactica übertrifft BLOOM und OPT-175B auch auf der BIG-Bank, obwohl sie nicht auf einem gemeinsamen Korpus trainiert wurde. Darüber hinaus wurden neue Leistungshöchstwerte von 77,6 % und 52,9 % bei nachgelagerten Aufgaben wie der PubMedQA- und MedMCQA-Entwicklung erreicht.
Einfach ausgedrückt fasst die Forschung Schritt-für-Schritt-Argumentation in speziellen Token zusammen, um das Innenleben nachzuahmen. Dadurch können Forscher mit Modellen in natürlicher Sprache interagieren, wie unten in der Testoberfläche von Galactica gezeigt.
Erwähnenswert ist, dass Galactica neben der Textgenerierung auch multimodale Aufgaben mit chemischen Formeln und Proteinsequenzen ausführen kann. Dies wird zum Bereich der Arzneimittelentwicklung beitragen.
Der Korpus dieses Artikels enthält 106 Milliarden Token, die aus Aufsätzen, Referenzen, Enzyklopädien und anderen wissenschaftlichen Materialien stammen. Man kann sagen, dass diese Forschung sowohl natürliche Sprachressourcen (Artikel, Nachschlagewerke) als auch Sequenzen in der Natur (Proteinsequenzen, chemische Formen) umfasst. Einzelheiten zum Korpus sind in den Tabellen 1 und 2 aufgeführt.
Da wir nun den Korpus haben, besteht der nächste Schritt darin, die Daten zu verarbeiten. Generell ist das Design der Tokenisierung sehr wichtig. Wenn beispielsweise Proteinsequenzen in Form von Aminosäureresten geschrieben werden, ist eine zeichenbasierte Tokenisierung geeignet. Um eine Tokenisierung zu erreichen, führte diese Studie eine spezielle Tokenisierung auf verschiedenen Modalitäten durch. Zu den spezifischen Erscheinungsformen gehören (ohne darauf beschränkt zu sein):
Abbildung 4 unten zeigt ein Beispiel für die Verarbeitung von Verweisen auf eine Arbeit. Verwenden Sie beim Umgang mit Referenzen globale Bezeichner und die speziellen Token [START_REF] und [END_REF], um den Ort der Referenz anzugeben.
Nachdem der Datensatz verarbeitet wurde, besteht der nächste Schritt in der Implementierung. Galactica hat die folgenden Änderungen basierend auf der Transformer-Architektur vorgenommen:
Experiment
Wie aus Abbildung 6 ersichtlich ist, nimmt der Validierungsverlust nach vier Trainingsepochen weiter ab. Das Modell mit 120B Parametern beginnt erst zu Beginn der fünften Epoche zu überpassen. Dies ist unerwartet, da bestehende Untersuchungen zeigen, dass doppelte Token die Leistung beeinträchtigen können. Die Studie ergab außerdem, dass die 30B- und 120B-Modelle epochenweise einen Double-Decline-Effekt aufwiesen, bei dem der Validierungsverlust ein Plateau erreichte (oder anstieg) und anschließend abnahm. Dieser Effekt wird nach jeder Epoche stärker, insbesondere beim 120B-Modell am Ende des Trainings.
Abbildung 8 Die Ergebnisse zeigen, dass es im Experiment keine Anzeichen einer Überanpassung gibt, was zeigt, dass wiederholte Token die Leistung von Downstream- und Upstream-Aufgaben verbessern können.
Andere Ergebnisse
Das Eingeben von Formeln ist zu langsam, jetzt können Sie LaTeX mit Eingabeaufforderungen generieren:
Bei chemischen Reaktionen wird Galactica gebeten, Reaktionen in chemischen Gleichungen vorherzusagen s LaTeX Das Produkt von , das Modell kann nur auf der Grundlage der Reaktanten schlussfolgern, und die Ergebnisse sind wie folgt:
Einige andere Ergebnisse sind in Tabelle 7 aufgeführt:
Galacticas Denkfähigkeiten. Die Studie wird zunächst anhand des MMLU-Mathematik-Benchmarks bewertet und die Bewertungsergebnisse sind in Tabelle 8 aufgeführt. Die Galactica weist im Vergleich zum größeren Basismodell eine starke Leistung auf, und die Verwendung von Token scheint die Leistung von Chinchilla zu verbessern, selbst für das kleinere 30B-Galactica-Modell.
Die Studie wertete auch den MATH-Datensatz aus, um die Inferenzfähigkeiten der Galactica weiter zu untersuchen:
#🎜🎜 #
Aus den experimentellen Ergebnissen lässt sich schließen, dass Galactica in Bezug auf Denkkette und Eingabeaufforderungen deutlich besser ist als das Basismodell von PaLM. Dies deutet darauf hin, dass Galactica eine bessere Wahl für die Bewältigung mathematischer Aufgaben ist.
Die Bewertungsergebnisse zu nachgelagerten Aufgaben sind in Tabelle 10 dargestellt. Galactica übertrifft andere Sprachmodelle deutlich und übertrifft größere Modelle bei den meisten Aufgaben (Gopher 280B). Der Leistungsunterschied ist größer als bei Chinchilla, das bei einer Untergruppe von Aufgaben stärker zu sein scheint: insbesondere bei Oberschulfächern und weniger mathematischen, gedächtnisintensiven Aufgaben. Im Gegensatz dazu schneidet Galactica bei Mathematik- und Hochschulaufgaben tendenziell besser ab.
Die Studie bewertete auch Chinchillas Fähigkeit, Zitate im Eingabekontext vorherzusagen, was ein wichtiger Test für Chinchillas Fähigkeit ist wissenschaftliche Literatur zu organisieren. Die Ergebnisse sind wie folgt:
Weitere experimentelle Inhalte finden Sie im Originalpapier.
Das obige ist der detaillierte Inhalt vonDas große Modell kann Arbeiten selbst „schreiben', mit Formeln und Referenzen. Die Testversion ist jetzt online. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!