Bei Aufgaben zur Verarbeitung natürlicher Sprache haben große Sprachmodelle beeindruckende Ergebnisse beim Null-Schuss- und Wenig-Schuss-Lernen erzielt. Allerdings weisen alle Modelle inhärente Einschränkungen auf, die oft nur teilweise durch weitere Erweiterungen behoben werden können. Zu den Einschränkungen des Modells gehören insbesondere die Unfähigkeit, auf die neuesten Informationen zuzugreifen, die „Informationshalluzination“ von Fakten, die Schwierigkeit, ressourcenarme Sprachen zu verstehen, der Mangel an mathematischen Fähigkeiten für präzise Berechnungen usw.
Eine einfache Möglichkeit, diese Probleme zu lösen, besteht darin, das Modell mit externen Tools auszustatten, beispielsweise einer Suchmaschine, einem Taschenrechner oder einem Kalender. Bestehende Methoden beruhen jedoch häufig auf umfangreichen manuellen Anmerkungen oder beschränken den Einsatz von Werkzeugen auf bestimmte Aufgabeneinstellungen, wodurch die Verwendung von Sprachmodellen in Kombination mit externen Werkzeugen schwer zu verallgemeinern ist.
Um diesen Engpass zu überwinden, hat Meta AI kürzlich eine neue Methode namens Toolformer vorgeschlagen, mit der das Sprachmodell lernen kann, verschiedene externe Tools zu „verwenden“.
Papieradresse: https://arxiv.org/pdf/2302.04761v1.pdf
Toolformer erregte bald große Aufmerksamkeit, und einige Leute dachten, dass dieses Papier das Problem löste. Es gibt Derzeit gebe es viele Probleme mit großen Sprachmodellen, und er lobte: „Dies ist das wichtigste Papier der letzten Wochen.“
Jemand hat darauf hingewiesen, dass Toolformer selbstüberwachtes Lernen verwendet, damit große Sprachmodelle mit nur wenigen Beispielen lernen können, einige APIs und Tools zu verwenden, was sehr flexibel und effizient ist:
Manche Leute glauben sogar, dass Toolformer uns der künstlichen allgemeinen Intelligenz (AGI) einen Schritt näher bringen wird.
Toolformer erhält eine so hohe Bewertung, weil es die folgenden praktischen Anforderungen erfüllt:
Dadurch wird der oben erwähnte Engpass deutlich aufgehoben. Werfen wir einen genaueren Blick auf die Methoden und experimentellen Ergebnisse von Toolformer.
Toolformer basiert auf der Idee, Datensätze von Grund auf zu generieren (Schick und Schütze, 2021b; Honovich et al., 2022; Wang et al., 2022) basierend auf großen Sprachmodellen mit in- Kontextlernen (ICL): Ausgehend von nur wenigen Beispielen von Menschen, die die API verwenden, können Sie LM einen riesigen Sprachmodellierungsdatensatz mit potenziellen API-Aufrufen annotieren lassen und dann eine selbstüberwachte Verlustfunktion verwenden, um zu bestimmen, welche API-Aufrufe tatsächlich zur Vorhersage des Modells beitragen zukünftige Token; und schließlich Feinabstimmung basierend auf API-Aufrufen, die für LM selbst nützlich sind.
Da Toolformer unabhängig vom verwendeten Datensatz ist, kann es für genau denselben Datensatz verwendet werden, auf dem das Modell vorab trainiert wurde, wodurch sichergestellt wird, dass das Modell keine Allgemeingültigkeit und Sprachmodellierungsfunktionen verliert.
Konkret besteht das Ziel dieser Forschung darin, dem Sprachmodell M die Möglichkeit zu geben, verschiedene Tools über API-Aufrufe zu verwenden. Dies erfordert, dass die Eingabe und Ausgabe jeder API als Textsequenzen charakterisiert werden kann. Dadurch können API-Aufrufe nahtlos in jeden beliebigen Text eingefügt werden, wobei spezielle Token verwendet werden, um den Anfang und das Ende jedes solchen Aufrufs zu markieren.
Die Studie stellt jeden API-Aufruf als Tupel dar
, wobei a_c der Name der API und i_c die entsprechende Eingabe ist. Bei einem API-Aufruf c mit entsprechendem Ergebnis r stellt diese Studie die linearisierte Folge von API-Aufrufen ohne und einschließlich ihres Ergebnisses wie folgt dar:
wobei,
Anhand eines Datensatzes
wandelte die Studie diesen Datensatz zunächst in einen Datensatz C* um, indem API-Aufrufe hinzugefügt wurden. Dies erfolgt in drei Schritten, wie in Abbildung 2 unten dargestellt: Zunächst nutzt die Studie die kontextbezogenen Lernfähigkeiten von M, um eine große Anzahl potenzieller API-Aufrufe abzutasten, führt dann diese API-Aufrufe aus und überprüft dann, ob die erhaltenen Antworten Vorhersagen unterstützen Zukünftiger Token, der als Filterkriterium verwendet werden soll. Nach der Filterung führt die Studie API-Aufrufe an verschiedene Tools zusammen, generiert letztendlich den Datensatz C* und optimiert M selbst an diesem Datensatz.
In dieser Studie wurden Experimente zu verschiedenen nachgelagerten Aufgaben durchgeführt. Die Ergebnisse zeigen Folgendes: Toolformer (gelernt, verschiedene APIs zu verwenden) basiert auf dem vorab trainierten 6.7B-Parameter GPT-J-Modell und -Tools) übertrifft das größere GPT-3-Modell und mehrere andere Basislinien bei einer Vielzahl von Aufgaben deutlich.
Diese Studie evaluierte mehrere Modelle für SQuAD-, GoogleRE- und T-REx-Teilmengen des LAMA-Benchmarks. Die experimentellen Ergebnisse sind in Tabelle 3 unten aufgeführt:
Um die Mathematik der Toolformer-Inferenz zu testen Fähigkeiten: In dieser Studie werden Experimente mit den Benchmarks ASDiv, SVAMP und MAWPS durchgeführt. Experimente zeigen, dass Toolformer in den meisten Fällen Taschenrechner-Tools verwendet, was deutlich besser ist als OPT (66B) und GPT-3 (175B).
In Bezug auf die Beantwortung von Fragen führte die Studie Experimente mit drei Datensätzen zur Beantwortung von Fragen durch: Web-Fragen, natürliche Fragen und TriviaQA. Toolformer übertrifft Basismodelle derselben Größe deutlich, ist jedoch GPT-3 (175B) unterlegen.
In Bezug auf sprachübergreifende Aufgaben wurden in dieser Studie alle Basismodelle auf Toolformer und MLQA verglichen. Die Ergebnisse sind in Tabelle 6 unten aufgeführt:
Um Studieren Sie die Kalender-API. Um ihre Nützlichkeit zu demonstrieren, experimentiert diese Studie mit mehreren Modellen auf TEMPLAMA und einem neuen Datensatz namens DATESET. Toolformer übertrifft alle Baselines, verwendet jedoch nicht das TEMPLAMA-Kalendertool.
Neben der Validierung von Leistungsverbesserungen bei verschiedenen nachgelagerten Aufgaben hofft die Studie auch sicherzustellen, dass die Sprachmodellierungsleistung von Toolformer nicht durch die Feinabstimmung von API-Aufrufen beeinträchtigt wird. Zu diesem Zweck führt diese Studie Experimente mit zwei Sprachmodellierungsdatensätzen zur Auswertung durch. Die Verwirrung des Modells ist in Tabelle 8 unten dargestellt.
Für die Sprachmodellierung ohne API-Aufrufe kostet das Hinzufügen von API-Aufrufen nichts.
Abschließend analysierten die Forscher die Auswirkungen der Möglichkeit, Hilfe von externen Tools auf die Modellleistung zu holen, wenn der Maßstab des Sprachmodells zunimmt. Die Analyseergebnisse sind in Abbildung 4 unten dargestellt
Interessierte Leser können das Originalpapier lesen, um weitere Forschungsdetails zu erfahren.
Das obige ist der detaillierte Inhalt vonHat das Sprachmodell gelernt, selbstständig Suchmaschinen zu nutzen? Meta AI schlägt die selbstüberwachte Lernmethode Toolformer mit API-Aufruf vor. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!