Large-Scale Language Models (LLM) ermöglichen Benutzern den Aufbau leistungsstarker Systeme zur Verarbeitung natürlicher Sprache durch Hinweise und kontextbezogenes Lernen. Aus einer anderen Perspektive zeigt LLM jedoch gewisse Rückschritte bei einigen spezifischen Aufgaben der Verarbeitung natürlicher Sprache: Die Bereitstellung dieser Modelle erfordert viele Rechenressourcen, und die Interaktion mit den Modellen über APIs kann potenzielle Datenschutzprobleme aufwerfen Um diese Probleme zu lösen, haben Forscher der Carnegie Mellon University (CMU) und der Tsinghua University gemeinsam das Prompt2Model-Framework ins Leben gerufen. Das Ziel dieses Frameworks besteht darin, LLM-basierte Methoden zur Datengenerierung und -abfrage zu kombinieren, um die oben genannten Herausforderungen zu bewältigen. Mithilfe des Prompt2Model-Frameworks müssen Benutzer nur die gleichen Eingabeaufforderungen wie bei LLM bereitstellen, um automatisch Daten zu sammeln und kleine Spezialmodelle, die für bestimmte Aufgaben geeignet sind, effizient zu trainieren. Sie nutzten eine kleine Anzahl von Beispielaufforderungen als Eingabe und gaben nur 5 US-Dollar für die Datenerfassung und 20 Minuten Training aus. Die Leistung des über das Prompt2Model-Framework generierten Modells ist 20 % höher als die des leistungsstarken LLM-Modells gpt-3.5-turbo. Gleichzeitig ist die Größe des Modells um das 700-fache geschrumpft. Die Forscher überprüften außerdem die Auswirkungen dieser Daten auf die Modellleistung in realen Szenarien und ermöglichten es Modellentwicklern, die Zuverlässigkeit des Modells vor der Bereitstellung abzuschätzen. Das Framework wurde in Open-Source-Form bereitgestellt:
GitHub-Repository-Adresse des Frameworks: https://github.com/neulab/prompt2model
Video-Link zur Framework-Demonstration: youtu. be/LYYQ_EhGd -Q
Abruf von Datensätzen und Modellen: Sammeln Sie relevante Datensätze und vorab trainierte Modelle.
Datensatzgenerierung: Verwenden Sie LLM, um pseudogekennzeichnete Datensätze zu erstellen.
Modell-Feinabstimmung: Feinabstimmung des Modells durch Mischen abgerufener und generierter Daten.
Modelltests: Testen Sie das Modell anhand eines Testdatensatzes und eines vom Benutzer bereitgestellten realen Datensatzes.
Das Kernmerkmal des Promt2Model-Frameworks ist ein hoher Automatisierungsgrad. Der Prozess umfasst die Datenerfassung, das Modelltraining, die Bewertung und den Einsatz, wie in der Abbildung oben dargestellt. Unter diesen spielt das automatisierte Datenerfassungssystem eine Schlüsselrolle, indem es durch Datensatzabruf und LLM-basierte Datengenerierung Daten erhält, die eng mit den Benutzeranforderungen verknüpft sind. Als nächstes wird das vorab trainierte Modell abgerufen und anhand des erfassten Datensatzes verfeinert. Abschließend wird das trainierte Modell anhand des Testsatzes ausgewertet und eine Web-Benutzeroberfläche (UI) für die Interaktion mit dem Modell erstellt Der Vorteil besteht darin, dass Benutzer mithilfe der Eingabeaufforderung als Treiber die erforderlichen Aufgaben direkt beschreiben können, ohne auf die spezifischen Implementierungsdetails des maschinellen Lernens einzugehen.
Automatische Datenerfassung: Das Framework verwendet Technologie zum Abrufen und Generieren von Datensätzen, um Daten zu erhalten, die den Aufgaben des Benutzers in hohem Maße entsprechen, und erstellt so den für das Training erforderlichen Datensatz.
Um die Leistung des Prompt2Model-Systems zu bewerten, wählte der Forscher im experimentellen Design drei verschiedene Aufgaben aus:
Japanischer NL-to-Code: Verwendung von MCoNaLa als eigentlichem Bewertungsdatensatz.
Durch Mischen des Abrufdatensatzes mit dem generierten Datensatz für das Training können Sie Ergebnisse erzielen, die mit denen direkt beim tatsächlichen Datensatztraining vergleichbar sind. Dies bestätigt, dass das Prompt2Model-Framework die Kosten für manuelle Anmerkungen erheblich reduzieren kann.
Die Ergebnisse des Verifizierungsexperiments zeigen, dass die Größe des vom Prompt2Model-Framework generierten Modells im Vergleich zum größeren Sprachmodell erheblich reduziert ist und bei mehreren Aufgaben eine bessere Leistung als GPT-3.5-turbo und andere Modelle erbringt. Gleichzeitig hat sich der von diesem Framework generierte Bewertungsdatensatz auch als wirksam bei der Bewertung der Leistung verschiedener Modelle anhand realer Datensätze erwiesen. Dies stellt einen wichtigen Wert für die Steuerung der endgültigen Bereitstellung des Modells dar. Das Prompt2Model-Framework bietet Branchen und Benutzern eine kostengünstige und benutzerfreundliche Möglichkeit, NLP-Modelle zu erhalten, die spezifische Anforderungen erfüllen. Dies ist von großer Bedeutung für die Förderung der breiten Anwendung der NLP-Technologie. Zukünftige Arbeiten werden weiterhin der weiteren Optimierung der Leistung des Frameworks gewidmet sein
In der Reihenfolge der Artikel sind die Autoren dieses Artikels wie folgt: Umgeschriebener Inhalt: Gemäß der Reihenfolge der Artikel sind die Autoren dieses Artikels wie folgt:
Vijay Viswanathan: http://www.cs.cmu.edu/~vijayv/
Zhao Chenyang: https ://zhaochenyang20.github.io/Eren_Chenyang_Zhao/
Amanda Bertsch: https://www.cs.cmu.edu/~abertsch/ Amanda Belch: https://www.cs.cmu.edu/~abertsch/
Wu Tongshuang: https://www.cs.cmu.edu/~sherryw/
Graham · Newbig: http: //www.phontron.com/
Das obige ist der detaillierte Inhalt vonTrainieren Sie schnell kleine professionelle Models: Nur 1 Befehl, 5 $ und 20 Minuten, probieren Sie Prompt2Model aus!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!