ChatGPT Der KI-Wahn explodierte und „brannte“ auch den Finanzkreis nieder.
Kürzlich haben Forscher bei Bloomberg auch ein GPT im Finanzbereich entwickelt – Bloomberg GPT, mit 50 Milliarden Parametern.
Das Aufkommen von GPT-4 hat vielen Menschen einen Vorgeschmack auf die leistungsstarken Fähigkeiten großer Sprachmodelle gegeben.
Allerdings ist OpenAI nicht geöffnet. Viele Leute in der Branche haben damit begonnen, GPT zu klonen, und viele ChatGPT-Ersatzmodelle basieren auf Open-Source-Modellen, insbesondere dem Meta-Open-Source-LLMa-Modell.
Zum Beispiel hat sich Stanford’s Alpaca, UC Berkeley mit CMU, Stanford und anderen Vicuna, Dolly vom Startup Databricks usw. zusammengetan. .
Eine umfangreiche ChatGPT-ähnliche Sprache, die für verschiedene Aufgaben und Anwendungen entwickelt wurde Models konkurrieren im gesamten Bereich.
Dann stellt sich die Frage, wie Forscher ein geeignetes Modell oder sogar mehrere Modelle auswählen, um eine komplexe Aufgabe zu lösen ?
Kürzlich hat das Forschungsteam von Microsoft Research Asia und der Zhejiang-Universität HuggingGPT veröffentlicht, ein großes Modellkollaborationssystem.
Papieradresse: https://arxiv.org/pdf/2303.17580 .pdf
HuggingGPT nutzt ChatGPT als Controller, um verschiedene KI-Modelle in der HuggingFace-Community zu verbinden, um multimodale komplexe Aufgaben zu erledigen.
Das bedeutet, dass Sie durch HuggingGPT über multimodale Fähigkeiten verfügen können, Wenshengtu, Vincent Video und Sprache stehen Ihnen jederzeit zur Verfügung.
Forscher wiesen darauf hin, dass zur Lösung der aktuellen Probleme großer Sprachmodelle (LLMs) , es kann sein, dass der erste Schritt in Richtung AGI auch ein entscheidender Schritt ist.
Da die aktuelle Technologie großer Sprachmodelle noch einige Mängel aufweist, gibt es auf dem Weg zum Aufbau von AGI-Systemen einige dringende Herausforderungen.
- Aktuelle LLMs sind aufgrund der Eingabe- und Ausgabeformen der Textgenerierung nicht in der Lage, komplexe Informationen (z. B. Sehen und Sprechen) zu verarbeiten. 🎜🎜 #
- In tatsächlichen Anwendungsszenarien bestehen einige komplexe Aufgaben normalerweise aus mehreren Unteraufgaben und erfordern daher die Planung und Zusammenarbeit mehrerer Modelle, was auch darüber hinausgeht Sprachmodelle Der Funktionsumfang;
- Bei einigen anspruchsvollen Aufgaben leisten LLMs hervorragende Ergebnisse bei Null- oder wenigen Stichprobeneinstellungen , aber sie sind immer noch schwächer als einige Experten (wie fein abgestimmte Modelle).
Um komplexe KI-Aufgaben zu bewältigen, sollten LLMs in der Lage sein, sich mit externen Modellen zu koordinieren, um deren Fähigkeiten zu nutzen. Der entscheidende Punkt ist daher die Auswahl der geeigneten Middleware zur Überbrückung von LLMs und KI-Modellen.
Forscher fanden heraus, dass jedes KI-Modell durch Zusammenfassung seiner Modellfunktion zusammengefasst werden kann wird als sprachliche Form dargestellt. Damit wird ein Konzept eingeführt: „Sprache ist LLMs, nämlich ChatGPT, eine gemeinsame Schnittstelle zum Verbinden von Modellen der künstlichen Intelligenz.“ Durch die Integration von KI-Modellbeschreibungen in Eingabeaufforderungen kann ChatGPT als das Gehirn für die Verwaltung von KI-Modellen betrachtet werden. Daher ermöglicht diese Methode ChatGPT, externe Modelle aufzurufen, um praktische Aufgaben zu lösen. Einfach ausgedrückt ist HuggingGPT ein Kollaborationssystem, kein großes Modell. Seine Funktion besteht darin, ChatGPT und HuggingFace zu verbinden, um Eingaben in verschiedenen Modalitäten zu verarbeiten und viele komplexe Aufgaben der künstlichen Intelligenz zu lösen. Daher verfügt jedes KI-Modell in der HuggingFace-Community über eine entsprechende Modellbeschreibung in der HuggingGPT-Bibliothek und ist integriert. Gehen Sie zur Eingabeaufforderung zu Stellen Sie eine Verbindung zu ChatGPT her. HuggingGPT verwendet dann ChatGPT als Gehirn, um die Antwort auf die Frage zu ermitteln. Bisher hat HuggingGPT Hunderte von Modellen auf HuggingFace rund um ChatGPT integriert, die Textklassifizierung, Zielerkennung und 24 Aufgaben einschließlich semantischer Segmentierung abdecken , Bilderzeugung, Frage und Antwort, Text-to-Speech, Text-to-Video usw. Experimentelle Ergebnisse belegen, dass HuggingGPT in der Lage ist, multimodale Informationen und komplexe Aufgaben der künstlichen Intelligenz zu bewältigen. Vier-Schritte-Workflow HuggingGPT Der gesamte Workflow kann in die folgenden vier Phasen unterteilt werden: - Aufgabenplanung : ChatGPT analysiert Benutzeranfragen, unterteilt sie in mehrere Aufgaben und plant Aufgabensequenzen und Abhängigkeiten basierend auf seinem Wissen : LLM weist die analysierte Aufgabe basierend auf der Modellbeschreibung in HuggingFace dem Expertenmodell zu Endpunkt: Führen Sie die zugewiesenen Aufgaben aus und zeichnen Sie die Ausführungsinformationen und Inferenzergebnisse in LLM auf Ergebnisse und gibt die Zusammenfassung an den Benutzer zurück -3.5-turbo und text-davinci- 003 Varianten dieser beiden GPT-Modelle dienen als Large Language Models (LLMs), die über die OpenAI-API öffentlich zugänglich sind. Um die Ausgabe von LLM stabiler zu machen, setzen wir die Dekodierungstemperatur auf 0. Um gleichzeitig die Ausgabe von LLM an das erwartete Format anzupassen, setzen wir logit_bias auf 0,1 die Formatbeschränkung. Die Forscher geben in der folgenden Tabelle detaillierte Tipps für die Phasen Missionsplanung, Modellauswahl und Reaktionsgenerierung, wobei { {variabel }} gibt an, dass der Feldwert mit dem entsprechenden Text gefüllt werden muss, bevor die Eingabeaufforderung in das LLM eingegeben wird. Die Forscher testeten HuggingGPT an einer Vielzahl multimodaler Aufgaben. Durch die Zusammenarbeit von ChatGP und Expertenmodellen kann HuggingGPT Aufgaben in mehreren Modi wie Sprache, Bild, Audio und Video lösen, einschließlich Erkennungs-, Generierungs-, Klassifizierungs- und Fragebeantwortungsformen Aufgaben. Obwohl diese Aufgaben einfach erscheinen mögen, ist die Beherrschung der Grundfunktionen von HuggingGPT eine Voraussetzung für die Lösung komplexer Aufgaben. Zum Beispiel visuelle Frage-und-Antwort-Aufgabe: # 🎜🎜##🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜##text generation:#🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜## #🎜🎜. #文生图:
Hugg ingGPT kann integrieren mehrere Eingabeinhalte, um einfache Schlussfolgerungen zu ziehen. Es kann festgestellt werden, dass HuggingGPT auch bei mehreren Aufgabenressourcen die Hauptaufgabe in mehrere Grundaufgaben zerlegen und schließlich die Inferenzergebnisse mehrerer Modelle integrieren kann, um die richtige Antwort zu erhalten.
Darüber hinaus bewerteten die Forscher die Wirksamkeit von HuggingGPT durch Tests in komplexen Aufgabensituationen . demonstrierte die Fähigkeit von HuggingGPT, mehrere komplexe Aufgaben zu bewältigen. Bei der Bearbeitung mehrerer Anfragen können mehrere implizite Aufgaben oder Bedürfnisse und andere Informationen enthalten sein. Verlassen Sie sich in diesem Fall auf ein Expertenmodell zu lösen reicht nicht aus. Und HuggingGPT kann die Zusammenarbeit mehrerer Modelle durch Aufgabenplanung organisieren. Eine Benutzeranfrage kann explizit mehrere Aufgaben enthalten: #🎜🎜 ## 🎜🎜# Die folgende Abbildung zeigt die Fähigkeit von HuggingGPT, komplexe Aufgaben in Dialogszenarien mit mehreren Runden zu bewältigen. Benutzer unterteilen eine komplexe Anfrage in mehrere Schritte und erreichen das endgültige Ziel durch mehrere Anfragerunden. Es wurde festgestellt, dass HuggingGPT den Situationsstatus von Benutzeranfragen durch Dialogsituationsmanagement in der Aufgabenplanungsphase verfolgen und die von Benutzern genannten angeforderten Ressourcen und Aufgabenplanungen gut lösen kann. #🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#「Jarvis」 Open Source#🎜🎜 ## 🎜🎜 ## 🎜🎜 ## 🎜🎜#Derzeit Dieses Projekt wurde als Open Source auf GitHub bereitgestellt, der Code wurde jedoch noch nicht vollständig veröffentlicht. Interessanterweise nannten die Forscher dieses Projekt „Iron Man“ Jarvis in „ ", die unbesiegbare KI ist da. JARVIS: Ein System, das LLMs und ML-Communities verbindet Übrigens erfordert HuggingGPT die Verwendung der OpenAI API. JARVIS / HuggingGPT fungiert wie der zuvor von Meta vorgeschlagene Toolformer als Konnektor. Sogar inklusive ChatGPT-Plugins. Ein Internetnutzer sagte: „Ich vermute stark, dass die erste künstliche allgemeine Intelligenz (AGI) früher als erwartet erscheinen wird. Sie wird auf künstlicher „Klebstoff“-Intelligenz basieren, die eine Reihe enger künstlicher Intelligenz und praktischer Intelligenz intelligent kombinieren kann Werkzeuge werden zusammengeklebt. Ich erhielt Zugriff auf das Add-on, das mich über Nacht von einem Mathe-Neuling zu einem Mathe-Genie verwandelte. Das ist natürlich nur ein kleiner Schritt, aber er ist ein Zeichen für zukünftige Entwicklungstrends. Ich gehe davon aus, dass wir im nächsten Jahr oder so einen KI-Assistenten sehen werden, der mit Dutzenden großer Sprachmodelle (LLMs) und ähnlichen Tools verbunden ist und dem Endbenutzer lediglich Anweisungen geben muss an ihre Assistenten, um Aufgaben für sie zu erledigen. Dieser Science-Fiction-Moment kommt. Einige Internetnutzer sagten, dass dies die zukünftige Forschungsmethode sei. GPT Bei vielen Tools wissen Sie, wie man sie verwendet. Netizen: Die Zukunft der Forschung
Das obige ist der detaillierte Inhalt vonChatGPT kann Modelle selbst auswählen! Das heiße neue Papier des Microsoft Asia Research Institute und der Zhejiang University, das HuggingGPT-Projekt, ist Open Source. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!