Seit der Einführung von ChatGLM-6B am 14. März 2023 haben die Modelle der GLM-Serie große Aufmerksamkeit und Anerkennung erhalten. Insbesondere nachdem ChatGLM3-6B als Open Source verfügbar war, sind die Entwickler voller Erwartungen an das von Zhipu AI eingeführte Modell der vierten Generation. Diese Erwartung wurde mit der Veröffentlichung von GLM-4-9B endlich vollständig erfüllt.
Um kleinen Modellen (10B und darunter) leistungsfähigere Fähigkeiten zu verleihen, hat das GLM-Technikteam nach fast einem halben Jahr dieses neue Open-Source-Modell der GLM-Serie der vierten Generation auf den Markt gebracht der Erkundung: GLM-4-9B. Dieses Modell komprimiert die Modellgröße erheblich und stellt gleichzeitig Genauigkeit sicher. Es verfügt über eine schnellere Inferenzgeschwindigkeit und eine höhere Effizienz. Die Erforschung des GLM-Technikteams nimmt kein Ende und wir werden weiterhin hart daran arbeiten, wettbewerbsfähigere Open-Source-Technologie auf den Markt zu bringen für das Datenscreening und schließlich 10T hochwertige mehrsprachige Daten erhalten. Diese Datenmenge ist mehr als dreimal so groß wie die des ChatGLM3-6B-Modells. Darüber hinaus nutzen wir die FP8-Technologie für ein effizientes Vortraining, wodurch die Trainingseffizienz im Vergleich zum Modell der dritten Generation um das 3,5-fache verbessert wird. Unter Berücksichtigung der Speicheranforderungen des Benutzers wurde die Parametergröße von GLM-4-9B von 6B auf 9B erhöht. Letztendlich haben wir die Berechnung vor dem Training um das Fünffache erhöht, um die Leistungsfähigkeit unter begrenzten Speicherbedingungen zu maximieren.
Basisversion: GLM-4-9B (8K)
Konversationsversion: GLM-4-9B-Chat (128K) Extra lange Kontextversion: GLM-4-9B-Chat-1M (1M)Im Folgenden finden Sie zwei Demo-Videofälle, die die Funktionen zur Verarbeitung langer Texte zeigen:
GLM-4-9B-Chat-Modell: Geben Sie 5 PDF-Dateien mit einer Gesamtlänge von etwa 128 KB ein und schreiben Sie einen Artikel über Prompt for ein ausführlicher Forschungsbericht über die Entwicklung großer Modelle in China. Das Modell kann schnell hochwertige Forschungsberichte erstellen (Video wird nicht beschleunigt).Die Funktionsaufruffähigkeit von GLM-4-9B ist im Vergleich zur vorherigen Generation um 40 % gestiegen. Im Berkeley Function-Calling Leaderboard ist seine Funktionsaufruffähigkeit mit der von GPT-4 vergleichbar [Funktionsaufrufleistung Vergleichstabelle].
Multimodale VerarbeitungGLM-4V-9B, ein multimodales Open-Source-Modell basierend auf GLM-4, ist in der Lage, hochauflösende Eingaben zu verarbeiten und visuelle und Textdaten für Schulungen und Demonstrationen direkt zu mischen Bemerkenswert Der multimodale Verarbeitungseffekt entspricht der Leistung von GPT-4V. Es eignet sich sehr gut für die Identifizierung und Verarbeitung komplexer multimodaler Aufgaben [Beispieldiagramm für multimodale Anwendungen].
Bilder
GLM-4-9B hat seine leistungsstarke Leistung bei einer Vielzahl von Aufgaben unter Beweis gestellt und ist ein Durchbruch auf dem Gebiet der Verarbeitung natürlicher Sprache. Ob akademische Forschung oder industrielle Anwendungen, der GLM-4-9B ist Ihre beste Wahl.
Wir laden Sie herzlich ein, sich den Reihen der GLM-4-Benutzer anzuschließen und die Möglichkeiten zu erkunden, die dieses hervorragende Modell bietet:
Das obige ist der detaillierte Inhalt vonTsinghua University und Zhipu AI Open Source GLM-4: Start einer neuen Revolution in der Verarbeitung natürlicher Sprache. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!