Am 27. Oktober 2023 stellte Zhipu AI auf der China Computer Conference (CNCC) 2023 das vollständig selbst entwickelte Basismodell ChatGLM3 und verwandte Produktserien vor. Ein weiterer großer Durchbruch nach den Block-Dialogmodellen ChatGLM und ChatGLM2. Das diesmal eingeführte ChatGLM3 verwendet eine originelle mehrstufige, verbesserte Vortrainingsmethode, um das Training vollständiger zu gestalten. Auswertungen zeigen, dass ChatGLM3 in 44 chinesischen und englischen öffentlichen Datensatztests den ersten Platz unter inländischen Modellen gleicher Größe belegte. Zhang Peng, CEO von Zhipu AI, stellte vor Ort ein neues Produkt vor und demonstrierte die neuesten Produktfunktionen in Echtzeit.
ChatGLM3 neues Technologie-Upgrade mit höherer Leistung und geringeren Kosten
Mit umfangreicheren Trainingsdaten und besseren Trainingslösungen ist die Leistung von ChatGLM3, das von Zhipu AI eingeführt wurde, noch leistungsfähiger. Im Vergleich zu ChatGLM2 ist MMLU um 36 %, CEval um 33 %, GSM8K um 179 % und BBH um 126 % erhöht.
Gleichzeitig zielt ChatGLM3 auf GPT-4V ab und hat iterative Upgrades mehrerer neuer Funktionen implementiert, darunter CogVLM mit multimodalen Verständnisfähigkeiten – Bilderkennungssemantik, die SOTA für mehr als 10 internationale Standard-Grafikauswertungsdatensätze erreicht hat; Code Das erweiterte Modul Code Interpreter generiert und führt Code entsprechend den Benutzeranforderungen aus und erledigt automatisch komplexe Aufgaben wie Datenanalyse und Dateiverarbeitung. Die WebGLM-Zugriffssucherweiterung kann anhand von Fragen automatisch nach relevanten Informationen im Internet suchen und relevante Informationen bereitstellen Referenzen bei der Beantwortung. Literatur- oder Artikellinks. Die semantischen und logischen Fähigkeiten von ChatGLM3 wurden erheblich verbessert.
ChatGLM3 integriert auch die selbst entwickelte AgentTuning-Technologie, die die Funktionen des Modellagenten aktiviert, insbesondere im Hinblick auf intelligente Planung und Ausführung, die im Vergleich zu ChatGLM2 um 1000 % verbessert ist; sie ermöglicht es auch inländischen großen Modellen, Toolaufrufe und Codeausführung nativ zu unterstützen , Spiele, Datenbankoperationen, Suche und Argumentation in Wissensgraphen, Betriebssysteme und andere komplexe Szenarien.
Darüber hinaus bringt ChatGLM3 dieses Mal die Endtestmodelle ChatGLM3-1.5B und ChatGLM3-3B auf den Markt, die auf Mobiltelefonen eingesetzt werden können. Sie unterstützen eine Vielzahl von Mobiltelefonen und fahrzeugmontierten Plattformen, darunter vivo, Xiaomi und Samsung Unterstützt die Inferenz von CPU-Chips auf mobilen Plattformen. Die Geschwindigkeit kann 20 Token/s erreichen. In Bezug auf die Genauigkeit liegt die Leistung der 1.5B- und 3B-Modelle bei öffentlichen Benchmarks nahe an der des ChatGLM2-6B-Modells.
Basierend auf der neuesten effizienten dynamischen Inferenz- und Speicheroptimierungstechnologie, dem aktuellen Inferenz-Framework von ChatGLM3 unter denselben Hardware- und Modellbedingungen, verglichen mit der derzeit besten Open-Source-Implementierung, einschließlich vLLM, das von der University of Berkeley eingeführt wurde, und der neuesten Version von Hugging Face TGI, Inferenz Die Geschwindigkeit wird um das 2-3-fache erhöht und die Inferenzkosten werden verdoppelt. Es beträgt nur 0,5 Punkte pro tausend Token, was den niedrigsten Kosten entspricht.
Die neue Generation von „Zhipu Qingyan“ wird eingeführt, die erste Code-Interaktionsfunktion in China
Angetrieben durch das neu aktualisierte ChatGLM3 ist der generative KI-Assistent Zhipu Qingyan das erste große Modellprodukt (Code Interpreter) in China mit Code-Interaktionsfunktionen (https://chatglm.cn/main/code).
Die Funktion „Code“ unterstützt derzeit Bildverarbeitung, mathematische Berechnungen, Datenanalyse und andere Nutzungsszenarien. Folgendes sind:
§ Verarbeiten Sie Daten, um Diagramme zu erstellen
§ Code zum Zeichnen von Grafiken
§ SQL-Code-Analyse hochladen
Mit der Hinzufügung der WebGLM-Funktionen für große Modelle verfügt Zhipu Qingyan auch über Suchverbesserungsfunktionen, die Benutzern dabei helfen können, Online-Literatur oder Artikel-Links für verwandte Fragen zu sortieren und direkt Antworten bereitzustellen.
Das zuvor veröffentlichte CogVLM-Modell hat die chinesischen Bild- und Textverständnisfähigkeiten verbessert und Bildverständnisfähigkeiten erreicht, die denen von GPT-4V nahe kommen. Es kann verschiedene Arten visueller Fragen beantworten und komplexe Zielerkennungen durchführen und diese kennzeichnen, um die automatische Datenanmerkung abzuschließen.
Seit Anfang 2022 unterstützen die von Zhipu AI eingeführten Modelle der GLM-Serie umfangreiches Vortraining und Inferenz auf den Architekturen Ascend, Sunway Supercomputing und Haiguang DCU. Bisher haben die Produkte von Zhipu AI mehr als 10 inländische Hardware-Ökosysteme unterstützt, darunter Ascend, Sunway Supercomputer, Haiguang DCU, Haifeike, Muxixiyun, Computing Technology, Tianshu Intelligent Core, Cambrian und Moore Thread, Baidu Kunlun Core, Lingxi Technology, Great Wand Chaoyun usw. Durch gemeinsame Innovationen mit inländischen Chipunternehmen wird die kontinuierliche Leistungsoptimierung dazu beitragen, dass einheimische große Modelle und inländische Chips so schnell wie möglich auf die internationale Bühne gelangen.
ChatGLM3 und die damit verbundene Produktreihe von Zhipu AI haben die Modellleistung umfassend verbessert, ein offeneres Open-Source-Ökosystem für die Branche geschaffen und die Schwelle für normale Benutzer zur Verwendung von AIGC-Produkten weiter gesenkt. KI führt uns in eine neue Ära und große Modelle werden diesen Moment definitiv beschleunigen.
Das obige ist der detaillierte Inhalt vonZhipu AI bringt das Basismodell ChatGLM3 der dritten Generation mit umfassendem Leistungsdurchbruch auf den Markt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!