Heim Technologie-Peripheriegeräte KI Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente

Aug 22, 2024 pm 10:38 PM
产业 Tencent Yuanbao

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente

Die AIxiv-Kolumne ist eine Kolumne, in der akademische und technische Inhalte auf dieser Website veröffentlicht werden. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail zur Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com


Groß angelegte Sprachmodelle, dargestellt durch GPT, läuten den Beginn der allgemeinen künstlichen Intelligenz im digitalen kognitiven Raum ein. Diese Modelle demonstrieren durch die Verarbeitung und Generierung natürlicher Sprache leistungsstarke Verständnis- und Argumentationsfähigkeiten und haben breite Anwendungsaussichten in mehreren Bereichen gezeigt. Ob bei der Generierung von Inhalten, automatisiertem Kundenservice, Produktivitätstools, KI-Suche oder in Bereichen wie Bildung und medizinischer Versorgung – groß angelegte Sprachmodelle fördern ständig den technologischen Fortschritt und die Popularisierung von Anwendungen.

Um jedoch die allgemeine künstliche Intelligenz bei der Erforschung der physischen Welt zu fördern, besteht der erste Schritt darin, das Problem des visuellen Verständnisses, also des multimodalen Verständnisses großer Modelle, zu lösen. Multimodales Verständnis ermöglicht es der KI, die Welt besser zu verstehen und mit ihr zu interagieren, indem sie Informationen über mehrere Sinne erfasst und verarbeitet, genau wie Menschen. Durchbrüche in diesem Bereich werden es der künstlichen Intelligenz ermöglichen, größere Fortschritte in der Robotik, dem autonomen Fahren usw. zu machen und den Sprung von der digitalen Welt in die physische Welt wirklich zu verwirklichen.

GPT-4V wurde im Juni letzten Jahres veröffentlicht, aber im Vergleich zu großen Sprachmodellen scheint die Entwicklung multimodaler Verständnismodelle langsamer zu sein, insbesondere im chinesischen Bereich. Darüber hinaus hat die Branche im Gegensatz zur technischen Route und Auswahl großer Sprachmodelle, die relativ sicher sind, noch keinen vollständigen Konsens über die Architektur und Auswahl der Trainingsmethoden für multimodale Modelle erzielt.

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente

”” ”” ”Der Entwicklungspfad großer Modelle vom kognitiven Raum bis zur physischen Welt. Er startete zuerst ein Multi-Mode-Modell, das auf MOE-Architektur auf Basis von MOE-Architektur nachempfunden ist. modernes Verständnis großer Modelle. Das Modell wurde in Bezug auf Architektur, Trainingsmethoden und Datenverarbeitung innovativ und umfassend optimiert, wodurch seine Leistung erheblich verbessert wurde und das Verständnis von Bildern mit jedem Seitenverhältnis und einer Auflösung von bis zu 7K unterstützt wurde. Im Gegensatz zu den meisten multimodalen Modellen, die hauptsächlich auf Open-Source-Benchmarks abgestimmt sind, legt das hybride multimodale Modell von Tencent mehr Wert auf die Vielseitigkeit, Praktikabilität und Zuverlässigkeit des Modells und verfügt über umfassende Funktionen zum Verständnis multimodaler Szenen. In der kürzlich veröffentlichten Benchmark-Bewertung des chinesischen multimodalen Großmodells SuperCLUE-V (August 2024) belegte Tencent Hunyuan den ersten Platz im Land und übertraf damit mehrere gängige Closed-Source-Modelle.

Methodeneinführung: MoE-Architektur

Tencent Mixed Language Large Model ist das erste in China, das die Mixed Expert Model (MoE)-Architektur übernimmt. Die Gesamtleistung des Modells ist 50 % höher als die vorherige Generation und einige chinesische Fähigkeiten Es knüpft an GPT-4o an und hat seine Leistung bei der Beantwortung „aktueller“ Fragen sowie in Mathematik, Argumentation und anderen Fähigkeiten erheblich verbessert. Bereits Anfang dieses Jahres hat Tencent Hunyuan dieses Modell auf Tencent Yuanbao angewendet.
Tencent Hunyuan glaubt, dass die MoE-Architektur, die eine große Anzahl allgemeiner Aufgaben lösen kann, auch die beste Wahl für multimodale Verständnisszenarien ist. MoE kann besser mit mehr Modalitäten und Aufgaben kompatibel sein und sicherstellen, dass sich verschiedene Modalitäten und Aufgaben gegenseitig verstärken und nicht konkurrieren.

Auf der Grundlage der Fähigkeiten des großen Sprachmodells von Tencent Hunyuan hat Tencent Hunyuan ein großes multimodales Verständnismodell auf Basis der MoE-Architektur eingeführt und Innovationen und tiefgreifende Optimierungen in Bezug auf Architektur, Trainingsmethoden und Daten vorgenommen Die Verarbeitung und die Leistung wurden deutlich verbessert. Dies ist auch das erste multimodale Großmodell auf Basis der MoE-Architektur in China.

模 Schematische Darstellung der multimodalen Modellarchitektur mit gemischten Elementen von Tencent folgt einfachen und vernünftigen Skalierbarkeitsprinzipien:
Unterstützt native beliebige Auflösungen: Im Vergleich zu den branchenüblichen Methoden mit fester Auflösung oder Cut-Subgraph-Methoden kann das hybride multimodale Modell von Tencent native Bilder jeder beliebigen Auflösung verarbeiten Multimodales Modell zur Unterstützung des Bildverständnisses mit Auflösungen über 7K und jedem Seitenverhältnis (z. B. 16:1, siehe Beispiel unten).
Verwendung eines einfachen MLP-Adapters: Im Vergleich zum vorherigen Mainstream-Q-Former-Adapter weist der MLP-Adapter weniger Verluste bei der Informationsübertragung auf.

Dieses einfache Design erleichtert die Erweiterung und Skalierung von Modellen und Daten.

  • SuperClue-V belegt den ersten Platz in der inländischen Liste
  • Im August 2024 veröffentlichte SuperCLUE zum ersten Mal die multimodale Verständnisbewertungsliste – SuperClue-V.

Der SuperCLUE-V-Benchmark umfasst zwei allgemeine Richtungen: grundlegende Fähigkeiten und Anwendungsfähigkeiten. Er bewertet multimodale große Modelle in Form offener Fragen, darunter 8 Dimensionen der ersten Ebene und 30 Dimensionen der zweiten Ebene.

In dieser Bewertung erreichte das multimodale Verständnissystem von Hunyuan, hunyuan-vision, eine Punktzahl von 71,95 und lag damit nur hinter GPT-4o an zweiter Stelle. Bei multimodalen Anwendungen liegt hunyuan-vision vor Claude3.5-Sonnet und Gemini-1.5-Pro.

Es ist erwähnenswert, dass sich frühere multimodale Beurteilungen in der Branche hauptsächlich auf Englischkenntnisse konzentrierten und die meisten Beurteilungsfragen Multiple-Choice- oder Richtig-Falsch-Fragen waren. Die SuperCLUE-V-Bewertung konzentriert sich mehr auf die Bewertung der Chinesischkenntnisse und konzentriert sich auf die tatsächlichen Probleme der Benutzer. Da es sich außerdem um die erste Veröffentlichung handelt, ist noch keine Überanpassung aufgetreten.

Das Tencent Hunyuan Graphics and Text Large Model zeigt eine gute Leistung in mehreren Dimensionen wie allgemeine Szenen, Bild-OCR-Erkennung und -Verständnis sowie Verständnis und Argumentation chinesischer Elemente und spiegelt auch das Potenzial des Modells in zukünftigen Anwendungen wider .

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente

Auf allgemeine Anwendungsszenarien ausgerichtet

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter ElementeDas multimodale Verständnismodell mit gemischten Elementen ist für allgemeine Szenarien und umfangreiche Anwendungen optimiert und hat Dutzende Millionen verwandter Frage- und Antwortkorpus angesammelt, die grundlegende Themen abdecken Bildverständnis, Inhaltserstellung. Es kann in vielen Szenarien verwendet werden, z. B. bei der Argumentationsanalyse, bei Wissensfragen und -antworten, bei der OCR-Dokumentenanalyse und bei der Beantwortung von Themen. Im Folgenden finden Sie einige typische Anwendungsbeispiele.

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente

Hier sind weitere typische Beispiele:

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente

Konvertieren Sie ein Bild in eine Texttabelle:

Erklären Sie einen Code:

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter ElementeAnalysieren Sie eine Rechnung:


Beschreibung Bildinhalt:

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente Lösen Sie mathematische Aufgaben:

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente Analysieren Sie anhand des Bildinhalts:

Chinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente Helfen Sie beim Schreiben von Texten:

Derzeit wurde Tencents multimodales Verständnis-Großmodell Hunyuan im KI-Assistentenprodukt Tencent Yuanbao eingeführt und steht Unternehmen und einzelnen Entwicklern über Tencent Cloud offen.

Tencent Yuanbao-Adresse: https://yuanbao.tencent.com/chat

Das obige ist der detaillierte Inhalt vonChinas erstes selbst entwickeltes multimodales MoE-Großmodell offenbart Tencents multimodales Verständnis gemischter Elemente. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

See all articles