


Beliebige gemischte Text-, Bild- und Audiogenerierung, multimodal mit einer leistungsstarken Basis-Engine CoDi-2
Forscher wiesen darauf hin, dass CoDi-2 einen großen Durchbruch auf dem Gebiet der Entwicklung umfassender multimodaler Basismodelle darstellt
Im Mai dieses Jahres schlugen die University of North Carolina in Chapel Hill und Microsoft eine Composable Diffusion (Composable Das Diffusionsmodell (als CoDi bezeichnet) ermöglicht es, mehrere Modalitäten in einem Modell zu vereinen. CoDi unterstützt nicht nur die Generierung von Einzelmodalität zu Einzelmodalität, sondern kann auch mehrere bedingte Eingaben und die Generierung multimodaler Verbindungen empfangen.
Kürzlich haben viele Forscher von der UC Berkeley, Microsoft Azure AI, Zoom und der University of North Carolina in Chapel Hill das CoDi-System auf die CoDi-2-Version aktualisiert
Schreiben Sie den Inhalt neu, ohne die ursprüngliche Bedeutung zu ändern In die chinesische Sprache umgeschrieben, muss der Originalsatz nicht erscheinen
Laut Zineng Tangs Artikel folgt CoDi-2 komplexen multimodalen verschachtelten Kontextanweisungen, um jede Modalität (Text, Bild und Audio) mit Zero-Shot oder zu generieren Wenige Interaktionen
Dieser Link ist die Bildquelle: https://twitter.com/ZinengTang/status/1730658941414371820
Man kann sagen, dass es sich um eine vielseitige und interaktive multimodale große Sprache handelt Modell (MLLM) kann CoDi-2 kontextuelles Lernen, Denken, Chatten, Bearbeiten und andere Aufgaben in einem modalen Any-to-Any-Input-Output-Paradigma durchführen. Durch die Ausrichtung von Modalitäten und Sprachen während der Kodierung und Generierung ermöglicht CoDi-2 LLM nicht nur, komplexe modale Verschachtelungsanweisungen und kontextbezogene Beispiele zu verstehen, sondern auch autoregressiv eine sinnvolle und kohärente multimodale Ausgabe innerhalb eines kontinuierlichen Merkmalsraums zu generieren.
Um CoDi-2 zu trainieren, erstellten die Forscher einen großen generativen Datensatz, der kontextbezogene multimodale Anweisungen in Text, Bild und Audio enthält. CoDi-2 demonstriert eine Reihe von Zero-Shot-Funktionen für die multimodale Generierung, wie z. B. kontextuelles Lernen, Argumentation und Any-to-Any-Modalgenerierungskombinationen durch mehrere Runden interaktiven Dialogs. Unter anderem übertrifft es frühere domänenspezifische Modelle bei Aufgaben wie der themengesteuerten Bildgenerierung, der visuellen Transformation und der Audiobearbeitung.
Mehrere Dialogrunden zwischen Menschen und CoDi-2 bieten kontextbezogene multimodale Anweisungen zur Bildbearbeitung.
Was neu geschrieben werden muss, ist: Modellarchitektur
CoDi-2 ist darauf ausgelegt, multimodale Eingaben wie Text, Bilder und Audio im Kontext zu verarbeiten und dabei spezifische Anweisungen zu verwenden, um kontextbezogenes Lernen zu fördern und entsprechenden Text zu generieren , Bild- und Audioausgabe. Was für CoDi-2 neu geschrieben werden muss, ist: Das Modellarchitekturdiagramm sieht wie folgt aus.
Verwendung eines multimodalen großen Sprachmodells als Basis-Engine
Dieses Any-to-Any-Basismodell kann verschachtelte modale Eingaben verarbeiten, komplexe Anweisungen verstehen und darüber nachdenken (z. B. Konversationen mit mehreren Runden, kontextbezogene). Beispiele) und interagieren mit dem multimodalen Diffusor. Voraussetzung dafür ist ein leistungsstarker Basismotor. Als Engine schlugen die Forscher MLLM vor, das eine multimodale Wahrnehmung für Nur-Text-LLMs ermöglichen soll.
Mithilfe einer ausgerichteten multimodalen Encoderzuordnung können Forscher LLM nahtlos auf modal verschachtelte Eingabesequenzen aufmerksam machen. Insbesondere verwenden sie bei der Verarbeitung multimodaler Eingabesequenzen zunächst multimodale Encoder, um multimodale Daten Feature-Sequenzen zuzuordnen, und fügen dann vor und nach der Feature-Sequenz spezielle Token hinzu, z. B. „〈Audio〉 [Audio-Feature-Sequenz“. „] 〈/audio〉“.
Die Grundlage der multimodalen Generierung ist MLLM
Forscher schlugen vor, das Diffusionsmodell (DM) in MLLM zu integrieren, um eine multimodale Ausgabe zu generieren. Während dieses Prozesses wurden detaillierte multimodale verschachtelte Anweisungen und Eingabeaufforderungen befolgt. Die Trainingsziele des Diffusionsmodells sind wie folgt:
Sie schlugen dann vor, ein MLLM zu trainieren, um bedingte Merkmale c = C_y (y) zu generieren, die in ein Diffusionsmodell eingespeist werden, um die Zielausgabe x zu synthetisieren. Auf diese Weise wird der generative Verlust des Diffusionsmodells zum Trainieren des MLLM genutzt.
Aufgabentypen
Das Modell demonstriert starke Fähigkeiten in den folgenden Beispielaufgabentypen, die einen einzigartigen Ansatz bieten, der das Modell dazu veranlasst, multimodale Inhalte im Kontext zu generieren oder zu transformieren, einschließlich Text, Bilder, Audio, Video und dergleichen Kombination
Der umgeschriebene Inhalt lautet: 1. Null-Stichproben-Inferenz. Bei Zero-Shot-Inferenzaufgaben muss das Modell ohne vorherige Beispiele argumentieren und neue Inhalte generieren
2. Eine oder mehrere Beispielaufforderungen stellen dem Modell ein oder mehrere Beispiele zur Verfügung, aus denen es lernen kann, bevor ähnliche Aufgaben ausgeführt werden. Dieser Ansatz zeigt sich bei Aufgaben, bei denen das Modell erlernte Konzepte von einem Bild auf ein anderes anwendet oder ein neues Kunstwerk erstellt, indem es den im bereitgestellten Beispiel beschriebenen Stil versteht.
Experimente und Ergebnisse
Modelleinstellungen
Die Implementierung des Modells in diesem Artikel basiert auf Llama2, insbesondere Llama-2-7b-chat-hf. Die Forscher verwendeten ImageBind, das Bild-, Video-, Audio-, Text-, Tiefen-, Wärme- und IMU-Modus-Encoder ausgerichtet hat. Wir verwenden ImageBind, um Bild- und Audiofunktionen zu kodieren und sie durch ein mehrschichtiges Perzeptron (MLP) auf die Eingabedimensionen eines LLM (Llama-2-7b-chat-hf) zu projizieren. MLP besteht aus linearer Abbildung, Aktivierung, Normalisierung und einer weiteren linearen Abbildung. Wenn LLMs Bild- oder Audiofunktionen generieren, projizieren sie diese über einen anderen MLP zurück in die ImageBind-Funktionsdimension. Das Bilddiffusionsmodell in diesem Artikel basiert auf StableDiffusion2.1 (stabilityai/stable-diffusion-2-1-unclip), AudioLDM2 und zeroskop v2.
Um Original-Eingabebilder oder -Audios mit höherer Wiedergabetreue zu erhalten, geben Forscher diese in das Diffusionsmodell ein und generieren Merkmale durch Verkettung des Diffusionsrauschens. Diese Methode ist sehr effektiv, sie kann die Wahrnehmungseigenschaften des Eingabeinhalts weitestgehend bewahren und neue Inhalte hinzufügen oder den Stil ändern und andere Anweisungen bearbeiten
Der Inhalt, der neu geschrieben werden muss, ist: Bildgenerierung Auswertung
Die folgende Abbildung zeigt die Auswertungsergebnisse der themengesteuerten Bildgenerierung auf Dreambench und FID-Scores auf MSCOCO. Die Methode in diesem Artikel erreicht eine äußerst wettbewerbsfähige Zero-Shot-Leistung und demonstriert ihre Generalisierungsfähigkeit auf unbekannte neue Aufgaben.
Bewertung der Audiogenerierung
Tabelle 5 zeigt die Bewertungsergebnisse für die Audioverarbeitungsaufgabe, d. h. das Hinzufügen, Löschen und Ersetzen von Elementen in der Audiospur. Aus der Tabelle geht hervor, dass unsere Methode im Vergleich zu früheren Methoden eine hervorragende Leistung zeigt. Bemerkenswert ist, dass es bei allen drei Bearbeitungsaufgaben die niedrigsten Werte bei allen Metriken erzielte – Log Spectral Distance (LSD), Kullback-Leibler (KL) Divergence und Fréchet Distance (FD)
Lesen Sie den Originalartikel, um mehr technische Informationen zu erhalten Einzelheiten.
Das obige ist der detaillierte Inhalt vonBeliebige gemischte Text-, Bild- und Audiogenerierung, multimodal mit einer leistungsstarken Basis-Engine CoDi-2. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Herausgeber des Machine Power Report: Yang Wen Wer kann der King of AI-Videokreis werden? In der amerikanischen Fernsehserie „Game of Thrones“ gibt es einen „Eisernen Thron“. Der Legende nach wurde es vom riesigen Drachen „Schwarzer Tod“ erschaffen, der Tausende von von Feinden weggeworfenen Schwertern zum Schmelzen brachte und so höchste Autorität symbolisierte. Um auf diesem eisernen Stuhl zu sitzen, begannen die großen Familien zu kämpfen und zu kämpfen. Seit der Entstehung von Sora wurde im KI-Videokreis ein energisches „Game of Thrones“ gestartet. Zu den Hauptakteuren in diesem Spiel zählen RunwayGen-3 und Luma von der anderen Seite des Ozeans sowie die einheimischen Kuaishou Keling, ByteDream, und Zhimo. Spectrum Qingying, Vidu, PixVerseV2 usw. Heute werden wir bewerten und sehen, wer qualifiziert ist, auf dem „Eisernen Thron“ des KI-Videokreises zu sitzen. -1- Vincent Video
