


Lassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert
Mit Alibabas EMO ist es einfacher geworden, sich mit KI-generierten oder realen Bildern zu „bewegen, zu sprechen oder zu singen“.
Vor kurzem ist das von OpenAI Sora vertretene Vincent-Videomodell wieder populär geworden.
Neben textgenerierten Videos hat die menschzentrierte Videosynthese schon immer große Aufmerksamkeit erregt. Konzentrieren Sie sich beispielsweise auf die Videogenerierung „Sprecherkopf“, bei der das Ziel darin besteht, Gesichtsausdrücke auf der Grundlage von vom Benutzer bereitgestellten Audioclips zu generieren.
Auf technischer Ebene erfordert die Generierung von Ausdrücken die genaue Erfassung der subtilen und vielfältigen Gesichtsbewegungen des Sprechers, was bei ähnlichen Videosyntheseaufgaben eine große Herausforderung darstellt.
Herkömmliche Methoden bringen normalerweise einige Einschränkungen mit sich, um die Aufgabe der Videoerstellung zu vereinfachen. Einige Methoden nutzen beispielsweise 3D-Modelle, um wichtige Gesichtspunkte einzuschränken, während andere Kopfbewegungssequenzen aus Rohvideos extrahieren, um die Gesamtbewegung zu steuern. Während diese Einschränkungen die Komplexität der Videoerstellung verringern, schränken sie auch die Fülle und Natürlichkeit der endgültigen Gesichtsausdrücke ein.
In einem kürzlich vom Ali Intelligent Computing Research Institute veröffentlichten Artikel konzentrierten sich Forscher auf die Erforschung der subtilen Verbindung zwischen Audiohinweisen und Gesichtsbewegungen, um die Authentizität, Natürlichkeit und Ausdruckskraft des Kopfvideos des Sprechers zu verbessern.
Forscher haben herausgefunden, dass traditionelle Methoden oft nicht in der Lage sind, die Gesichtsausdrücke und einzigartigen Stile verschiedener Sprecher angemessen zu erfassen. Daher schlugen sie das EMO-Framework (Emote Portrait Alive) vor, das Gesichtsausdrücke direkt durch eine Audio-Video-Synthesemethode wiedergibt, ohne 3D-Zwischenmodelle oder Gesichtsorientierungspunkte zu verwenden.
Papiertitel: EMO: Emote Portrait Alive – Generating Expressive Portrait Videos with Audio2Video Diffusion Model under Weak Conditions
Papieradresse: https://arxiv.org/pdf/2402.17485.pdf
-
Projekt-Homepage: https://humanaigc.github.io/emote-portrait-alive/
In Bezug auf die Wirkung kann Alis Methode einen nahtlosen Bildübergang im gesamten Video gewährleisten und eine konsistente Identität aufrechterhalten, wodurch Leistung erzeugt wird Das realistischere Charakter-Avatar-Video ist hinsichtlich Ausdruckskraft und Realismus deutlich besser als die aktuelle SOTA-Methode.
Zum Beispiel kann EMO die von Sora generierte Tokio-Mädchenfigur zum Singen bringen. Das Lied ist „Don't Start Now“, gesungen von der britisch-albanischen Sängerin Dua Lipa. EMO unterstützt Songs in verschiedenen Sprachen, einschließlich Englisch und Chinesisch. Es kann die Tonänderungen des Audios intuitiv erkennen und dynamische und ausdrucksstarke KI-Charakter-Avatare generieren. Lassen Sie zum Beispiel die vom KI-Malmodell ChilloutMix generierte junge Dame „Melody“ von Tao Zhe singen.
EMO kann es dem Avatar auch ermöglichen, mit rasanten Rap-Songs Schritt zu halten, beispielsweise indem er DiCaprio bittet, einen Abschnitt von „Godzilla“ des amerikanischen Rappers Eminem vorzutragen. Natürlich ermöglicht EMO den Charakteren nicht nur das Singen, sondern unterstützt auch gesprochenes Audio in verschiedenen Sprachen und verwandelt verschiedene Stile von Porträts, Gemälden sowie 3D-Modellen und KI-generierten Inhalten in lebensechte animierte Videos. Wie zum Beispiel Audrey Hepburns Vortrag.
Schließlich kann EMO auch eine Verbindung zwischen verschiedenen Charakteren herstellen, wie zum Beispiel Gao Qiqiang, der sich in „Cyclone“ mit Lehrer Luo Xiang verbindet.
Methodenübersicht
Anhand eines einzelnen Referenzbilds eines Charakterporträts kann unsere Methode ein Video generieren, das mit dem Audioclip der eingegebenen Sprache synchronisiert ist, die sehr natürlichen Kopfbewegungen und lebendigen Ausdrücke des Charakters beibehält und mit den Tonhöhenänderungen des bereitgestellten Sprachaudios übereinstimmt . Koordination. Durch die Erstellung einer nahtlosen Reihe kaskadierender Videos trägt das Modell dazu bei, lange Videos sprechender Porträts mit konsistenter Identität und kohärenter Bewegung zu erstellen, die für Anwendungen in der realen Welt von entscheidender Bedeutung sind. Die Übersicht über die Methode „Network Pipeline“ ist in der folgenden Abbildung dargestellt. Das Backbone-Netzwerk empfängt mehrere Frames mit potenziellem Rauschen und versucht, diese bei jedem Zeitschritt in aufeinanderfolgende Videoframes zu entrauschen. Das Backbone-Netzwerk verfügt über eine ähnliche UNet-Strukturkonfiguration wie die ursprüngliche SD 1.5-Version, insbesondere
wie zuvor funktioniert es ähnlich. Um die Kontinuität zwischen generierten Frames sicherzustellen, ist im Backbone-Netzwerk ein zeitliches Modul eingebettet.
- Um die ID-Konsistenz der Porträts in den generierten Frames aufrechtzuerhalten, stellten die Forscher parallel zum Backbone-Netzwerk eine UNet-Struktur namens ReferenceNet bereit, die das Referenzbild eingibt, um die Referenzmerkmale zu erhalten.
- Um die Bewegungen der Figur beim Sprechen zu steuern, verwendeten die Forscher eine Audioschicht, um die Klangmerkmale zu kodieren.
- Um die Bewegungen der sprechenden Figur kontrollierbar und stabil zu machen, verwendeten die Forscher Gesichtslokatoren und Geschwindigkeitsschichten, um schwache Bedingungen bereitzustellen.
- Für das Backbone-Netzwerk verwendeten die Forscher keine Hinweiseinbettungen, daher passten sie die Queraufmerksamkeitsschicht in der UNet-Struktur von SD 1.5 an die Referenzaufmerksamkeitsschicht an. Diese geänderten Ebenen verwenden von ReferenceNet erhaltene Referenzmerkmale als Eingabe anstelle von Texteinbettungen.
Trainingsstrategie
Der Trainingsprozess ist in drei Phasen unterteilt:
Die erste Phase ist das Bild-Vortraining, bei dem das Backbone-Netzwerk, ReferenceNet und der Gesichtslokalisierer in den Trainingsprozess integriert werden Das Backbone-Netzwerk wird in einem einzelnen Frame trainiert. Als Eingabe verarbeitet ReferenceNet verschiedene, zufällig ausgewählte Frames aus demselben Videoclip. Sowohl Backbone als auch ReferenceNet initialisieren Gewichte aus Roh-SD. In der zweiten Phase führten die Forscher ein Videotraining ein, fügten ein zeitliches Modul und eine Audioebene hinzu und probierten n+f aufeinanderfolgende Bilder aus dem Videoclip, wobei die ersten n Bilder Bewegungsbilder waren. Das Zeitmodul initialisiert die Gewichte von AnimateDiff.
Die letzte Stufe integriert die Geschwindigkeitsschicht, und der Forscher trainiert in dieser Stufe nur das Zeitmodul und die Geschwindigkeitsschicht. Dieser Ansatz dient dazu, die Audioschicht während des Trainings absichtlich zu ignorieren. Denn die Frequenz des Ausdrucks, der Mundbewegungen und der Kopfbewegungen des Sprechers werden hauptsächlich vom Ton beeinflusst. Daher scheint es eine Korrelation zwischen diesen Elementen zu geben, und das Modell steuert die Bewegung der Figur möglicherweise auf der Grundlage von Geschwindigkeitssignalen und nicht von Audio. Experimentelle Ergebnisse zeigen, dass das gleichzeitige Training der Geschwindigkeitsschicht und der Audioschicht die Fähigkeit von Audio schwächt, die Bewegung von Charakteren voranzutreiben.
Experimentelle ErgebnisseZu den während des Experiments verglichenen Methoden gehören Wav2Lip, SadTalker und DreamTalk.
Abbildung 3 zeigt die Vergleichsergebnisse zwischen dieser Methode und früheren Methoden. Es ist zu beobachten, dass Wav2Lip bei Bereitstellung eines einzelnen Referenzbilds als Eingabe typischerweise einen unscharfen Mundbereich synthetisiert und Videos generiert, die durch statische Kopfhaltungen und minimale Augenbewegungen gekennzeichnet sind. Im Fall von DreamTalk können die Ergebnisse das ursprüngliche Gesicht verzerren und auch die Bandbreite an Gesichtsausdrücken und Kopfbewegungen einschränken. Im Vergleich zu SadTalker und DreamTalk ist die in dieser Studie vorgeschlagene Methode in der Lage, eine größere Bandbreite an Kopfbewegungen und lebendigere Gesichtsausdrücke zu erzeugen.
Diese Studie untersucht weiter die Erzeugung von Avatar-Videos in verschiedenen Porträtstilen, wie z. B. realistisch, Anime und 3D. Die Charaktere wurden mit demselben Sprach-Audio-Input animiert, und die Ergebnisse zeigten, dass die resultierenden Videos über die verschiedenen Stile hinweg eine ungefähr einheitliche Lippensynchronisation erzeugten.Tabelle 1 Die Ergebnisse zeigen, dass diese Methode erhebliche Vorteile bei der Videoqualitätsbewertung hat:
Das obige ist der detaillierte Inhalt vonLassen Sie das Mädchen Sora Tokyo singen, Gao Qiqiang ändert seine Stimme in Luo Xiang und das Lippensynchronisationsvideo des Alibaba-Charakters wird perfekt generiert. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au
