Heim Technologie-Peripheriegeräte KI Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Jun 09, 2024 am 11:10 AM
产业 Videogenerierung

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.
Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. Einreichungs-E-Mail: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com

Die Videogenerierung von Menschentänzen ist eine fesselnde und herausfordernde kontrollierbare Videosyntheseaufgabe, die darauf abzielt, ein Video basierend auf eingegebenen Referenzbildern und Zielpositionssequenzen zu generieren hochwertige, realistische fortlaufende Videos. Mit der rasanten Entwicklung der Videogenerierungstechnologie, insbesondere der iterativen Weiterentwicklung generativer Modelle, hat die Aufgabe der Tanzvideogenerierung beispiellose Fortschritte gemacht und ein breites Anwendungspotenzial aufgezeigt.

Bestehende Methoden lassen sich grob in zwei Gruppen einteilen. Die erste Gruppe basiert typischerweise auf Generative Adversarial Networks (GANs), die eine zwischenstellungsgesteuerte Darstellung nutzen, um ein Referenzbild zu verzerren und sinnvolle Videobilder aus zuvor verzerrten Zielen zu generieren. Methoden, die auf generativen kontradiktorischen Netzwerken basieren, leiden jedoch häufig unter instabilem Training und schlechten Generalisierungsfähigkeiten, was zu offensichtlichen Artefakten und Jitter zwischen Frames führt.

Die zweite Gruppe verwendet das Diffusionsmodell, um realistische Videos zu synthetisieren. Diese Methoden bieten die Vorteile eines stabilen Trainings und starker Übertragungsfunktionen und bieten eine bessere Leistung als GAN-basierte Methoden. Zu den typischen Methoden gehören Disco, MagicAnimate, Animate Everyone, Champ usw.

Obwohl auf Diffusionsmodellen basierende Methoden erhebliche Fortschritte gemacht haben, weisen bestehende Methoden immer noch zwei Einschränkungen auf: Erstens ist ein zusätzliches Referenznetzwerk (ReferenceNet) erforderlich, um Referenzbildmerkmale zu codieren und sie mit der scheinbaren Ausrichtung von 3D-UNet zu kombinieren Der Backbone-Zweig erhöht die Trainingsschwierigkeit und die Modellparameter. Zweitens verwenden sie normalerweise einen zeitlichen Transformator, um die zeitliche Abhängigkeit zwischen Videobildern zu modellieren. Die Komplexität des Transformators wird jedoch quadratisch mit der Länge der generierten Zeit Timing-Länge des generierten Videos. Typische Methoden können nur 24 Videobilder erzeugen, was die praktischen Einsatzmöglichkeiten einschränkt. Obwohl die Schiebefensterstrategie der zeitlichen Überlappung längere Videos erzeugen kann, stellten die Autoren des Teams fest, dass diese Methode leicht zu dem Problem ungleichmäßiger Übergänge und einer inkonsistenten Darstellung an den überlappenden Verbindungsstellen der Segmente führt.

Um diese Probleme zu lösen, schlug ein Forschungsteam der Huazhong University of Science and Technology, Alibaba und der University of Science and Technology of China das UniAnimate-Framework vor, um eine effiziente und langfristige menschliche Videogenerierung zu erreichen.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

  • Papieradresse: https://arxiv.org/abs/2406.01188
  • Projekthomepage: https://unianimate.github.io/

Methode Einführung
Das

UniAnimate-Framework ordnet zunächst das Referenzbild, die Posenführung und das Rauschvideo dem Funktionsraum zu und verwendet dann das Unified Video Diffusion Model (Unified Video Diffusion Model) , um gleichzeitig das Referenzbild und die scheinbare Ausrichtung des Video-Backbone-Zweigs zu verarbeiten und Video-Rauschunterdrückungsaufgaben für eine effiziente Funktionsausrichtung und kohärente Videogenerierung.

Zweitens schlug das Forschungsteam auch eine einheitliche Rauscheingabe vor, die eine zufällige Rauscheingabe und eine bedingte Rauscheingabe basierend auf dem ersten Bild unterstützt. Die zufällige Rauscheingabe kann ein Video mit dem Referenzbild und der Posensequenz generieren Die bedingte Rauscheingabe des ersten Frames (First Frame Conditioning) verwendet den ersten Frame des Videos als bedingte Eingabe, um mit der Generierung nachfolgender Videos fortzufahren. Auf diese Weise kann eine Inferenz generiert werden, indem das letzte Bild des vorherigen Videosegments als erstes Bild des nächsten Segments usw. behandelt wird, um eine lange Videogenerierung in einem Framework zu erreichen.

Um lange Sequenzen noch effizienter zu verarbeiten, untersuchte das Forschungsteam schließlich eine Zeitmodellierungsarchitektur auf Basis des Zustandsraummodells (Mamba) als Alternative zum ursprünglichen rechenintensiven Zeitreihen-Transformer. Experimente haben ergeben, dass die auf sequentiellem Mamba basierende Architektur ähnliche Effekte wie der sequentielle Transformer erzielen kann, jedoch weniger Grafikspeicher-Overhead erfordert.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Mit dem UniAnimate-Framework können Benutzer hochwertige Zeitreihenvideos zum menschlichen Tanz erstellen. Es ist erwähnenswert, dass durch die mehrmalige Verwendung der First-Frame-Conditioning-Strategie ein einminütiges hochauflösendes Video generiert werden kann. Im Vergleich zu herkömmlichen Methoden bietet UniAnimate die folgenden Vorteile:

  • Keine Notwendigkeit für zusätzliche Referenznetzwerke: Das UniAnimate-Framework eliminiert die Abhängigkeit von zusätzlichen Referenznetzwerken durch ein einheitliches Videodiffusionsmodell, wodurch Trainingsschwierigkeiten und Modellnummern reduziert werden von Parametern.
  • Führt die Posenkarte des Referenzbildes als zusätzliche Referenzbedingung ein, die das Netzwerk dazu fördert, die Entsprechung zwischen der Referenzpose und der Zielpose zu lernen und eine gute scheinbare Ausrichtung zu erreichen.
  • Erstellen Sie Videos mit langen Sequenzen innerhalb eines einheitlichen Rahmens: Durch das Hinzufügen eines einheitlichen Rauscheingangs ist UniAnimate in der Lage, Langzeitvideos innerhalb eines Frames zu generieren, ohne den Zeitbeschränkungen herkömmlicher Methoden mehr zu unterliegen.
  • Hohe Konsistenz: Das UniAnimate-Framework sorgt für einen reibungslosen Übergangseffekt des generierten Videos, indem es iterativ das erste Bild als Bedingung für die Generierung nachfolgender Bilder verwendet, wodurch das Video konsistenter und kohärenter im Erscheinungsbild wird. Diese Strategie ermöglicht es Benutzern auch, mehrere Videoclips zu generieren und das letzte Bild des Clips mit guten Ergebnissen als erstes Bild des nächsten generierten Clips auszuwählen, wodurch es für Benutzer einfacher wird, mit dem Modell zu interagieren und die Generierungsergebnisse nach Bedarf anzupassen. Wenn jedoch lange Videos mit der Schiebefensterstrategie der Überlappung früherer Zeitreihen erstellt werden, kann keine Segmentauswahl durchgeführt werden, da jedes Video in jedem Schritt des Diffusionsprozesses miteinander gekoppelt ist.

Die oben genannten Funktionen machen das UniAnimate-Framework hervorragend für die Synthese hochwertiger, langfristiger menschlicher Tanzvideos und bieten neue Möglichkeiten für ein breiteres Anwendungsspektrum.

Beispiel für generierte Ergebnisse

1. Tanzvideogenerierung basierend auf synthetisierten Bildern.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.
2. Tanzvideos basierend auf echten Bildern erstellen.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

3. Erstellung von Tanzvideos basierend auf Bildern im Tonstil.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

4. Moschustänze.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

5. Yann LeCun tanzt.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

6. Tanzvideos basierend auf anderen domänenübergreifenden Bildern generieren.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.


7. Erstelle ein einminütiges Tanzvideo. Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.
Original-MP4-Videos und weitere HD-Videobeispiele finden Sie auf der Projekthomepage des Papiers https://unianimate.github.io/.

Experimentelle Vergleichsanalyse

1. Quantitative Vergleichsexperimente mit vorhandenen Methoden am TikTok-Datensatz.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Wie in der obigen Tabelle gezeigt, erzielt die UniAnimate-Methode die besten Ergebnisse bei Bildindikatoren wie L1, PSNR, SSIM, LPIPS und Videoindikatoren FVD, was darauf hinweist, dass UniAnimate Ergebnisse mit hoher Wiedergabetreue generieren kann.

2. Qualitative Vergleichsexperimente mit bestehenden Methoden.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Aus den obigen qualitativen Vergleichsexperimenten geht auch hervor, dass die UniAnimate-Methode im Vergleich zu MagicAnimate und Animate Everyone bessere kontinuierliche Ergebnisse ohne offensichtliche Artefakte generieren kann, was auf die Wirksamkeit von UniAnimate hinweist.

3. Peeling-Experiment.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Wie aus den numerischen Ergebnissen in der obigen Tabelle ersichtlich ist, spielen die in UniAnimate verwendete Referenzpose und das einheitliche Videodiffusionsmodell eine Schlüsselrolle bei der Verbesserung der Leistung.

4. Vergleich von Strategien zur Generierung langer Videos.

Unterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.

Wie aus der obigen Abbildung ersichtlich ist, kann die häufig verwendete Timing-Overlap-Slide-Window-Strategie zum Generieren langer Videos leicht zu diskontinuierlichen Übergängen führen. Das Forschungsteam geht davon aus, dass dies daran liegt, dass verschiedene Fenster inkonsistente Rauschunterdrückungsschwierigkeiten haben Die zeitliche Überschneidung eines Teils führt dazu, dass die Generierungsergebnisse unterschiedlich sind. Die direkte Mittelung führt zu offensichtlichen Verformungen oder Verzerrungen, und diese Inkonsistenz führt zu einer Fehlerausbreitung. Die in diesem Artikel verwendete Methode zur Generierung der Videofortsetzung im ersten Frame kann sanfte Übergänge erzeugen.

Weitere experimentelle Vergleichsergebnisse und Analysen finden Sie im Originalpapier.

Alles in allem sind die Beispielergebnisse und quantitativen Vergleichsergebnisse von UniAnimate sehr gut. Wir freuen uns auf die Anwendung von UniAnimate in verschiedenen Bereichen wie der Film- und Fernsehproduktion, der Virtual-Reality- und Spielebranche usw., um den Benutzern mehr zu bieten realistische und aufregende menschliche Bilder.

Das obige ist der detaillierte Inhalt vonUnterstützt die Synthese einminütiger hochauflösender Videos. UniAnimate schlug ein neues Framework für die Erzeugung menschlicher Tanzvideos vor.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1667
14
PHP-Tutorial
1273
29
C#-Tutorial
1255
24
Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

See all articles