


Ein in Tsinghua ansässiges Start-up-Unternehmen hat das weltweit erste 4D-Skelett-Animations-Framework veröffentlicht, das reale Szenen mit einem Klick in Animationen umwandeln und personalisierte Charaktere generieren kann.
Apple hat kürzlich angekündigt, dass es am 2. Februar sein erstes virtuelles Head-Mounted-Display-Gerät, Vision Pro, auf den Markt bringen wird. Dieses XR-Gerät soll die rasante Entwicklung der nächsten Generation von Terminals vorantreiben. Mit der Popularisierung virtueller Anzeigegeräte wird sich die digitale Interaktion von der Zweidimensionalen zur Dreidimensionalität verlagern, und dreidimensionale Modelle und dreidimensionale Animationen werden in Zukunft zu den gängigen Inhaltsformen werden. Auch die mehrdimensionale immersive Interaktion wird im Zuge des Trends der virtuellen und realen Integration zum Trend.
Allerdings wird die aktuelle Datenansammlung in der Content-Branche im Hinblick auf den Datenumfang immer noch von 2D-Bildern und flachen Videos dominiert, während die Datengrundlage aus 3D-Modellen, 4D-Animationen und anderen Daten relativ schwach ist. Unter anderem führt die 4D-Animation Zeitsequenzen auf der Grundlage traditioneller 3D-Modelle ein, d Andere Bereiche, aber es ist derzeit auch der schwierigste Link in der inhaltlichen ökologischen Entwicklung.
Daher wird für das bevorstehende mehrdimensionale immersive Erlebnis die Erstellung dreidimensionaler digitaler Inhalte zu einer wichtigen Grundlagenarbeit.
Auf diesem hochmodernen Gebiet hat das Unternehmerteam Shengshu Technology der Tsinghua-Universität eine Reihe von Forschungs- und Produktentwicklungen durchgeführt und kürzlich in Zusammenarbeit mit Tsinghua das weltweit erste 4D-Animationsgenerierungs-Framework „AnimatableDreamer“ auf Basis von „Skelettanimation“ auf den Markt gebracht Universität, Tongji-Universität und andere Universitäten , es kann 2D-Videomaterialien mit einem Klick direkt in dynamische dreidimensionale Modelle (d. h. 4D-Animation) konvertieren, unterstützt die automatische Extraktion von Skelettbewegungen, die Konvertierung von Animationseffekten mit einem Klick und personalisierte Charaktere Generierung durch Texteingabe.
- Papieradresse: https://arxiv.org/pdf/2312.03795.pdf
- Projektadresse: https://animatabledreamer.github.io/
- Papiertitel: AnimatableDreamer: Text -Geführte, nicht starre 3D-Modellgenerierung und -Rekonstruktion mit kanonischer Score-Destillation

Neue Methode zur Inhaltsproduktion
Subversion des dreidimensionalen Animationsentwicklungsprozesses
In der Vergangenheit erforderte die Produktion dreidimensionaler Animationen in der Branche komplexe Prozesse wie 3D-Modellierung und Textur-Rendering , Knochenbindung, Animationsproduktion usw. Modellierung war erforderlich. Sie kann nur unter Beteiligung von Fachleuten wie Designern und Animatoren durchgeführt werden, was eine geringe Effizienz und hohe Kosten verursacht. Laut Statistik dauert der Produktionszyklus eines einzelnen statischen 3D-Modells Stunden bis Tage, und die Kosten können bis zu Tausende von Dollar betragen. Die Kosten für die dynamische Verarbeitung werden sogar noch höher sein. Wie Sie dem offiziellen Demovideo entnehmen können, laden Sie ein 2D-Video aus dem echten Leben eines Eichhörnchens hoch und geben Sie die Textbeschreibung „Ein Eichhörnchen mit rotem Pullover“ ein, um das ursprüngliche Eichhörnchen aus dem echten Leben mit einem solchen in einen animierten Stil umzuwandeln Klicken Sie und behalten Sie die Aktionshaltungen perfekt bei. Durch die Synchronisierung können Sie auch die Textbeschreibungen ändern und das Eichhörnchen auf verschiedene Cartoon-Bilder umstellen . „AnimatableDreamer“ kann automatisch die Skelettbewegungen von Zielobjekten (Menschen, Tiere usw.) im Video extrahieren und das Objekt dann durch Textbeschreibung in ein beliebiges Skelettanimationsmodell umwandeln. Der gesamte Prozess ist nicht durch Vorlagen eingeschränkt, unterstützt jede Videolänge und jede Art von Aktion, weist ein hohes Maß an zeitlicher Konsistenz und Mehrfachansichtskonsistenz auf und das exportierte dynamische dreidimensionale Modell kann in jeder 3D-Umgebung gerendert werden. Für die Postproduktion in Film, Fernsehen, Animation und anderen Bereichen ist normalerweise mehr Bearbeitung für Animationen erforderlich. „AnimatableDreamer“ unterstützt auch das Ersetzen oder Bearbeiten von Animationsdateien für Modelle, die die Knochenbindung abgeschlossen haben, wodurch ein höherer Freiheitsgrad erreicht wird . Wenn verwandte Technologien in Zukunft schrittweise implementiert werden, wird erwartet, dass die 3D-Modellierungs- und Animationsproduktionsprozesse für die Spieleentwicklung, Film- und Fernsehanimationen und andere Szenen effizienter werden.Mit Blick auf die Zukunft
wird voraussichtlich ein neues Content-Ökosystem entstehen
In Bezug auf die Implementierungsprinzipien schlug das Forschungsteam auf innovative Weise dieCanonical Score Distillation (CSD) vor, die im Laufe der Zeit 3D-Modelle verschiedener Modelle verändert Frames und verschiedene Perspektiven werden im Kameraraum gerendert und entrauscht, und die Farbverläufe werden zur Destillation gleichmäßig zurück in den Standardraum übertragen, der von verschiedenen Kameraräumen gemeinsam genutzt wird, wodurch die Dimensionalität der 4D-Generierung auf 3D reduziert wird, d. h. das 4D-Generierungsproblem wird vereinfacht Erzeugung im 3D-Raum.
„AnimatableDreamer“ kann Gelenkbewegungen direkt aus dem Video extrahieren. Durch die Entkopplung von Modell und Bewegung des Objekts weist das generierte Modell ein hohes Maß an zeitlicher Konsistenz und geometrischer Rationalität auf und ist nicht durch die Länge des Videos begrenzt Beseitigen Sie effektiv Formen wie Probleme wie Brüche, Flackern und Inkonsistenzen bei mehreren Ansichten.In Szenen mit begrenzten Betrachtungswinkeln und großen Bewegungen kann „AnimatableDreamer“ aufgrund der Einführung von Vorkenntnissen des Diffusionsmodells die Bildinformationen automatisch vervollständigen und eine bessere Generierungsqualität erzielen, auch wenn das Eingabevideo nicht das gesamte Objekt abdeckt.
Man kann sagen, dass der Vorschlag von „AnimatableDreamer“ Text direkt mit der Generierung von 4D-Skelettanimationen, Modellierung, Texturierung, Knochenbindung und Aktionssteuerung in einem Arbeitsgang verbindet! Geben Sie eine Beschreibung in natürlicher Sprache ein und geben Sie automatisch ein dreidimensionales Animationsvideo aus. Es sind keine Fachkenntnisse erforderlich. Der Einstieg und die einfache Anpassung von Animationsinhalten sind nicht erforderlich.
Die auf „AnimatableDreamer“ basierende Arbeit wird die Schwierigkeit bei der Erstellung digitaler 3D- und 4D-Inhalte erheblich verringern, das interaktive Erlebnis bereichern, es jedem ermöglichen, kreative Inhalte zu erstellen und zu bearbeiten, und brandneue Inhalte im 3D-Zeitalter hervorbringen. Unterhaltung und Inhalte Konsumverhalten. Stellen Sie sich vor, dass Benutzer in der virtuellen Welt der Zukunft schnell individuelle digitale Räume erstellen und personalisierte interaktive Erlebnisse schaffen können. Zum Beispiel:- Jedes Charakterbild im digitalen Raum kann nach Belieben generiert werden, z. B. das Einkleiden von Kindern in Superman-Kleidung, der Wechsel zu Kostümen mit Feiertagsmotiven für Halloween usw.;
- Benutzer, die Haustiere haben, können dies tun Versetzen Sie ihre Haustiere in die Cartoonisierung, indem Sie beispielsweise ein virtuelles Mickey-Mouse-Bild erstellen. Das tägliche Leben von Haustieren ähnelt Zeichentrickfilmen, und die tägliche Interaktion zwischen Besitzern und Haustieren wird interessanter.
- Auch die Möglichkeiten der Interaktion zwischen Menschen sind reicher geworden. Sie können jederzeit und überall eine Themenparty veranstalten und Ihre Wünsche erfüllen Echtzeit-Partyumgebung, Charakterdekoration usw.
Das obige ist der detaillierte Inhalt vonEin in Tsinghua ansässiges Start-up-Unternehmen hat das weltweit erste 4D-Skelett-Animations-Framework veröffentlicht, das reale Szenen mit einem Klick in Animationen umwandeln und personalisierte Charaktere generieren kann.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au
