


Ganz gleich, ob es sich um echtes oder KI-Video handelt, „Mosca' kann dynamisch renderbare 4D-Szenen rekonstruieren und wiederherstellen.

Die AIxiv-Kolumne ist eine Kolumne, in der diese Website akademische und technische Inhalte veröffentlicht. In den letzten Jahren sind in der AIxiv-Kolumne dieser Website mehr als 2.000 Berichte eingegangen, die Spitzenlabore großer Universitäten und Unternehmen auf der ganzen Welt abdecken und so den akademischen Austausch und die Verbreitung wirksam fördern. Wenn Sie hervorragende Arbeiten haben, die Sie teilen möchten, können Sie gerne einen Beitrag leisten oder uns für die Berichterstattung kontaktieren. E-Mail für die Einreichung: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com
Lei Jiahui, Doktorand am Fachbereich Informatik der University of Pennsylvania (2020 – heute), sein Betreuer ist Professor Kostas Daniilidis, sein derzeitiger Hauptleiter Forschungsrichtung sind vierdimensionale dynamische Szenen, geometrische Modellierungsdarstellungen und Algorithmen mit Anwendungen. Er hat 7 Artikel als Erst- oder Co-Autor auf führenden Konferenzen zu Computer Vision und maschinellem Lernen (CVPR, NeurIPS, ICML, ECCV) veröffentlicht. Seinen vorherigen Bachelor-Abschluss (2016-2020) schloss er an der Kontrollabteilung der Zhejiang-Universität und der gemischten Klasse des Zhu Kezhen College mit dem ersten Platz in seinem Hauptfach ab.
Die Rekonstruktion renderbarer dynamischer Szenen aus beliebigen monokularen Videos ist ein heiliger Gral in der Computer-Vision-Forschung. In diesem Artikel versucht ein Forscherteam der University of Pennsylvania und der Stanford University, diesem Ziel einen kleinen Schritt näher zu kommen.
Es gibt riesige monokulare Videos im Internet, die eine große Menge an Informationen über die physische Welt enthalten. Allerdings mangelt es der 3D-Vision noch an wirksamen Mitteln, um 3D-dynamische Informationen aus diesen Videos zu extrahieren, um die zukünftige Modellierung großer 3D-Modelle und das Verständnis der Dynamik zu unterstützen physikalische Welt. Dieses inverse Problem ist zwar wichtig, aber äußerst anspruchsvoll.
Erstens fehlen bei real aufgenommenen 2D-Videos häufig Multi-View-Informationen, sodass Multi-View-Geometrie nicht für die 3D-Rekonstruktion verwendet werden kann. In vielen Fällen ist es sogar unmöglich, die Kameraposition und interne Parameter mit vorhandener Software zu ermitteln. wie COLMAP).
Zweitens ist der Freiheitsgrad dynamischer Szenen extrem hoch, und die vierdimensionale Darstellung ihrer Verformung und Langzeitinformationsfusion ist noch unausgereift, was dieses schwierige inverse Problem komplizierter macht.
Dieser Artikel schlägt ein neuartiges neuronales Informationsverarbeitungssystem vor – MoSca, das nur eine Reihe von Videorahmenbildern ohne zusätzliche Informationen bereitstellen muss und aus SORA Videos, Film- und Fernsehserienclips generieren und renderfähige Dynamik rekonstruieren kann Szenen aus monokularen Freilandvideos von , Internetvideos und öffentlichen Datensätzen.
ArXiv-Adresse: https://arxiv.org/pdf/2405.17421 Code (wird in naher Zukunft Open Source sein): www.github.com/JiahuiLei/MoSca Projektwebsite: www.cis.upenn.edu/~leijh/projects/mosca/ Video (bilibili): www.bilibili.com/video/BV1uU411o75P/?vd_source=177d8c87be5e898a43e8937dbef9bed4


Methodenübersicht
Um die oben genannten Schwierigkeiten zu überwinden, nutzte Mosca zunächst das starke Vorwissen, das in Computer-Vision-Grundlagenmodellen gespeichert ist, um den Problemlösungsraum zu reduzieren.
Insbesondere verwendet Mosca das monokulare metrische Tiefenschätzungsmodell UniDepth, das Video-Any-Point-Long-Term-Tracking-Modell (jeden Punkt verfolgen) CoTracker und die optische Flussschätzung (optischer Fluss). Der epipolare geometrische Fehler (Epipolarfehler) berechnet vom Modell RAFT und den semantischen Merkmalen, die vom vorab trainierten semantischen Modell DINO-v2 bereitgestellt werden. Einzelheiten finden Sie in Kapitel 3.1 des Artikels. Wir stellen fest, dass die meisten dynamischen Verformungen in der realen Welt kompakter und spärlicher Natur sind und ihre Komplexität oft viel geringer ist als die realer geometrischer Strukturen. Beispielsweise kann die Bewegung eines harten Objekts durch Rotation und Translation dargestellt werden, und die Bewegung einer Person kann durch die Rotation und Translation mehrerer Gelenke grob angenähert werden.
Basierend auf dieser Beobachtung schlägt dieser Artikel eine
neuartige kompakte dynamische Szenendarstellung vor – 4D Motion Scaffold, die die obige Grundmodellausgabe von zwei Dimensionen auf vier Dimensionen erweitert und zusammenführt und gleichzeitig die physikalisch inspirierte Deformationsregulierung (ARAP) integriert. . Das vierdimensionale Bewegungsgerüst ist ein Diagramm. Jeder Knoten des Diagramms ist eine Folge von Bewegungstrajektorien des starren Körpers (SE (3)). Die Topologie des Diagramms ist die Kante des nächsten Nachbarn, die unter Berücksichtigung des Abstands zwischen den starren Körpern erstellt wird Bewegungsbahnkurven global. Verformungen an jedem Punkt im Raum können durch Glätten der Starrkörper-Trajektorien von Knoten auf dem interpolierten Graphen in der Raum-Zeit mithilfe von Dual-Quaternionen dargestellt werden. Diese Darstellung vereinfacht die zu lösenden Bewegungsparameter erheblich. (Einzelheiten finden Sie in Kapitel 3.2 des Dokuments). Ein weiterer großer Vorteil des vierdimensionalen Bewegungsgerüsts besteht darin, dass es direkt durch monokulare Tiefe und zweidimensionale Videopunktverfolgung initialisiert werden kann und dann die unbekannte Okklusionspunktposition und die Richtung des lokalen Koordinatensystems effizient gelöst werden können physikalische regelmäßige Laufzeitoptimierung. Einzelheiten finden Sie in Kapitel 3.3 des Papiers. Mit dem vierdimensionalen Bewegungsgerüst kann jeder Punkt zu jedem Zeitpunkt zu jedem Zielzeitpunkt verformt werden, was eine globale Fusion von Beobachtungsinformationen ermöglicht. Insbesondere kann jedes Bild des Videos mithilfe der geschätzten Tiefenkarte in den dreidimensionalen Raum zurückprojiziert und mit einem dreidimensionalen Gaußschen (3DGS) initialisiert werden. Diese Gauß-Operatoren sind an das vierdimensionale Bewegungsgerüst „gebunden“ und können jederzeit frei pendeln. Wenn Sie die Szene zu einem bestimmten Zeitpunkt rendern möchten, müssen Sie zur Fusion nur die Gaußschen Werte aller anderen globalen Momente über das vierdimensionale Gerüst auf den aktuellen Moment übertragen. Diese dynamische Szenendarstellung basierend auf vierdimensionalem Bewegungsgerüst und Gauß kann durch den Gauß-Renderer effizient optimiert werden (Einzelheiten finden Sie in Kapitel 3.4 des Artikels). Abschließend ist noch zu erwähnen, dass Mosca ein System ist, das keine internen und externen Parameter der Kamera erfordert. Durch die Verwendung des vom oben genannten Ecksteinmodell ausgegebenen epipolaren Geometriefehlers zur Bestimmung der statischen Hintergrundmaske und die Verwendung der vom Ecksteinmodell ausgegebenen Tiefen- und Punktverfolgungsausgabe kann Mosca den Reprojektionsfehler effizient optimieren und die globale Bündelanpassung für die direkte Ausgabe lösen Interne Kameraparameter und Pose, und optimieren Sie die Kamera durch anschließendes Rendern weiter (Einzelheiten finden Sie in Kapitel 3.5 des Dokuments). Experimentelle Ergebnisse Mosca kann dynamische Szenen in DAVIS-Datensatzvideos rekonstruieren. Es ist erwähnenswert, dass Mosca mehrere Gauß-basierte Renderer flexibel unterstützt. Zusätzlich zum nativen 3DGS-Renderer wurde in diesem Artikel auch der aktuelle Gaußsche Oberflächenrekonstruktions-Renderer GOF (Gaussian Opacity Field) getestet. Wie im Bild ganz rechts gezeigt, kann GOF eine höhere Qualität von Normalen und Tiefen darstellen. Moska erzielt erhebliche Verbesserungen beim anspruchsvollen IPhone-DyCheck-Datensatz und vergleicht gleichzeitig andere Methoden mit dem weitgehend vergleichbaren Nvidia-Datensatz.
Das obige ist der detaillierte Inhalt vonGanz gleich, ob es sich um echtes oder KI-Video handelt, „Mosca' kann dynamisch renderbare 4D-Szenen rekonstruieren und wiederherstellen.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen











Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben
