Heim Technologie-Peripheriegeräte KI Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle

Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle

Jun 09, 2024 pm 05:06 PM
产业

iVideoGPT erfüllt die Anforderungen an eine hohe Interaktivität von Weltmodellen.

Generative Modelle haben in den letzten Jahren erhebliche Fortschritte gemacht, wobei die Videogenerierung zu einer neuen Grenze wird. Eine wichtige Anwendung dieser generativen Videomodelle besteht darin, auf unbeaufsichtigte Weise anhand verschiedener Daten im Internetmaßstab zu lernen, um prädiktive Weltmodelle zu erstellen. Von diesen Weltmodellen wird erwartet, dass sie vernünftiges Wissen über die Funktionsweise der Welt sammeln und Vorhersagen über mögliche zukünftige Ergebnisse auf der Grundlage des Verhaltens von Agenten ermöglichen.

Durch die Nutzung dieser Weltmodelle können sich Agenten, die Reinforcement Learning nutzen, innerhalb des Weltmodells vorstellen, argumentieren und planen und so mit ein wenig Experimentieren in der realen Welt sicherer und effektiver neue Fähigkeiten erwerben.

Trotz des grundlegenden Zusammenhangs zwischen generativen Modellen und Weltmodellen besteht immer noch eine erhebliche Lücke zwischen der Entwicklung generativer Modelle für die Videogenerierung und Weltmodellen für das Agentenlernen. Eine der größten Herausforderungen besteht darin, die beste Balance zwischen Interaktivität und Skalierbarkeit zu erreichen.

Im Bereich des modellbasierten Verstärkungslernens verwenden Weltmodelle hauptsächlich rekurrente Netzwerkarchitekturen. Dieses Design erleichtert das interaktive Verhaltenslernen, indem es die Weitergabe von Beobachtungen oder latenten Zuständen basierend auf Aktionen bei jedem Schritt ermöglicht. Diese Modelle konzentrieren sich jedoch meist auf Spiel- oder Simulationsumgebungen, verfügen über einfache Daten und sind nur begrenzt in der Lage, umfangreiche und komplexe In-the-Wild-Daten zu modellieren.

Im Gegensatz dazu können Videogenerierungsmodelle im Internetmaßstab realistische lange Videos synthetisieren, die mit Textbeschreibungen oder zukünftigen Aktionssequenzen gesteuert werden können. Während solche Modelle eine langfristige Planung auf hoher Ebene ermöglichen, bietet ihre Interaktivität auf Trajektorienebene den Agenten nicht genügend Granularität, um präzise Verhaltensweisen als grundlegende Fähigkeit effektiv zu erlernen.

Forscher der Tsinghua-Universität, des Huawei Noah's Ark Laboratory und der Tianjin-Universität schlugen iVideoGPT (Interactive VideoGPT) vor, ein skalierbares autoregressives Transformer-Framework, das multimodale Signale (visuelle Beobachtung, Aktionen und Belohnungen) in einem integriert Eine Reihe von Tokens, die es dem Agenten ermöglichen, interaktive Erlebnisse durchzuführen, indem er den nächsten Token vorhersagt.

iVideoGPT nutzt eine neuartige Komprimierungs-Tokenisierungstechnologie, um hochdimensionale visuelle Beobachtungen effektiv zu diskretieren. Mithilfe seiner skalierbaren Architektur konnten Forscher iVideoGPT vorab auf Millionen von Bewegungsabläufen von Menschen und Robotern trainieren und so eine vielseitige Grundlage schaffen, die als interaktives Weltmodell für eine Vielzahl nachgelagerter Aufgaben verwendet werden kann. Diese Forschung fördert die Entwicklung interaktiver universeller Weltmodelle.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
  • Papieradresse: https://arxiv.org/pdf/2405.15223
  • Papiertitel: iVideoGPT: Interactive VideoGPTs are Scalable World Models


In diesem Teil stellt das Forschungsteam eine skalierbare Weltmodellarchitektur vor – iVideoGPT, die äußerst flexibel ist und multimodale Informationen integrieren kann, einschließlich visueller Beobachtungen, Aktionen, Belohnungen und anderer potenzieller Eingaben.

Der Kern von iVideoGPT umfasst einen Komprimierungs-Tokenizer zur Diskretisierung von Videobildern und einen autoregressiven Transformator zur Vorhersage nachfolgender Token. Durch das Vortraining mit verschiedenen Videodaten kann sich das Modell umfangreiches Weltwissen aneignen und es dann effizient auf nachgelagerte Aufgaben übertragen.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
Architektur

Komprimierte Tokenisierung. Transformer eignet sich besonders gut für die Verarbeitung von Sequenzen diskreter Token. VQGAN ist ein häufig verwendeter visueller Tokenizer, der Rohpixel in diskrete Token umwandelt. Die Forscher schlugen vor, ein neues bedingtes VQGAN zu verwenden, das aus einem Dual-Encoder und Decoder {(E_c, D_c), (E_p, D_p)} besteht, um das Video zu tokenisieren.

Wie in Abbildung 3a dargestellt, enthält der anfängliche Kontextrahmen Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle umfangreiche Kontextinformationen, die durch N Token tokenisiert und unabhängig rekonstruiert werden:

Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle

Im Gegensatz dazu müssen aufgrund der zeitlichen Redundanz zwischen Kontextframes und zukünftigen Frames nur notwendige Änderungsinformationen, wie z. B. die Position und Pose sich bewegender Objekte, codiert werden. Der obige Prozess wird durch die Verwendung von bedingten Encodern und Decodern erreicht:

Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle

Die Forscher implementierten den bedingten Mechanismus, indem sie die gegenseitige Aufmerksamkeit zwischen Feature-Maps mit mehreren Maßstäben nutzten. Insgesamt wird der Tokenizer mit folgenden Zielen trainiert:

Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle

Die in dieser Studie vorgeschlagene Tokenisierung hat hauptsächlich zwei Vorteile:

  • Erstens reduziert sie die Länge der Sequenz tokenisierter Videos erheblich, die linear mit wächst die Anzahl der Frames, aber die Wachstumsrate n ist viel kleiner;
  • Zweitens kann der Transformator, der nachfolgende Token vorhersagt, die zeitliche Konsistenz des Kontexts leichter aufrechterhalten und die notwendigen dynamischen Informationen für die Modellierung fokussieren.

Interaktive Vorhersagen für Transformer. Nach der Tokenisierung wird das Video in eine Reihe von Tokens zusammengefasst:

Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle

Länge ist Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle. Spezielle Slot-Tokens [S] werden eingefügt, um Rahmengrenzen abzugrenzen und die Fusion zusätzlicher niedrigdimensionaler Modalitäten wie Aktionen zu erleichtern. Wie in Abbildung 3b dargestellt, wird ein GPT-ähnlicher autoregressiver Transformator für die interaktive Videovorhersage verwendet, indem er Bild für Bild nächste Token generiert. In dieser Arbeit verwendete das Team die Modellgröße von GPT-2, passte jedoch die LLaMA-Architektur an, um die Vorteile neuerer Innovationen in LLM-Architekturen zu nutzen, wie etwa die Rotationspositionseinbettung.

Vorschulung

Große Sprachmodelle können durch die Vorhersage des nächsten Wortes selbstüberwacht umfangreiche Erkenntnisse aus Internettexten gewinnen. In ähnlicher Weise verwendet das aktionsfreie Video-Pre-Training-Paradigma des Weltmodells die Videovorhersage als Pre-Training-Ziel, um eine Überwachung im Internetmaßstab für das in LLM fehlende Wissen über die physische Welt bereitzustellen.

Die Forscher haben iVideoGPT auf dieses allgemeine Ziel vorab trainiert und dabei Kreuzentropieverlust angewendet, um nachfolgende Video-Tokens vorherzusagen:

Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle

Daten vor dem Training. Obwohl im Internet eine große Anzahl an Videos verfügbar ist, haben die Forscher iVideoGPT aufgrund rechnerischer Einschränkungen speziell für den Bereich der Robotermanipulation vorab trainiert. Sie verwendeten eine Mischung aus 35 Datensätzen aus dem Open X-Embodiment (OXE)-Datensatz und dem Something-Something v2 (SSv2)-Datensatz, was insgesamt 1,5 Millionen Flugbahnen ergab.

Feinabstimmung

Aktionsbedingungen und Belohnungsvorhersage. Die Architektur des Teams ist darauf ausgelegt, flexibel zusätzliche Modalitäten zu integrieren, um ein interaktives Weltmodell zu erlernen, wie in Abbildung 3b dargestellt. Aktionen werden über lineare Projektion integriert und zu Slot-Token-Einbettungen hinzugefügt. Für die Belohnungsvorhersage haben sie, anstatt einen separaten Belohnungsprädiktor zu lernen, einen linearen Kopf zum verborgenen Zustand des letzten Tokens jeder Beobachtung hinzugefügt.

Diese Multitasking-Lernmethode kann die Aufmerksamkeit des Modells auf aufgabenbezogene Informationen steigern und dadurch die Vorhersagegenauigkeit von Steuerungsaufgaben verbessern. Zusätzlich zum Kreuzentropieverlust von Gleichung (3) verwendeten sie auch den mittleren quadratischen Fehlerverlust für die Belohnungsvorhersage.

Tokenizer-Anpassung. Das Forschungsteam entschied sich für die Aktualisierung des gesamten Modells, einschließlich des Tokenizers, um es an nachgelagerte Aufgaben anzupassen, und stellte fest, dass diese Strategie effektiver ist als Parameter-effiziente Feinabstimmungsmethoden.

Es gibt nur sehr wenig Literatur, die sich mit der Verwendung des VQGAN-Tokenizers für domänenspezifische Daten befasst. Da die Tokenisierung in dieser Arbeit dynamische Informationen von kontextuellen Bedingungen entkoppelt, wird davon ausgegangen, dass dieses Modell zwar in nachgelagerten Aufgaben auf unsichtbare Objekte stoßen kann, beispielsweise auf verschiedene Arten von Robotern, der Transformator jedoch aus verschiedenen Szenarien grundlegende physikalische Kenntnisse erlernt – beispielsweise Bewegung und Interaktion - wird geteilt.

Diese Hypothese wird durch Experimente gestützt, bei denen iVideoGPT von gemischten vorab trainierten Daten auf den nicht sichtbaren BAIR-Datensatz migriert wurde, wo der vorab trainierte Transformator natürliche Bewegungen mit Zero-Shot-Generalisierung vorhersagen kann, nur für unsichtbare Feinabstimmungen Tokenizer des Robotergreifers, den Sie gesehen haben (siehe Abbildung 7). Diese Funktion ist besonders wichtig für die Skalierung von GPT-ähnlichen Transformatoren auf große Größen, da sie eine einfache Ausrichtung über Domänen hinweg ermöglicht und gleichzeitig den Transformator intakt hält.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
Experimente

Wie in Tabelle 1 gezeigt, weist iVideoGPT im Vergleich zu SOTA-Methoden eine wettbewerbsfähige Leistung auf und erreicht gleichzeitig Interaktivität und Skalierbarkeit in seiner Architektur. Während vorläufige Experimente mit der niedrigen Auflösung von 64×64 durchgeführt wurden, kann iVideoGPT problemlos auf 256×256 von RoboNet erweitert werden.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
Siehe Abbildung 9 für qualitative Ergebnisse.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
Abbildung 4 zeigt die Erfolgsquote von iVideoGPT im Vergleich zum Basismodell. iVideoGPT übertrifft alle Baselines bei beiden RoboDesk-Aufgaben deutlich und erreicht eine durchschnittliche Leistung, die mit dem stärksten SVG-Modell vergleichbar ist.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
Abbildung 6 zeigt, dass der modellbasierte Algorithmus nicht nur die Stichprobeneffizienz gegenüber dem modellfreien Algorithmus verbessert, sondern auch die Leistung von DreamerV3 erreicht oder übertrifft.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
Die nächste Studie analysiert die Zero-Shot-Videovorhersagefähigkeit von groß angelegtem vorab trainiertem iVideoGPT anhand des unsichtbaren BAIR-Datensatzes. Interessanterweise beobachten wir in der zweiten Zeile von Abbildung 7, dass iVideoGPT die natürliche Bewegung eines Robotergreifers ohne Feinabstimmung vorhersagt – wenn auch anders als im Datensatz vor dem Training. Dies zeigt, dass das Modell zwar die Zero-Shot-Generalisierung auf völlig unsichtbare Roboter aufgrund unzureichender Diversität in den Pre-Training-Daten beschränkt, den Szenenkontext jedoch effektiv von der Bewegungsdynamik trennt. Im Gegensatz dazu überträgt der nicht fein abgestimmte Transformer mithilfe des angepassten Tokenizers erfolgreich das vorab trainierte Wissen und sagt die Bewegung des neuartigen Roboters in der dritten Reihe voraus, wodurch eine ähnliche Wahrnehmung wie beim vollständig fein abgestimmten Transformer in der vierten Reihe entsteht. Die qualitativen und quantitativen Ergebnisse sind in Abbildung 8a dargestellt.
Die Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle
Weitere Ergebnisse finden Sie im Originalpapier.

Das obige ist der detaillierte Inhalt vonDie Tsinghua-Universität, Huawei und andere schlugen iVideoGPT vor: Spezialisierung auf interaktive Weltmodelle. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

<🎜>: Bubble Gum Simulator Infinity - So erhalten und verwenden Sie Royal Keys
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Nordhold: Fusionssystem, erklärt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Mandragora: Flüstern des Hexenbaum
3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen

Java-Tutorial
1673
14
PHP-Tutorial
1278
29
C#-Tutorial
1257
24
Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

See all articles