Heim Technologie-Peripheriegeräte KI Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt

Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt

Oct 05, 2023 pm 04:21 PM
产业 rt-x open x-embodiment

Warum bleibt die Robotik weit hinter der Verarbeitung natürlicher Sprache (NLP), dem Sehen und anderen Bereichen der künstlichen Intelligenz zurück? Neben anderen Schwierigkeiten ist die Datenknappheit der Hauptgrund. Um dieses Problem zu lösen, haben Google DeepMind und andere Institutionen den offenen X-Embodiment-Datensatz gestartet und erfolgreich ein leistungsfähigeres RT-X-Modell trainiert Auch die Forschung an verkörperten intelligenten Robotern, die große Modelle als Gehirne nutzen, um den Betrieb zu unterstützen, schreitet rasch voran.

Vor mehr als 2 Monaten hat Google DeepMind das erste Vision-Language-Action (VLA)-Modell zur Steuerung von Robotern auf den Markt gebracht – RT-2Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt. Dieses Modell ermöglicht es dem Roboter, nicht nur komplexe menschliche Anweisungen zu interpretieren, sondern auch das Objekt vor ihm zu verstehen (auch wenn das Objekt noch nie zuvor gesehen wurde) und entsprechend den Anweisungen Maßnahmen zu ergreifen. Sie bitten den Roboter beispielsweise, das „ausgestorbene Tier“ vom Tisch aufzuheben. Es wird die Dinosaurierpuppe vor sich packen.
Damals sagte ein Google-Manager, der RT-2 sei ein großer Fortschritt in der Art und Weise, wie Roboter gebaut und programmiert werden. „Aufgrund dieser Änderung mussten wir unseren gesamten Forschungsplan überdenken.“

Noch überraschender ist, dass sich das Robotermodell von DeepMind erneut verbessert hat und sich sofort verdreifachte.

Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt

Wie wird das erreicht?

Wir wissen, dass Roboter normalerweise sehr auf eine bestimmte Aufgabe spezialisiert sind, aber über schlechte allgemeine Fähigkeiten verfügen. Normalerweise müssen Sie für jede Aufgabe, jeden Roboter und jede Umgebung ein Modell trainieren. Das Ändern einer Variablen erfordert oft einen Neuanfang. Aber was wäre, wenn wir Wissen aus verschiedenen Bereichen der Robotik kombinieren könnten, um eine Möglichkeit zu schaffen, universelle Roboter zu trainieren?

Das macht DeepMind schon seit einiger Zeit. Sie führten Daten von 22 verschiedenen Robotertypen zusammen, um den Open X-Embodiment-Datensatz zu erstellen, und trainierten dann einen leistungsfähigeren RT-X (RT-1-X bzw. RT-2-X).

Sie testeten das RT-1-X-Modell in fünf verschiedenen Forschungslabors und die Ergebnisse zeigten, dass die neue Methode bei fünf verschiedenen häufig verwendeten Robotern im Vergleich zu Methoden, die für jeden Roboter unabhängig entwickelt wurden, eine um 50 % höhere Rate erzielte. . Sie zeigen auch, dass RT-2-X, das auf dem oben genannten Datensatz trainiert wurde, die Leistung bei realen Roboterfähigkeiten um den Faktor 2 verbessert und dass RT-2-X durch das Erlernen neuer Daten viele neue Fähigkeiten erlernt. Diese Arbeit zeigt, dass ein einzelnes Modell, das auf Daten mehrerer Robotertypen trainiert wurde, bei mehreren Robotern eine deutlich bessere Leistung erbringt als ein Modell, das auf Daten eines einzelnen Robotertyps trainiert wurde.

Es ist erwähnenswert, dass diese Forschung nicht von DeepMind unabhängig durchgeführt wurde, sondern das Ergebnis ihrer Zusammenarbeit mit 33 akademischen Labors war. Sie engagieren sich für eine offene und verantwortungsvolle Weiterentwicklung dieser Technologie.
Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt
Derzeit stehen der breiten Forschungsgemeinschaft der Open X-Embodiment-Datensatz und der RT-1-X-Modellprüfpunkt zur Verfügung.
Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt
Jim Fan, leitender Wissenschaftler für künstliche Intelligenz bei Nvidia, sagte, heute könnte der ImageNet-Moment für Roboter sein.

Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt

Google-Forscher Karol Hausman äußerte ebenfalls den gleichen Seufzer: Der ImageNet-Moment der Roboter ist endlich da.

Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt

Open X-Embodiment Dataset, ImageNet Moment for Robotics

Auf ihnen trainierte Datensätze und Modelle haben eine Schlüsselrolle bei der Weiterentwicklung der KI gespielt. So wie ImageNet die Computer-Vision-Forschung vorangetrieben hat, hat Open X-Embodiment auch die Robotik vorangetrieben.

Der Aufbau vielfältiger Datensätze war schon immer der Schlüssel zum Training universeller Modelle. Diese trainierten Modelle können viele verschiedene Arten von Robotern steuern, unterschiedliche Anweisungen befolgen, grundlegende Überlegungen zu komplexen Aufgaben ausführen und allgemeine Aufgabenänderungen effizient durchführen. Allerdings wäre die Erhebung eines solchen Datensatzes für ein einzelnes Labor zu ressourcenintensiv.

Zu diesem Zweck arbeitete DeepMind mit akademischen Forschungslaboren an 33 Institutionen zusammen, um den Open X-Embodiment-Datensatz zu erstellen. Sie sammelten Daten von 22 Roboterinstanzen in mehr als 1 Million Clips, die die Leistung der Roboter in mehr als 500 Fertigkeiten und 150.000 Aufgaben demonstrierten. Dieser Datensatz ist der umfassendste Robotik-Datensatz seiner Art.
Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt
                                                                                                                                                                          Beispiele aus dem Open X-Embodiment-Datensatz, einschließlich mehr als 500 Fertigkeiten und 150.000 Aufgaben.
Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt
                                                    

RT-X basiert auf zwei Robotertransformatoren (RT)-Modellen.
Konkret trainierten sie RT-1-X mit RT-1, einem 35M-Parameternetzwerk, das auf der Transformer-Architektur aufbaut und für die Robotersteuerung konzipiert ist, wie in Abbildung 3 dargestellt.
Zusätzlich trainierten sie RT-2-X auf RT-2, einer Familie groß angelegter visueller Sprachaktionsmodelle (VLA), auf Internet-skalierten Seh- und Sprachdaten sowie Robotersteuerungsdaten.
Um RT-1-X zu bewerten, verglich DeepMind es mit Modellen, die für bestimmte Aufgaben entwickelt wurden, beispielsweise das Öffnen von Türen. Die Ergebnisse zeigen, dass RT-1-X, das mit dem Open X-Embodiment-Datensatz trainiert wurde, das Originalmodell im Durchschnitt um 50 % übertrifft. Die durchschnittliche Erfolgsquote von RT-1-X ist 50 % höher als die der ursprünglichen Methode.
Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt关于 Die Wirkungsdarstellung von RT-1-X aus verschiedenen Kooperationsagenturen

RT-2-X: Neue Fähigkeiten der barrierefreien Erschließung
Um die Wissensmigration von RT-X zu untersuchen Fähigkeiten führte DeepMind weitere Experimente durch. Diese Experimente umfassten Objekte und Fähigkeiten, die im RT-2-Datensatz nicht vorhanden waren, aber im Datensatz eines anderen Roboters. Die Ergebnisse zeigten, dass der RT-2-X beim Erlernen neuer Fähigkeiten dreimal erfolgreicher war als sein bisher bestes Modell, der RT-2. Dies verdeutlicht auch, dass RT-2-X durch gemeinsames Training mit Daten anderer Plattformen zusätzliche Fähigkeiten verleihen kann, die im Originaldatensatz nicht vorhanden sind, und so neuartige Aufgaben ausführen kann. Das Bild oben zeigt RT-2-Xs Verständnis der räumlichen Beziehung zwischen Objekten.
Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt
Eine Reihe von Ergebnissen zeigt, dass RT-2-X Fähigkeiten erreicht, die mit RT-2 bisher nicht erreichbar waren, einschließlich eines besseren Verständnisses des Weltraums. Wenn wir beispielsweise den Roboter auffordern, „den Apfel in die Nähe des Tuchs zu bewegen“ oder den Roboter auffordern, „den Apfel auf das Tuch zu bewegen“, um die Zielanforderungen zu erreichen, nimmt der Roboter völlig unterschiedliche Flugbahnen ein. Ändern Sie einfach die Präposition von „nahe“ auf „ein“, um die vom Roboter ausgeführten Aktionen anzupassen.
RT-2-X zeigt, dass die Einbeziehung von Daten anderer Roboter in das RT-2-X-Training das Aufgabenspektrum des Roboters verbessern kann, allerdings nur, wenn eine ausreichend leistungsfähige Architektur verwendet wird.

Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt

                                                                                                                                  Das Gleiche

Der Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetztDie Robotikforschung befindet sich in einem aufregenden Anfangsstadium. Diese neue Studie von DeepMind zeigt, dass es durch die Skalierung des Lernens mit vielfältigeren Daten und besseren Modellen möglich sein könnte, nützlichere unterstützende Roboter zu entwickeln. Die Zusammenarbeit und der Austausch von Ressourcen mit Laboren auf der ganzen Welt sind von entscheidender Bedeutung, um die Robotikforschung auf offene und verantwortungsvolle Weise voranzutreiben. DeepMind hofft, durch die Öffnung von Datenquellen und die Bereitstellung sicherer, aber begrenzter Modelle Hindernisse abzubauen und die Forschung zu beschleunigen. Die Zukunft der Robotik hängt davon ab, dass Roboter voneinander lernen und, was am wichtigsten ist, dass Forscher voneinander lernen können.

Diese Arbeit beweist, dass das Modell in verschiedenen Umgebungen verallgemeinert werden kann und seine Leistung erheblich verbessert wird, sei es auf Robotern von Google DeepMind oder Robotern an verschiedenen Universitäten auf der ganzen Welt. Zukünftige Forschungen könnten untersuchen, wie diese Fortschritte mit den Selbstverbesserungseigenschaften von RoboCat kombiniert werden können, sodass sich das Modell basierend auf seinen eigenen Erfahrungen kontinuierlich verbessern kann. Eine weitere zukünftige Richtung besteht darin, weiter zu untersuchen, wie sich das Mischen verschiedener Datensätze auf die Generalisierung übergreifender Agenten auswirkt und wie diese Generalisierung erreicht wird.

Wenn Sie mehr über RT-X erfahren möchten, können Sie auf dieses von DeepMind veröffentlichte Papier verweisen:

Papierlink: https://robotics-transformer-x.github.io / paper.pdf

Projektlink: https://robotics-transformer-x.github.io/

Referenzlink: https://www.deepmind.com/blog/scaling - Up-Learning-über-viele-verschiedene-Robotertypen hinwegDer Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt

    Das obige ist der detaillierte Inhalt vonDer Deep-Learning-Riese DeepMind hat beim ImageNet-Datensatz bahnbrechende Fortschritte erzielt und damit einen neuen Meilenstein in der Robotikforschung gesetzt. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

    Erklärung dieser Website
    Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

    Heiße KI -Werkzeuge

    Undresser.AI Undress

    Undresser.AI Undress

    KI-gestützte App zum Erstellen realistischer Aktfotos

    AI Clothes Remover

    AI Clothes Remover

    Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

    Undress AI Tool

    Undress AI Tool

    Ausziehbilder kostenlos

    Clothoff.io

    Clothoff.io

    KI-Kleiderentferner

    AI Hentai Generator

    AI Hentai Generator

    Erstellen Sie kostenlos Ai Hentai.

    Heißer Artikel

    R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
    3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. Beste grafische Einstellungen
    3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
    R.E.P.O. So reparieren Sie Audio, wenn Sie niemanden hören können
    3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
    WWE 2K25: Wie man alles in Myrise freischaltet
    3 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

    Heiße Werkzeuge

    Notepad++7.3.1

    Notepad++7.3.1

    Einfach zu bedienender und kostenloser Code-Editor

    SublimeText3 chinesische Version

    SublimeText3 chinesische Version

    Chinesische Version, sehr einfach zu bedienen

    Senden Sie Studio 13.0.1

    Senden Sie Studio 13.0.1

    Leistungsstarke integrierte PHP-Entwicklungsumgebung

    Dreamweaver CS6

    Dreamweaver CS6

    Visuelle Webentwicklungstools

    SublimeText3 Mac-Version

    SublimeText3 Mac-Version

    Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

    Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

    Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

    Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

    Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

    Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

    Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

    Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

    Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

    Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

    Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

    Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

    Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

    Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

    Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

    Getestet 7 Artefakte zur Videogenerierung auf „Sora-Ebene'. Wer hat die Fähigkeit, den „Eisernen Thron' zu besteigen? Getestet 7 Artefakte zur Videogenerierung auf „Sora-Ebene'. Wer hat die Fähigkeit, den „Eisernen Thron' zu besteigen? Aug 05, 2024 pm 07:19 PM

    Herausgeber des Machine Power Report: Yang Wen Wer kann der King of AI-Videokreis werden? In der amerikanischen Fernsehserie „Game of Thrones“ gibt es einen „Eisernen Thron“. Der Legende nach wurde es vom riesigen Drachen „Schwarzer Tod“ erschaffen, der Tausende von von Feinden weggeworfenen Schwertern zum Schmelzen brachte und so höchste Autorität symbolisierte. Um auf diesem eisernen Stuhl zu sitzen, begannen die großen Familien zu kämpfen und zu kämpfen. Seit der Entstehung von Sora wurde im KI-Videokreis ein energisches „Game of Thrones“ gestartet. Zu den Hauptakteuren in diesem Spiel zählen RunwayGen-3 und Luma von der anderen Seite des Ozeans sowie die einheimischen Kuaishou Keling, ByteDream, und Zhimo. Spectrum Qingying, Vidu, PixVerseV2 usw. Heute werden wir bewerten und sehen, wer qualifiziert ist, auf dem „Eisernen Thron“ des KI-Videokreises zu sitzen. -1- Vincent Video

    See all articles