Heim Technologie-Peripheriegeräte KI Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Jan 15, 2024 pm 04:33 PM
产业

Jetzt gibt es ein neues von Google entwickeltes Bildgenerierungsmodell, das die Katze in Abbildung 1 im Stil von Abbildung 2 zeichnen und ihr einen Hut aufsetzen kann. Dieses Modell nutzt die Technologie zur Feinabstimmung von Anweisungen, um neue Bilder basierend auf Textanweisungen und mehreren Referenzbildern präzise zu generieren. Der Effekt ist sehr gut, vergleichbar mit einem PS-Master, der Ihnen persönlich bei der Erstellung eines Bildes hilft.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Bei der Verwendung großer Sprachmodelle (LLM) haben wir erkannt, wie wichtig die Feinabstimmung des Unterrichts ist. Bei entsprechender Feinabstimmung der Anweisungen kann LLM eine Vielzahl von Aufgaben ausführen, wie z. B. das Verfassen von Gedichten, das Schreiben von Code, das Schreiben von Skripten, die Unterstützung bei der wissenschaftlichen Forschung und sogar die Durchführung von Investitionsmanagement.

Ist die Feinabstimmung der Anweisungen jetzt noch effektiv, da große Modelle in das multimodale Zeitalter eingetreten sind? Können wir beispielsweise die Steuerung der Bilderzeugung durch multimodale Anweisungen optimieren? Im Gegensatz zur Sprachgenerierung geht es bei der Bildgenerierung von Anfang an um Multimodalität. Können wir Modelle effektiv in die Lage versetzen, die Komplexität der Multimodalität zu erfassen?

Um dieses Problem zu lösen, haben Google DeepMind und Google Research eine multimodale Anweisungsmethode zur Bildgenerierung vorgeschlagen. Diese Methode verknüpft Informationen aus verschiedenen Modalitäten, um die Bedingungen für die Bilderzeugung auszudrücken (Beispiel im linken Bereich von Abbildung 1).

Multimodale Anweisungen können Sprachanweisungen verbessern. Benutzer können beispielsweise den Stil des Referenzbilds angeben, um ein Modell zum Rendern des Bildes zu generieren. Diese intuitive interaktive Schnittstelle ermöglicht die effiziente Einstellung multimodaler Bedingungen für Bilderzeugungsaufgaben.

Basierend auf dieser Idee erstellte das Team ein multimodales Modell zur Generierung von Instruktionsbildern: Instruct-Imagen.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Papieradresse: https://arxiv.org/abs/2401.01952

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Das Modell verwendet eine zweistufige Trainingsmethode: Verbessern Sie zunächst die Fähigkeit des Modells, mit multimodalen Anweisungen umzugehen, und folgen Sie dann treu Multimodale Benutzerabsicht.

In der ersten Phase übernahm das Team ein vorab trainiertes Text-zu-Bild-Modell mit der Aufgabe, zusätzliche multimodale Eingaben zu verarbeiten und es später so zu verfeinern, dass es genau auf multimodale Anweisungen reagieren konnte. Konkret handelte es sich bei dem vorab trainierten Modell um ein Diffusionsmodell, das um einen ähnlichen (Bild-, Text-)Kontext aus einem Netzwerkkorpus (Bild, Text) erweitert wurde.

In der zweiten Phase verfeinerte das Team das Modell auf eine Vielzahl von Bilderzeugungsaufgaben, die jeweils mit entsprechenden multimodalen Anweisungen gepaart wurden – diese Anweisungen enthielten die Schlüsselelemente der jeweiligen Aufgaben. Nach den oben genannten Schritten kann das resultierende Modell Instruct-Imagen die Fusionseingabe mehrerer Modalitäten (z. B. Skizzen plus visuelle Stile, die mit Textanweisungen beschrieben werden) sehr geschickt verarbeiten, sodass Bilder generiert werden können, die genau zum Kontext passen und hell genug sind.

Wie in Abbildung 1 gezeigt, leistet Instruct-Imagen eine hervorragende Leistung, da es in der Lage ist, komplexe multimodale Anweisungen zu verstehen und Bilder zu erzeugen, die den menschlichen Absichten getreu folgen und sogar Kombinationen von Anweisungen verarbeiten, die noch nie zuvor gesehen wurden.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Menschliches Feedback zeigt, dass Instruct-Imagen in vielen Fällen nicht nur die Leistung aufgabenspezifischer Modelle bei entsprechenden Aufgaben erreicht, sondern diese sogar übertrifft. Darüber hinaus verfügt Instruct-Imagen über starke Generalisierungsfähigkeiten und kann für unbekannte und komplexere Bilderzeugungsaufgaben verwendet werden.

Multimodale Anweisungen zur Generierung

Das vom Team verwendete vorab trainierte Modell ist ein Diffusionsmodell und der Benutzer kann Eingabebedingungen dafür festlegen. Einzelheiten finden Sie im Originalpapier.

Um Vielseitigkeit und Verallgemeinerungsfähigkeit sicherzustellen, schlug das Team für multimodale Anweisungen ein einheitliches multimodales Anweisungenformat vor, in dem die Rolle der Sprache darin besteht, das Ziel der Aufgabe und die multimodalen Bedingungen klar darzulegen dienen als Referenzinformationen.

Dieses neu vorgeschlagene Befehlsformat enthält zwei Schlüsselkomponenten: (1) Nutzlasttextbefehl, dessen Rolle darin besteht, das Aufgabenziel im Detail zu beschreiben und eine Referenzinformationsidentifizierung anzugeben, z. B. [ref#?]. (2) Multimodaler Kontext mit gepaartem (Logo + Text, Bild). Das Modell verwendet dann ein gemeinsames Anweisungsverständnismodell, um Textanweisungen und multimodale Kontexte zu verarbeiten – die spezifische Modalität des Kontexts ist hier nicht eingeschränkt.

Abbildung 2 zeigt anhand von drei Beispielen, wie dieses Format verschiedene Aufgaben der vorherigen Generation darstellen kann. Dies zeigt, dass dieses Format mit Aufgaben der vorherigen Bildgenerierung kompatibel sein kann. Noch wichtiger ist, dass die Sprache flexibel ist, sodass multimodale Anweisungen für neue Aufgaben erweitert werden können, ohne dass ein spezielles Design für Modalität und Aufgaben erforderlich ist.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Instruct-Imagen

Instruct-Imagen basiert auf multimodalen Anweisungen. Auf dieser Grundlage entwarf das Team eine Modellarchitektur, die auf einem vorab trainierten Text-zu-Bild-Diffusionsmodell, nämlich dem kaskadierten Diffusionsmodell, basiert, sodass es die eingegebenen multimodalen Befehlsbedingungen vollständig übernehmen kann.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Konkret verwendeten sie eine Variante von Imagen, siehe den Artikel „Fotorealistische Text-zu-Bild-Diffusionsmodelle mit tiefem Sprachverständnis“, und führten ein Vortraining basierend auf ihren internen Datenquellen durch. Sein vollständiges Modell enthält zwei Unterkomponenten: (1) Text-zu-Bild-Komponente, deren Aufgabe darin besteht, Bilder mit einer Auflösung von 128 x 128 nur unter Verwendung von Texteingabeaufforderungen zu generieren; (2) ein textbedingtes Superauflösungsmodell, das eine Auflösung von 128 konvertieren kann; Bilder in ein Upgrade auf eine Auflösung von 1024 umwandeln.

Zur Codierung multimodaler Anweisungen siehe Abbildung 3 (rechts), die den Datenfluss der Instruct-Imagen-Codierung multimodaler Anweisungen zeigt.

Training von Instruct-Imagen mit einer zweistufigen Methode

Der Trainingsprozess von Instruct-Imagen ist in zwei Phasen unterteilt.

Die erste Stufe ist das durch den Abruf verbesserte Text-zu-Bild-Training, das die erweiterten abgerufenen Nachbarpaare (Bild, Text) verwendet, um das Training der Text-zu-Bild-Generierung fortzusetzen.

Die zweite Stufe besteht darin, das Ausgabemodell der ersten Stufe zu verfeinern, das eine Mischung verschiedener Bilderzeugungsaufgaben verwendet, von denen jede mit entsprechenden multimodalen Anweisungen gepaart ist. Konkret verwendete das Team 11 Bilder aus 5 Aufgabenkategorien, um den Datensatz zu generieren, siehe Tabelle 1.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

In beiden Trainingsstufen wird das Modell durchgängig optimiert.

Experimente

Das Team führte experimentelle Bewertungen der neu vorgeschlagenen Methoden und Modelle durch und führte eine eingehende Analyse des Designs und der Fehlermodi von Instruct-Imagen durch.

Experimentelle Einstellungen

Das Team evaluierte das Modell in zwei Einstellungen, nämlich der domäneninternen Aufgabenbewertung und der Zero-Shot-Aufgabenbewertung, wobei die letztere Einstellung anspruchsvoller ist als die erstere.

Hauptergebnisse

Abbildung 4 vergleicht Instruct-Imagen mit der Basismethode und früheren Methoden. Die Ergebnisse zeigen, dass es mit früheren Methoden bei der Domänenbewertung und der Nullstichprobenbewertung vergleichbar ist.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Dies zeigt, dass das Training mit multimodalen Anweisungen die Modellleistung bei Aufgaben mit begrenzten Trainingsdaten (z. B. Stilisierungsgenerierung) verbessern und gleichzeitig die Leistung bei datenreichen Aufgaben (z. B. der Generierung fotoähnlicher Bilder) aufrechterhalten kann. Ohne multimodales Schulungstraining führen Multitasking-Benchmarks tendenziell zu einer schlechten Bildqualität und Textausrichtung.

Im kontextbezogenen Stilisierungsbeispiel in Abbildung 5 hat der Multitask-Benchmark beispielsweise Schwierigkeiten, Stile von Objekten zu unterscheiden, sodass die Objekte in den generierten Ergebnissen reproduziert werden. Aus ähnlichen Gründen schneidet es auch bei Stilübertragungsaufgaben schlecht ab. Diese Beobachtungen unterstreichen den Wert der Feinabstimmung des Unterrichts.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Im Gegensatz zu aktuellen Methoden oder Schulungen, die auf bestimmten Aufgaben basieren, kann Instruct-Imagen kombinierte Aufgaben effizient verwalten (z. B. ohne Feinabstimmung), indem es Anweisungen nutzt, die die Ziele verschiedener Aufgaben kombinieren und Überlegungen im Kontext anstellen. 18,2 dauert Sekunden).

Wie in Abbildung 6 dargestellt, übertrifft Instruct-Imagen immer andere Modelle in Bezug auf die Befehlsfolge und die Ausgabequalität.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Darüber hinaus kann das Multitask-Basismodell bei mehreren Referenzen in einem multimodalen Kontext keine Textanweisungen mit Referenzen korrespondieren, was dazu führt, dass einige multimodale Bedingungen ignoriert werden. Diese Ergebnisse belegen erneut die Wirksamkeit des neu vorgeschlagenen Modells.

Modellanalyse und Ablationsstudie

Das Team analysierte die Einschränkungen und Fehlermodi des Modells.

Zum Beispiel hat das Team herausgefunden, dass fein abgestimmte Instruct-Imagen Bilder bearbeiten können. Wie in Tabelle 2 gezeigt, kann durch Vergleich des vorherigen SDXL-Inpaintings, des fein abgestimmten Imagen im MagicBrush-Datensatz und des fein abgestimmten Instruct-Imagen festgestellt werden, dass das fein abgestimmte Instruct-Imagen deutlich besser ist als das ein speziell für die maskenbasierte Bildbearbeitung entwickeltes Modell.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Allerdings erzeugt das fein abgestimmte Instruct-Imagen Artefakte in den bearbeiteten Bildern, insbesondere in der hochauflösenden Ausgabe nach dem Superauflösungsschritt, wie in Abbildung 7 dargestellt. Die Forscher sagen, das liegt daran, dass das Modell bisher nicht gelernt hat, Pixel direkt aus dem Kontext genau zu kopieren.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Das Team stellte außerdem fest, dass das Training mit Abrufunterstützung zur Verbesserung der Generalisierungsfähigkeit beitrug. Die Ergebnisse sind in Tabelle 3 aufgeführt.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

In Bezug auf den Fehlermodus von Instruct-Imagen stellten die Forscher fest, dass Instruct-Imagen Schwierigkeiten hat, Ergebnisse zu generieren, die den Anweisungen entsprechen, wenn die multimodalen Anweisungen komplexer sind (mindestens 3 multimodale Bedingungen). Abbildung 8 zeigt zwei Beispiele.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Das Folgende zeigt einige Ergebnisse zu komplexen Aufgaben, die während des Trainings nicht gesehen wurden.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Das Team führte auch Ablationsstudien durch, um die Bedeutung seiner Designkomponenten zu beweisen.

Aus Sicherheitsgründen hat Google den Code und die API dieser Forschung jedoch noch nicht veröffentlicht.

Lernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen

Weitere Einzelheiten finden Sie im Originalpapier.

Das obige ist der detaillierte Inhalt vonLernen Sie multimodale Befehle: Mit der Google-Bildgenerierungs-KI können Sie ganz einfach mitmachen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

Video Face Swap

Video Face Swap

Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Der DeepMind-Roboter spielt Tischtennis und seine Vor- und Rückhand rutschen in die Luft, wodurch menschliche Anfänger völlig besiegt werden Aug 09, 2024 pm 04:01 PM

Aber vielleicht kann er den alten Mann im Park nicht besiegen? Die Olympischen Spiele in Paris sind in vollem Gange und Tischtennis hat viel Aufmerksamkeit erregt. Gleichzeitig haben Roboter auch beim Tischtennisspielen neue Durchbrüche erzielt. Gerade hat DeepMind den ersten lernenden Roboteragenten vorgeschlagen, der das Niveau menschlicher Amateurspieler im Tischtennis-Wettkampf erreichen kann. Papieradresse: https://arxiv.org/pdf/2408.03906 Wie gut ist der DeepMind-Roboter beim Tischtennisspielen? Vermutlich auf Augenhöhe mit menschlichen Amateurspielern: Sowohl Vorhand als auch Rückhand: Der Gegner nutzt unterschiedliche Spielstile, und auch der Roboter hält aus: Aufschlagannahme mit unterschiedlichem Spin: Allerdings scheint die Intensität des Spiels nicht so intensiv zu sein wie Der alte Mann im Park. Für Roboter, Tischtennis

Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Die erste mechanische Klaue! Yuanluobao trat auf der Weltroboterkonferenz 2024 auf und stellte den ersten Schachroboter vor, der das Haus betreten kann Aug 21, 2024 pm 07:33 PM

Am 21. August fand in Peking die Weltroboterkonferenz 2024 im großen Stil statt. Die Heimrobotermarke „Yuanluobot SenseRobot“ von SenseTime hat ihre gesamte Produktfamilie vorgestellt und kürzlich den Yuanluobot AI-Schachspielroboter – Chess Professional Edition (im Folgenden als „Yuanluobot SenseRobot“ bezeichnet) herausgebracht und ist damit der weltweit erste A-Schachroboter für heim. Als drittes schachspielendes Roboterprodukt von Yuanluobo hat der neue Guoxiang-Roboter eine Vielzahl spezieller technischer Verbesserungen und Innovationen in den Bereichen KI und Maschinenbau erfahren und erstmals die Fähigkeit erkannt, dreidimensionale Schachfiguren aufzunehmen B. durch mechanische Klauen an einem Heimroboter, und führen Sie Mensch-Maschine-Funktionen aus, z. B. Schach spielen, jeder spielt Schach, Überprüfung der Notation usw.

Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Claude ist auch faul geworden! Netizen: Lernen Sie, sich einen Urlaub zu gönnen Sep 02, 2024 pm 01:56 PM

Der Schulstart steht vor der Tür und nicht nur die Schüler, die bald ins neue Semester starten, sollten auf sich selbst aufpassen, sondern auch die großen KI-Modelle. Vor einiger Zeit war Reddit voller Internetnutzer, die sich darüber beschwerten, dass Claude faul werde. „Sein Niveau ist stark gesunken, es kommt oft zu Pausen und sogar die Ausgabe wird sehr kurz. In der ersten Woche der Veröffentlichung konnte es ein komplettes 4-seitiges Dokument auf einmal übersetzen, aber jetzt kann es nicht einmal eine halbe Seite ausgeben.“ !

Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Auf der Weltroboterkonferenz wurde dieser Haushaltsroboter, der „die Hoffnung auf eine zukünftige Altenpflege' in sich trägt, umzingelt Aug 22, 2024 pm 10:35 PM

Auf der World Robot Conference in Peking ist die Präsentation humanoider Roboter zum absoluten Mittelpunkt der Szene geworden. Am Stand von Stardust Intelligent führte der KI-Roboterassistent S1 drei große Darbietungen mit Hackbrett, Kampfkunst und Kalligraphie auf Ein Ausstellungsbereich, der sowohl Literatur als auch Kampfkunst umfasst, zog eine große Anzahl von Fachpublikum und Medien an. Durch das elegante Spiel auf den elastischen Saiten demonstriert der S1 eine feine Bedienung und absolute Kontrolle mit Geschwindigkeit, Kraft und Präzision. CCTV News führte einen Sonderbericht über das Nachahmungslernen und die intelligente Steuerung hinter „Kalligraphie“ durch. Firmengründer Lai Jie erklärte, dass hinter den seidenweichen Bewegungen die Hardware-Seite die beste Kraftkontrolle und die menschenähnlichsten Körperindikatoren (Geschwindigkeit, Belastung) anstrebt. usw.), aber auf der KI-Seite werden die realen Bewegungsdaten von Menschen gesammelt, sodass der Roboter stärker werden kann, wenn er auf eine schwierige Situation stößt, und lernen kann, sich schnell weiterzuentwickeln. Und agil

Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Bekanntgabe der ACL 2024 Awards: Eines der besten Papers zum Thema Oracle Deciphering von HuaTech, GloVe Time Test Award Aug 15, 2024 pm 04:37 PM

Bei dieser ACL-Konferenz haben die Teilnehmer viel gewonnen. Die sechstägige ACL2024 findet in Bangkok, Thailand, statt. ACL ist die führende internationale Konferenz im Bereich Computerlinguistik und Verarbeitung natürlicher Sprache. Sie wird von der International Association for Computational Linguistics organisiert und findet jährlich statt. ACL steht seit jeher an erster Stelle, wenn es um akademischen Einfluss im Bereich NLP geht, und ist außerdem eine von der CCF-A empfohlene Konferenz. Die diesjährige ACL-Konferenz ist die 62. und hat mehr als 400 innovative Arbeiten im Bereich NLP eingereicht. Gestern Nachmittag gab die Konferenz den besten Vortrag und weitere Auszeichnungen bekannt. Diesmal gibt es 7 Best Paper Awards (zwei davon unveröffentlicht), 1 Best Theme Paper Award und 35 Outstanding Paper Awards. Die Konferenz verlieh außerdem drei Resource Paper Awards (ResourceAward) und einen Social Impact Award (

Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Hongmeng Smart Travel S9 und die umfassende Einführungskonferenz für neue Produkte wurden gemeinsam mit einer Reihe neuer Blockbuster-Produkte veröffentlicht Aug 08, 2024 am 07:02 AM

Heute Nachmittag begrüßte Hongmeng Zhixing offiziell neue Marken und neue Autos. Am 6. August veranstaltete Huawei die Hongmeng Smart Xingxing S9 und die Huawei-Konferenz zur Einführung neuer Produkte mit umfassendem Szenario und brachte die Panorama-Smart-Flaggschiff-Limousine Xiangjie S9, das neue M7Pro und Huawei novaFlip, MatePad Pro 12,2 Zoll, das neue MatePad Air und Huawei Bisheng mit Mit vielen neuen Smart-Produkten für alle Szenarien, darunter die Laserdrucker der X1-Serie, FreeBuds6i, WATCHFIT3 und der Smart Screen S5Pro, von Smart Travel über Smart Office bis hin zu Smart Wear baut Huawei weiterhin ein Smart-Ökosystem für alle Szenarien auf, um Verbrauchern ein Smart-Erlebnis zu bieten Internet von allem. Hongmeng Zhixing: Huawei arbeitet mit chinesischen Partnern aus der Automobilindustrie zusammen, um die Modernisierung der Smart-Car-Industrie voranzutreiben

Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Distributed Artificial Intelligence Conference DAI 2024 Call for Papers: Agent Day, Richard Sutton, der Vater des Reinforcement Learning, wird teilnehmen! Yan Shuicheng, Sergey Levine und DeepMind-Wissenschaftler werden Grundsatzreden halten Aug 22, 2024 pm 08:02 PM

Einleitung zur Konferenz Mit der rasanten Entwicklung von Wissenschaft und Technologie ist künstliche Intelligenz zu einer wichtigen Kraft bei der Förderung des sozialen Fortschritts geworden. In dieser Zeit haben wir das Glück, die Innovation und Anwendung der verteilten künstlichen Intelligenz (DAI) mitzuerleben und daran teilzuhaben. Verteilte Künstliche Intelligenz ist ein wichtiger Zweig des Gebiets der Künstlichen Intelligenz, der in den letzten Jahren immer mehr Aufmerksamkeit erregt hat. Durch die Kombination des leistungsstarken Sprachverständnisses und der Generierungsfähigkeiten großer Modelle sind plötzlich Agenten aufgetaucht, die auf natürlichen Sprachinteraktionen, Wissensbegründung, Aufgabenplanung usw. basieren. AIAgent übernimmt das große Sprachmodell und ist zu einem heißen Thema im aktuellen KI-Kreis geworden. Au

Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Das Team von Li Feifei schlug ReKep vor, um Robotern räumliche Intelligenz zu verleihen und GPT-4o zu integrieren Sep 03, 2024 pm 05:18 PM

Tiefe Integration von Vision und Roboterlernen. Wenn zwei Roboterhände reibungslos zusammenarbeiten, um Kleidung zu falten, Tee einzuschenken und Schuhe zu packen, gepaart mit dem humanoiden 1X-Roboter NEO, der in letzter Zeit für Schlagzeilen gesorgt hat, haben Sie vielleicht das Gefühl: Wir scheinen in das Zeitalter der Roboter einzutreten. Tatsächlich sind diese seidigen Bewegungen das Produkt fortschrittlicher Robotertechnologie + exquisitem Rahmendesign + multimodaler großer Modelle. Wir wissen, dass nützliche Roboter oft komplexe und exquisite Interaktionen mit der Umgebung erfordern und die Umgebung als Einschränkungen im räumlichen und zeitlichen Bereich dargestellt werden kann. Wenn Sie beispielsweise möchten, dass ein Roboter Tee einschenkt, muss der Roboter zunächst den Griff der Teekanne ergreifen und sie aufrecht halten, ohne den Tee zu verschütten, und ihn dann sanft bewegen, bis die Öffnung der Kanne mit der Öffnung der Tasse übereinstimmt , und neigen Sie dann die Teekanne in einem bestimmten Winkel. Das

See all articles