


Googles DeepMind hat das RoboCat-KI-Modell entwickelt, das eine Vielzahl von Robotern steuern kann, um eine Reihe von Aufgaben auszuführen
Laut Nachrichten vom 26. Juni sagte DeepMind, eine Tochtergesellschaft von Google, dass das Unternehmen ein künstliches Intelligenzmodell namens RoboCat entwickelt habe, das verschiedene Roboterarme steuern kann, um eine Reihe von Aufgaben auszuführen. Dies allein ist nicht besonders neu, aber DeepMind behauptet, dass das Modell das erste ist, das in der Lage ist, eine Vielzahl von Aufgaben zu lösen und sich an diese anzupassen, und zwar unter Verwendung verschiedener, realer Roboter.
RoboCat ist von Gato inspiriert, einem weiteren KI-Modell von DeepMind, das Texte, Bilder und Ereignisse analysieren und verarbeiten kann. Zu den Trainingsdaten von RoboCat gehören Bilder und Bewegungsdaten von simulierten und realen Robotern, die von anderen Robotersteuerungsmodellen in virtuellen Umgebungen, von Menschen gesteuerten Robotern und früheren Versionen von RoboCat selbst abgeleitet wurden.
Alex Lee, Forschungswissenschaftler bei DeepMind und einer der Mitarbeiter im RoboCat-Team, sagte in einem E-Mail-Interview mit TechCrunch: „Wir haben gezeigt, dass ein einzelnes großes Modell an mehreren realen Robotereinheiten gelöst werden kann. Vielfältige Aufgaben und können schnell.“ „
IT House stellte fest, dass DeepMind-Forscher zunächst von Menschen gesteuerte Roboterarme verwendeten, um alle Daten in einer simulierten oder realen Umgebung zu sammeln. Lassen Sie zum Beispiel einen Roboterarm Zahnräder aufnehmen oder Bausteine stapeln. Anschließend optimierten sie RoboCat, indem sie für jede Aufgabe ein spezielles „abgeleitetes“ Modell erstellten und es durchschnittlich 10.000 Mal üben ließen. Durch die Nutzung von Daten, die durch abgeleitete Modelle und Demonstrationsdaten generiert wurden, erweitern Forscher den Trainingsdatensatz von RoboCat weiter und trainieren neue Versionen von RoboCat.
Die endgültige Version von RoboCat wurde an insgesamt 253 Aufgaben trainiert und an 141 Variationen dieser Aufgaben getestet, sowohl in der Simulation als auch in der realen Welt. DeepMind behauptet, dass RoboCat gelernt hat, verschiedene Arten von Roboterarmen zu bedienen, nachdem es über mehrere Stunden hinweg 1.000 von Menschen kontrollierte Demonstrationen beobachtet hatte. Während RoboCat an vier Robotern mit Zwei-Finger-Armen trainiert wurde, konnte sich das Modell an einen komplexeren Arm mit Drei-Finger-Greifer und doppelt so vielen steuerbaren Eingaben anpassen.
Trotzdem schwankten die Erfolgsquoten von RoboCat bei verschiedenen Aufgaben in den DeepMind-Tests stark und reichten von einem Tiefstwert von 13 % bis zu einem Höchstwert von 99 %. Dies gilt bei 1000 Demonstrationen in den Trainingsdaten; wenn die Anzahl der Demonstrationen halbiert wird, sinkt die Erfolgsquote entsprechend. In einigen Fällen behauptet DeepMind jedoch, dass RoboCat neue Aufgaben durch die Beobachtung von nur 100 Demonstrationen erlernen kann.
Alex Lee glaubt, dass RoboCat das Lösen neuer Aufgaben weniger schwierig machen könnte. „Angesichts einer bestimmten Anzahl von Demonstrationen einer neuen Aufgabe kann RoboCat eine Feinabstimmung auf neue Aufgaben vornehmen und selbst mehr Daten generieren, um sich weiter zu verbessern“, fügte er hinzu.
In Zukunft möchte das Forschungsteam die Anzahl der Demonstrationen, die erforderlich sind, um RoboCat beizubringen, neue Aufgaben zu erledigen, auf weniger als 10 reduzieren.
Das obige ist der detaillierte Inhalt vonGoogles DeepMind hat das RoboCat-KI-Modell entwickelt, das eine Vielzahl von Robotern steuern kann, um eine Reihe von Aufgaben auszuführen. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

AI Hentai Generator
Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



MetaFAIR hat sich mit Harvard zusammengetan, um einen neuen Forschungsrahmen zur Optimierung der Datenverzerrung bereitzustellen, die bei der Durchführung groß angelegten maschinellen Lernens entsteht. Es ist bekannt, dass das Training großer Sprachmodelle oft Monate dauert und Hunderte oder sogar Tausende von GPUs verwendet. Am Beispiel des Modells LLaMA270B erfordert das Training insgesamt 1.720.320 GPU-Stunden. Das Training großer Modelle stellt aufgrund des Umfangs und der Komplexität dieser Arbeitsbelastungen einzigartige systemische Herausforderungen dar. In letzter Zeit haben viele Institutionen über Instabilität im Trainingsprozess beim Training generativer SOTA-KI-Modelle berichtet. Diese treten normalerweise in Form von Verlustspitzen auf. Beim PaLM-Modell von Google kam es beispielsweise während des Trainingsprozesses zu Instabilitäten. Numerische Voreingenommenheit ist die Hauptursache für diese Trainingsungenauigkeit.

Laut Nachrichten vom 16. November haben führende wissenschaftliche Forschungseinrichtungen der Branche, das US-amerikanische National Supercomputing Center und viele führende Unternehmen im KI-Bereich kürzlich gemeinsam das Trillion Parameter Consortium (TPC) gegründet. Erstellt von DALL-E3 Berichten zufolge hat diese Website erfahren, dass sich die TPC Alliance aus Wissenschaftlern aus Labors, wissenschaftlichen Forschungseinrichtungen, Hochschulen und der Industrie auf der ganzen Welt zusammensetzt. Ziel ist es, gemeinsam Modelle der künstlichen Intelligenz für wissenschaftliche Entdeckungen zu fördern Das TPC-Konsortium arbeitet derzeit an der Entwicklung skalierbarer Modellarchitekturen und Trainingsstrategien und organisiert und kuratiert gleichzeitig wissenschaftliche Daten für das Modelltraining, um KI-Bibliotheken für aktuelle und zukünftige Exascale-Computing-Plattformen zu optimieren

Laut Nachrichten vom 15. November hat Microsoft kürzlich eine Methode namens „Everything of Thought“ (XOT) auf den Markt gebracht, die von Google DeepMinds AlphaZero inspiriert ist und kompakte neuronale Netze verwendet, um die Argumentationsfähigkeiten von KI-Modellen zu verbessern. Microsoft hat mit dem Georgia Institute of Technology und der East China Normal University zusammengearbeitet, um diesen Algorithmus zu entwickeln, der Verstärkungslernen und MCTS-Funktionen (Monte Carlo Tree Search) integriert, um die Effektivität der Problemlösung in komplexen Entscheidungsumgebungen weiter zu verbessern. Hinweis von dieser Seite: Das Microsoft-Forschungsteam gab an, dass die XOT-Methode das Sprachmodell auf unbekannte Probleme in Gameof24, 8-Puzzle und P erweitern kann

Laut Nachrichten vom 26. Juni sagte DeepMind, eine Tochtergesellschaft von Google, dass das Unternehmen ein künstliches Intelligenzmodell namens RoboCat entwickelt habe, das verschiedene Roboterarme steuern kann, um eine Reihe von Aufgaben auszuführen. Dies allein ist nicht besonders neu, aber DeepMind behauptet, dass das Modell das erste ist, das in der Lage ist, eine Vielzahl von Aufgaben zu lösen und sich an diese anzupassen, und zwar unter Verwendung verschiedener, realer Roboter. RoboCat ist von einem anderen DeepMind-KI-Modell, Gato, inspiriert, das Texte, Bilder und Ereignisse analysieren und verarbeiten kann. Zu den Trainingsdaten von RoboCat gehören Bilder und Bewegungsdaten von simulierten und realen Robotern, die von anderen Robotersteuerungsmodellen in der virtuellen Umgebung, von Menschen gesteuerten Robotern, stammen

Laut Nachrichten vom 10. Juli hat Databricks kürzlich das von der Big-Data-Analyseplattform Spark verwendete KI-Modell-SDK veröffentlicht. Wenn Entwickler Code schreiben, können sie Anweisungen auf Englisch geben, und der Compiler konvertiert die englischen Anweisungen in die Sprache PySpark oder SQL Codes zur Verbesserung der Entwicklereffizienz. ▲Bildquelle Databricks-Website Es wird berichtet, dass Spark ein Open-Source-Big-Data-Analysetool ist, das mehr als 1 Milliarde Mal pro Jahr heruntergeladen und in 208 Ländern und Regionen auf der ganzen Welt verwendet wird. ▲Bildquelle Databricks-Website Databricks sagte, dass der KI-Code-Assistent GitHubCopilot von Microsoft leistungsstark ist, aber die Schwelle für die Verwendung ist auch relativ hoch, das SDK von Databricks ist relativ universeller und einfacher zu verwenden.

Laut Nachrichten vom 15. Dezember hat Google DeepMind kürzlich eine Modelltrainingsmethode namens „FunSearch“ angekündigt, die angeblich in der Lage ist, eine Reihe von „Problemen der oberen Ebene“ und „Binding“ zu berechnen, die die Bereiche „Mathematik und Informatik umfassen“. Probleme". Komplexe Probleme." Der Inhalt, der neu geschrieben werden muss, ist: ▲Quelle: Google DeepMind (im Folgenden als DeepMind bezeichnet) Es wird berichtet, dass die FunSearch-Modelltrainingsmethode hauptsächlich ein „Evaluator“-System für das KI-Modell und das KI-Modell einführt gibt eine Reihe „kreativer Problemlösungsmethoden“ aus, und der „Bewerter“ ist für die Bewertung der vom Modell ausgegebenen Problemlösungsmethoden verantwortlich. Nach wiederholten Iterationen kann ein KI-Modell mit stärkeren mathematischen Fähigkeiten trainiert werden. Googles DeepM

Microsoft gab seine KI-Servicebedingungen am 16. August bekannt und kündigte an, dass die Bedingungen am 30. September in Kraft treten werden. Der Hauptinhalt dieses Updates betrifft generative KI, insbesondere Inhalte im Zusammenhang mit der Nutzung relevanter Benutzer und verantwortungsvollen Entwicklungspraktiken. Microsoft betont, dass der Beamte weder die Gesprächsaufzeichnungen von Benutzern, die mit Bing chatten, speichert noch diese Chat-Daten verwendet. Die fünf wichtigsten Richtlinienpunkte, die zum Trainieren des KI-Modells für Bing Enterprise Chat verwendet werden, decken mehrere Bereiche ab, darunter das Verbot, dass Benutzer versuchen, das KI-Modell zurückzuentwickeln, um die Offenlegung zugrunde liegender Komponenten zu verhindern, und das Verbot der Datenextraktion durch Methoden wie Web Scraping ausdrücklich erlaubt; Eine wichtige Klausel hindert Benutzer daran, KI-Daten zum Erstellen oder Verbessern anderer KI-Dienste zu verwenden. Die folgende Klausel wurde von Microsoft hinzugefügt.

Laut Nachrichten vom 14. Juni haben Microsoft-Forscher kürzlich das LLaVA-Med-Modell demonstriert, das hauptsächlich für die biomedizinische Forschung verwendet wird und anhand von CT- und Röntgenbildern auf den pathologischen Zustand von Patienten schließen kann. Es wird berichtet, dass Microsoft-Forscher mit einer Gruppe von Krankenhäusern zusammengearbeitet und einen großen Datensatz erhalten haben, der biomedizinischem Bildtext entspricht, um ein multimodales KI-Modell zu trainieren. Dieser Datensatz umfasst Röntgenaufnahmen des Brustkorbs, MRT-Bilder, Histologie-, Pathologie- und CT-Bilder usw. mit relativ umfassender Abdeckung. ▲Bildquelle Microsoft Microsoft verwendet GPT-4, basierend auf VisionTransformer und dem Vicuna-Sprachmodell, um LLaVA-Med auf acht NVIDIA A100-GPUs zu trainieren, das „alle Voranalyseinformationen für jedes Bild“ enthält.
