


Er kann ohne Batterien „autonom fahren' und dieser Roboter kann eine unbegrenzte Batterielebensdauer haben.
Es ist ein neuer Typ „Auto“ entstanden, der autonom fahren kann, ohne eine Batterie einzubauen. Es kann sogar automatisch Energie sammeln, um ohne Kilometerangst weiterzulaufen (manueller Hundekopf)
Dieser kleine Roboter heißt MilliMobile und kommt von der University of Washington. Seine Energiequelle sind Licht und Radiowellen
Obwohl es nur die Größe eines Fingernagels hat und etwa so viel wiegt wie eine Rosine, kann es problemlos Ausrüstung tragen, die das Dreifache seines Eigengewichts beträgt. Und es kann nicht nur auf Betonstraßen fahren, sondern sich auch auf „ländlichen Feldwegen“ frei bewegen.
Die Bildquelle des ersten batterielosen autonomen Roboters stammt von der University of Washington
Kleine Roboter tragen häufig Sensoren und werden für industrielle Aufgaben wie die Erkennung von Gaslecks und die Verfolgung der Lagerhaltung eingesetzt. Allerdings stehen diese Roboter vor einem wichtigen Problem: Die Verwendung von Einwegbatterien schränkt nicht nur die Lebensdauer des Roboters ein, sondern ist auch nicht sehr umweltfreundlich
Forscher haben nach Alternativen gesucht, wie zum Beispiel die direkte Befestigung von Sensoren an Insekten
△ Bildquelle: University of Washington
Aber offenbar glauben Forscher der University of Washington, dass einige der bisherigen Methoden nicht ausreichend kontrollierbar sind. Ihre neue Idee besteht darin, den Roboter durch „intermittierende Bewegung“ anzutreiben.
Einfach ausgedrückt geht es einerseits darum, die Größe und das Gewicht des Roboters zu reduzieren, sodass er mit extrem geringer Leistung (weniger als 57 Mikrowatt) arbeiten kann.
Andererseits rüsteten Forscher MilliMobile mit Folienkondensatoren aus, um Energie aus Sonnenlicht/Radiowellen zu speichern. Wenn die im Kondensator gespeicherte Energie einen bestimmten Schwellenwert erreicht, kann der Motor angetrieben werden, um einen kurzen Bewegungsimpuls zu erzeugen, der den Roboter in Bewegung setzt.
Wenn Sie das sehen, haben Sie vielleicht eine Frage: Das ist es? Kann dieser Roboter wirklich laufen?
Forscher führten erfolgreich ein Experiment durch: Selbst an einem bewölkten Tag konnte MilliMobile in 1 Stunde eine Strecke von 10 Metern zurücklegen
Die Geschwindigkeit ist in der Tat nicht hoch, aber Forscher sagen, dass, solange er weiterhin mit dieser Geschwindigkeit arbeiten kann, neue Roboterfähigkeiten in Bereiche gebracht werden können, in denen es in der Vergangenheit schwierig war, Daten durch den Einsatz von Sensoren zu erhalten.
Wie bereits erwähnt, ist MilliMobile klein, aber voller Funktionen und umfasst Folgendes:
- 4 Fotodioden, die zur Erkennung der Lichtintensität in 4 Richtungen verwendet werden, sodass der Roboter selbstständig Lichtquellen zum Aufladen finden kann
- Temperatur- und Feuchtigkeitssensor
- Beschleunigungsmesser
- Magnetischer Sensor
- Gassensor
- Mikrokamera
- Drahtloser Kommunikationschip
MilliMobile verfügt über verschiedene Sensorfunktionen und kann Gelände automatisch erkennen und autonomes Fahren realisieren
Seien Sie in der Lage, sich der Lichtquelle zuzuwenden, um neue Energie zu tanken:
Eine umfangreiche räumliche Bemusterung ist möglich, um detailliertere Ansichten der Umgebung zu erstellen
Durch die Optimierung des synchronen Übertragungsprotokolls auf Softwareebene können Daten auch in einer Reichweite von 200 Metern übertragen werden. Zusammenfassend lässt sich sagen, dass MilliMobile Autonomie in Bezug auf Stromversorgung, Steuerung und Kommunikation erreicht hat.
In einer Rezension einer Technologie-Website heißt es: Dieses Werk hat den Hauch von Science-Fiction in die Realität umgesetzt. Was denken Sie?
Beim Umschreiben des Inhalts muss die ursprüngliche Bedeutung nicht geändert werden. Die Sprache muss auf Chinesisch geändert werden und der Originalsatz muss nicht angezeigt werden
- [1]https://www.washington.edu/news/2023/09/27/millimobile-battery-free-autonomous-self-driving-robot-solar/
- [2] Papieradresse: https://homes.cs.washington.edu/~vsiyer/Papers/millimobile-compressed.pdf
Werbeerklärung: Dieser Artikel enthält externe Sprunglinks (einschließlich, aber nicht beschränkt auf Hyperlinks, QR-Codes, Passwörter usw.), die dazu dienen, mehr Informationen bereitzustellen und Screening-Zeit zu sparen. Die Ergebnisse dienen nur als Referenz. Bitte beachten Sie, dass alle Artikel des IT House diese Aussage enthalten
Das obige ist der detaillierte Inhalt vonEr kann ohne Batterien „autonom fahren' und dieser Roboter kann eine unbegrenzte Batterielebensdauer haben.. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Heiße KI -Werkzeuge

Undresser.AI Undress
KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover
Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool
Ausziehbilder kostenlos

Clothoff.io
KI-Kleiderentferner

Video Face Swap
Tauschen Sie Gesichter in jedem Video mühelos mit unserem völlig kostenlosen KI-Gesichtstausch-Tool aus!

Heißer Artikel

Heiße Werkzeuge

Notepad++7.3.1
Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version
Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1
Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6
Visuelle Webentwicklungstools

SublimeText3 Mac-Version
Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Heiße Themen



Gestern wurde ich während des Interviews gefragt, ob ich irgendwelche Long-Tail-Fragen gestellt hätte, also dachte ich, ich würde eine kurze Zusammenfassung geben. Das Long-Tail-Problem des autonomen Fahrens bezieht sich auf Randfälle bei autonomen Fahrzeugen, also mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. Das wahrgenommene Long-Tail-Problem ist einer der Hauptgründe, die derzeit den betrieblichen Designbereich intelligenter autonomer Einzelfahrzeugfahrzeuge einschränken. Die zugrunde liegende Architektur und die meisten technischen Probleme des autonomen Fahrens wurden gelöst, und die verbleibenden 5 % der Long-Tail-Probleme wurden nach und nach zum Schlüssel zur Einschränkung der Entwicklung des autonomen Fahrens. Zu diesen Problemen gehören eine Vielzahl fragmentierter Szenarien, Extremsituationen und unvorhersehbares menschliches Verhalten. Der „Long Tail“ von Randszenarien beim autonomen Fahren bezieht sich auf Randfälle in autonomen Fahrzeugen (AVs). Randfälle sind mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. diese seltenen Ereignisse

Der humanoide Roboter Ameca wurde auf die zweite Generation aufgerüstet! Kürzlich erschien auf der World Mobile Communications Conference MWC2024 erneut der weltweit fortschrittlichste Roboter Ameca. Rund um den Veranstaltungsort lockte Ameca zahlreiche Zuschauer an. Mit dem Segen von GPT-4 kann Ameca in Echtzeit auf verschiedene Probleme reagieren. „Lass uns tanzen.“ Auf die Frage, ob sie Gefühle habe, antwortete Ameca mit einer Reihe von Gesichtsausdrücken, die sehr lebensecht aussahen. Erst vor wenigen Tagen stellte EngineeredArts, das britische Robotikunternehmen hinter Ameca, die neuesten Entwicklungsergebnisse des Teams vor. Im Video verfügt der Roboter Ameca über visuelle Fähigkeiten und kann den gesamten Raum und bestimmte Objekte sehen und beschreiben. Das Erstaunlichste ist, dass sie es auch kann

Die Trajektorienvorhersage spielt eine wichtige Rolle beim autonomen Fahren. Unter autonomer Fahrtrajektorienvorhersage versteht man die Vorhersage der zukünftigen Fahrtrajektorie des Fahrzeugs durch die Analyse verschiedener Daten während des Fahrvorgangs. Als Kernmodul des autonomen Fahrens ist die Qualität der Trajektorienvorhersage von entscheidender Bedeutung für die nachgelagerte Planungssteuerung. Die Trajektorienvorhersageaufgabe verfügt über einen umfangreichen Technologie-Stack und erfordert Vertrautheit mit der dynamischen/statischen Wahrnehmung des autonomen Fahrens, hochpräzisen Karten, Fahrspurlinien, Fähigkeiten in der neuronalen Netzwerkarchitektur (CNN&GNN&Transformer) usw. Der Einstieg ist sehr schwierig! Viele Fans hoffen, so schnell wie möglich mit der Flugbahnvorhersage beginnen zu können und Fallstricke zu vermeiden. Heute werde ich eine Bestandsaufnahme einiger häufiger Probleme und einführender Lernmethoden für die Flugbahnvorhersage machen! Einführungsbezogenes Wissen 1. Sind die Vorschaupapiere in Ordnung? A: Schauen Sie sich zuerst die Umfrage an, S

Im vergangenen Monat hatte ich aus bekannten Gründen einen sehr intensiven Austausch mit verschiedenen Lehrern und Mitschülern der Branche. Ein unvermeidliches Thema im Austausch ist natürlich End-to-End und der beliebte Tesla FSDV12. Ich möchte diese Gelegenheit nutzen, einige meiner aktuellen Gedanken und Meinungen als Referenz und Diskussion darzulegen. Wie definiert man ein durchgängiges autonomes Fahrsystem und welche Probleme sollten voraussichtlich durchgängig gelöst werden? Gemäß der traditionellsten Definition bezieht sich ein End-to-End-System auf ein System, das Rohinformationen von Sensoren eingibt und für die Aufgabe relevante Variablen direkt ausgibt. Bei der Bilderkennung kann CNN beispielsweise als End-to-End bezeichnet werden, verglichen mit der herkömmlichen Methode zum Extrahieren von Merkmalen + Klassifizieren. Bei autonomen Fahraufgaben werden Eingabedaten verschiedener Sensoren (Kamera/LiDAR) benötigt

Die Zielerkennung ist ein relativ ausgereiftes Problem in autonomen Fahrsystemen, wobei die Fußgängererkennung einer der ersten Algorithmen ist, die eingesetzt werden. In den meisten Arbeiten wurde eine sehr umfassende Recherche durchgeführt. Die Entfernungswahrnehmung mithilfe von Fischaugenkameras für die Rundumsicht ist jedoch relativ wenig untersucht. Aufgrund der großen radialen Verzerrung ist es schwierig, die standardmäßige Bounding-Box-Darstellung in Fischaugenkameras zu implementieren. Um die obige Beschreibung zu vereinfachen, untersuchen wir erweiterte Begrenzungsrahmen-, Ellipsen- und allgemeine Polygondesigns in Polar-/Winkeldarstellungen und definieren eine mIOU-Metrik für die Instanzsegmentierung, um diese Darstellungen zu analysieren. Das vorgeschlagene Modell „fisheyeDetNet“ mit polygonaler Form übertrifft andere Modelle und erreicht gleichzeitig 49,5 % mAP auf dem Valeo-Fisheye-Kameradatensatz für autonomes Fahren

Im Bereich der industriellen Automatisierungstechnik gibt es zwei aktuelle Hotspots, die kaum zu ignorieren sind: Künstliche Intelligenz (KI) und Nvidia. Ändern Sie nicht die Bedeutung des ursprünglichen Inhalts, optimieren Sie den Inhalt, schreiben Sie den Inhalt neu, fahren Sie nicht fort: „Darüber hinaus sind beide eng miteinander verbunden, da Nvidia nicht auf seine ursprüngliche Grafikverarbeitungseinheit (GPU) beschränkt ist ) erweitert es seine GPU. Die Technologie erstreckt sich auf den Bereich der digitalen Zwillinge und ist eng mit neuen KI-Technologien verbunden. „Vor kurzem hat NVIDIA eine Zusammenarbeit mit vielen Industrieunternehmen geschlossen, darunter führende Industrieautomatisierungsunternehmen wie Aveva, Rockwell Automation und Siemens und Schneider Electric sowie Teradyne Robotics und seine Unternehmen MiR und Universal Robots. Kürzlich hat Nvidia gesammelt

Herausgeber des Machine Power Report: Wu Xin Die heimische Version des humanoiden Roboters + eines großen Modellteams hat zum ersten Mal die Betriebsaufgabe komplexer flexibler Materialien wie das Falten von Kleidung abgeschlossen. Mit der Enthüllung von Figure01, das das multimodale große Modell von OpenAI integriert, haben die damit verbundenen Fortschritte inländischer Kollegen Aufmerksamkeit erregt. Erst gestern veröffentlichte UBTECH, Chinas „größter Bestand an humanoiden Robotern“, die erste Demo des humanoiden Roboters WalkerS, der tief in das große Modell von Baidu Wenxin integriert ist und einige interessante neue Funktionen aufweist. Jetzt sieht WalkerS, gesegnet mit Baidu Wenxins großen Modellfähigkeiten, so aus. Wie Figure01 bewegt sich WalkerS nicht umher, sondern steht hinter einem Schreibtisch, um eine Reihe von Aufgaben zu erledigen. Es kann menschlichen Befehlen folgen und Kleidung falten

Diese Woche gab FigureAI, ein Robotikunternehmen, an dem OpenAI, Microsoft, Bezos und Nvidia beteiligt sind, bekannt, dass es fast 700 Millionen US-Dollar an Finanzmitteln erhalten hat und plant, im nächsten Jahr einen humanoiden Roboter zu entwickeln, der selbstständig gehen kann. Und Teslas Optimus Prime hat immer wieder gute Nachrichten erhalten. Niemand zweifelt daran, dass dieses Jahr das Jahr sein wird, in dem humanoide Roboter explodieren. SanctuaryAI, ein in Kanada ansässiges Robotikunternehmen, hat kürzlich einen neuen humanoiden Roboter auf den Markt gebracht: Phoenix. Beamte behaupten, dass es viele Aufgaben autonom und mit der gleichen Geschwindigkeit wie Menschen erledigen kann. Pheonix, der weltweit erste Roboter, der Aufgaben autonom in menschlicher Geschwindigkeit erledigen kann, kann jedes Objekt sanft greifen, bewegen und elegant auf der linken und rechten Seite platzieren. Es kann Objekte autonom identifizieren
