Inhaltsverzeichnis
Der Inhalt, der neu geschrieben werden muss, ist: △Bildquelle: University of Washington
Der erste batterielose autonome Roboter
Heim Technologie-Peripheriegeräte KI Um „autonomes Fahren' ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer

Um „autonomes Fahren' ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer

Oct 04, 2023 pm 12:41 PM
机器人 自动驾驶

Ein „Auto“, das ohne Batterie selbstständig fahren kann, ist aufgetaucht.

Es sammelt sogar automatisch Energie, um weiterzulaufen, ohne Angst vor der Kilometerleistung (manuelle Probleme).

Um „autonomes Fahren ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer

Ja, so ein kleiner Roboter ist tatsächlich auf Licht und Radiowellen angewiesen, um seine Energie zu erhalten. Sein Name ist MilliMobile von der University of Washington.

Obwohl es nur so groß wie ein Fingernagel ist und etwa so viel wiegt wie eine Rosine, kann es problemlos Ausrüstung tragen, die das Dreifache seines Eigengewichts beträgt

und kann nicht nur auf Betonstraßen laufen, sondern sich auch auf „ländlichen Feldwegen“ frei bewegen ".

Um „autonomes Fahren ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer
Der Inhalt, der neu geschrieben werden muss, ist: △Bildquelle: University of Washington

Der erste batterielose autonome Roboter

Kleine Roboter mit Sensoren werden häufig zur Durchführung industrieller Aufgaben wie der Erkennung von Gaslecks und der Verfolgung eingesetzt Lagerung. Ein großes Problem besteht jedoch darin, dass Einwegbatterien nicht nur die Lebensdauer des Roboters begrenzen, sondern auch nicht sehr umweltfreundlich sind.

Forscher haben nach Alternativen gesucht, wie zum Beispiel das Anbringen von Sensoren direkt an Insekten

Um „autonomes Fahren ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer

Was neu geschrieben werden muss, ist: △Bildquelle: University of Washington

Forscher an der University of Washington glauben jedoch eindeutig, dass frühere Methoden Nicht kontrollierbar genug. Sie schlugen eine neue Idee vor, die darin besteht, den Roboter durch „intermittierende Bewegung“ anzutreiben

Einfach ausgedrückt geht es einerseits darum, die Größe und das Gewicht des Roboters zu reduzieren, sodass er mit extrem geringer Leistung arbeiten kann( 57 Mikrometer unter der Fliese).

Die Forscher führten außerdem ein weiteres Experiment durch, bei dem sie Folienkondensatoren auf MilliMobile installierten, um Energie aus Sonnenlicht und Radiowellen zu speichern. Wenn die im Kondensator gespeicherte Energie einen bestimmten Schwellenwert erreicht, kann der Motor angetrieben werden, um einen kurzen Bewegungsimpuls zu erzeugen, der den Roboter dazu veranlasst, sich zu bewegen. Kann dieser Roboter wirklich laufen?

Den Forschern ist das Experiment wirklich gelungen: Selbst an einem bewölkten Tag kann MilliMobile in einer Stunde eine Distanz von 10 Metern zurücklegen – Um „autonomes Fahren ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer

Die Geschwindigkeit ist zwar nicht hoch, aber die Forscher sagten, solange es diese kontinuierlich nutzen kann Der schnelle Betrieb kann neue Roboterfähigkeiten in Bereiche bringen, in denen es in der Vergangenheit schwierig war, Daten durch den Einsatz von Sensoren zu erhalten.

Wie bereits erwähnt, verfügt MilliMobile trotz seiner geringen Größe über sehr umfassende Funktionen, darunter die folgenden:

4 Fotodioden, die zur Erkennung der Lichtintensität in 4 Richtungen verwendet werden, sodass der Roboter selbstständig Lichtquellen zum Aufladen finden kann

Temperatur- und Feuchtigkeitssensor

    Beschleunigungsmesser
  • Magnetischer Sensor
  • Gassensor
  • Mikrokamera
  • Drahtloser Kommunikationschip
  • Auf diese Weise verfügt MilliMobile über verschiedene Sensorfunktionen und kann Gelände für autonomes Fahren erkennen.
  • Sie können die Lichtquelle selbst drehen, um sich aufzuladen.

Es kann eine umfassende räumliche Abtastung durchführen und eine detailliertere Umgebungsansicht erstellen.

Um „autonomes Fahren ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer

Durch die Optimierung des synchronen Übertragungsprotokolls auf Softwareebene können Daten auch in einer Reichweite von 200 Metern übertragen werden.

Zusammenfassend lässt sich sagen, dass MilliMobile Autonomie in Bezug auf Stromversorgung, Steuerung und Kommunikation erreicht hat. Um „autonomes Fahren ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer

In einer Rezension einer Technologie-Website hieß es: Dieses Projekt hat den Hauch von Science-Fiction in die Realität umgesetzt

Was denken Sie?

Um „autonomes Fahren ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter BatterielebensdauerReferenzlink:

[1]https://www.washington.edu/news/2023/09/27/millimobile-battery-free-autonomous-self-driving-robot-solar/.

[2] Papieradresse: https://homes.cs.washington.edu/~vsiyer/Papers/millimobile-compressed.pdf.

Das obige ist der detaillierte Inhalt vonUm „autonomes Fahren' ohne Batterien zu erreichen, entwickelt die University of Washington einen Roboter mit unbegrenzter Batterielebensdauer. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn

Heiße KI -Werkzeuge

Undresser.AI Undress

Undresser.AI Undress

KI-gestützte App zum Erstellen realistischer Aktfotos

AI Clothes Remover

AI Clothes Remover

Online-KI-Tool zum Entfernen von Kleidung aus Fotos.

Undress AI Tool

Undress AI Tool

Ausziehbilder kostenlos

Clothoff.io

Clothoff.io

KI-Kleiderentferner

AI Hentai Generator

AI Hentai Generator

Erstellen Sie kostenlos Ai Hentai.

Heißer Artikel

R.E.P.O. Energiekristalle erklärten und was sie tun (gelber Kristall)
2 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Repo: Wie man Teamkollegen wiederbelebt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌
Hello Kitty Island Abenteuer: Wie man riesige Samen bekommt
4 Wochen vor By 尊渡假赌尊渡假赌尊渡假赌

Heiße Werkzeuge

Notepad++7.3.1

Notepad++7.3.1

Einfach zu bedienender und kostenloser Code-Editor

SublimeText3 chinesische Version

SublimeText3 chinesische Version

Chinesische Version, sehr einfach zu bedienen

Senden Sie Studio 13.0.1

Senden Sie Studio 13.0.1

Leistungsstarke integrierte PHP-Entwicklungsumgebung

Dreamweaver CS6

Dreamweaver CS6

Visuelle Webentwicklungstools

SublimeText3 Mac-Version

SublimeText3 Mac-Version

Codebearbeitungssoftware auf Gottesniveau (SublimeText3)

Warum ist Gaussian Splatting beim autonomen Fahren so beliebt, dass NeRF allmählich aufgegeben wird? Warum ist Gaussian Splatting beim autonomen Fahren so beliebt, dass NeRF allmählich aufgegeben wird? Jan 17, 2024 pm 02:57 PM

Oben geschrieben und persönliches Verständnis des Autors. Dreidimensionales Gaussplatting (3DGS) ist eine transformative Technologie, die in den letzten Jahren in den Bereichen explizite Strahlungsfelder und Computergrafik entstanden ist. Diese innovative Methode zeichnet sich durch die Verwendung von Millionen von 3D-Gaußkurven aus, was sich stark von der Neural Radiation Field (NeRF)-Methode unterscheidet, die hauptsächlich ein implizites koordinatenbasiertes Modell verwendet, um räumliche Koordinaten auf Pixelwerte abzubilden. Mit seiner expliziten Szenendarstellung und differenzierbaren Rendering-Algorithmen garantiert 3DGS nicht nur Echtzeit-Rendering-Fähigkeiten, sondern führt auch ein beispielloses Maß an Kontrolle und Szenenbearbeitung ein. Dies positioniert 3DGS als potenziellen Game-Changer für die 3D-Rekonstruktion und -Darstellung der nächsten Generation. Zu diesem Zweck geben wir erstmals einen systematischen Überblick über die neuesten Entwicklungen und Anliegen im Bereich 3DGS.

Wie lässt sich das Long-Tail-Problem in autonomen Fahrszenarien lösen? Wie lässt sich das Long-Tail-Problem in autonomen Fahrszenarien lösen? Jun 02, 2024 pm 02:44 PM

Gestern wurde ich während des Interviews gefragt, ob ich irgendwelche Long-Tail-Fragen gestellt hätte, also dachte ich, ich würde eine kurze Zusammenfassung geben. Das Long-Tail-Problem des autonomen Fahrens bezieht sich auf Randfälle bei autonomen Fahrzeugen, also mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. Das wahrgenommene Long-Tail-Problem ist einer der Hauptgründe, die derzeit den betrieblichen Designbereich intelligenter autonomer Einzelfahrzeugfahrzeuge einschränken. Die zugrunde liegende Architektur und die meisten technischen Probleme des autonomen Fahrens wurden gelöst, und die verbleibenden 5 % der Long-Tail-Probleme wurden nach und nach zum Schlüssel zur Einschränkung der Entwicklung des autonomen Fahrens. Zu diesen Problemen gehören eine Vielzahl fragmentierter Szenarien, Extremsituationen und unvorhersehbares menschliches Verhalten. Der „Long Tail“ von Randszenarien beim autonomen Fahren bezieht sich auf Randfälle in autonomen Fahrzeugen (AVs). Randfälle sind mögliche Szenarien mit geringer Eintrittswahrscheinlichkeit. diese seltenen Ereignisse

Dieser Artikel reicht aus, um etwas über autonomes Fahren und Flugbahnvorhersage zu lesen! Dieser Artikel reicht aus, um etwas über autonomes Fahren und Flugbahnvorhersage zu lesen! Feb 28, 2024 pm 07:20 PM

Die Trajektorienvorhersage spielt eine wichtige Rolle beim autonomen Fahren. Unter autonomer Fahrtrajektorienvorhersage versteht man die Vorhersage der zukünftigen Fahrtrajektorie des Fahrzeugs durch die Analyse verschiedener Daten während des Fahrvorgangs. Als Kernmodul des autonomen Fahrens ist die Qualität der Trajektorienvorhersage von entscheidender Bedeutung für die nachgelagerte Planungssteuerung. Die Trajektorienvorhersageaufgabe verfügt über einen umfangreichen Technologie-Stack und erfordert Vertrautheit mit der dynamischen/statischen Wahrnehmung des autonomen Fahrens, hochpräzisen Karten, Fahrspurlinien, Fähigkeiten in der neuronalen Netzwerkarchitektur (CNN&GNN&Transformer) usw. Der Einstieg ist sehr schwierig! Viele Fans hoffen, so schnell wie möglich mit der Flugbahnvorhersage beginnen zu können und Fallstricke zu vermeiden. Heute werde ich eine Bestandsaufnahme einiger häufiger Probleme und einführender Lernmethoden für die Flugbahnvorhersage machen! Einführungsbezogenes Wissen 1. Sind die Vorschaupapiere in Ordnung? A: Schauen Sie sich zuerst die Umfrage an, S

Kamera oder Lidar wählen? Eine aktuelle Übersicht über die Erzielung einer robusten 3D-Objekterkennung Kamera oder Lidar wählen? Eine aktuelle Übersicht über die Erzielung einer robusten 3D-Objekterkennung Jan 26, 2024 am 11:18 AM

0. Vorab geschrieben&& Persönliches Verständnis, dass autonome Fahrsysteme auf fortschrittlichen Wahrnehmungs-, Entscheidungs- und Steuerungstechnologien beruhen, indem sie verschiedene Sensoren (wie Kameras, Lidar, Radar usw.) verwenden, um die Umgebung wahrzunehmen, und Algorithmen und Modelle verwenden für Echtzeitanalysen und Entscheidungsfindung. Dies ermöglicht es Fahrzeugen, Verkehrszeichen zu erkennen, andere Fahrzeuge zu erkennen und zu verfolgen, das Verhalten von Fußgängern vorherzusagen usw. und sich so sicher an komplexe Verkehrsumgebungen anzupassen. Diese Technologie erregt derzeit große Aufmerksamkeit und gilt als wichtiger Entwicklungsbereich für die Zukunft des Transportwesens . eins. Aber was autonomes Fahren schwierig macht, ist herauszufinden, wie man dem Auto klarmachen kann, was um es herum passiert. Dies erfordert, dass der dreidimensionale Objekterkennungsalgorithmus im autonomen Fahrsystem Objekte in der Umgebung, einschließlich ihrer Standorte, genau wahrnehmen und beschreiben kann.

SIMPL: Ein einfacher und effizienter Multi-Agent-Benchmark zur Bewegungsvorhersage für autonomes Fahren SIMPL: Ein einfacher und effizienter Multi-Agent-Benchmark zur Bewegungsvorhersage für autonomes Fahren Feb 20, 2024 am 11:48 AM

Originaltitel: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving Paper-Link: https://arxiv.org/pdf/2402.02519.pdf Code-Link: https://github.com/HKUST-Aerial-Robotics/SIMPL Autor: Hong Kong University of Science und Technologie DJI-Papieridee: Dieses Papier schlägt eine einfache und effiziente Bewegungsvorhersagebasislinie (SIMPL) für autonome Fahrzeuge vor. Im Vergleich zum herkömmlichen Agent-Cent

Der Ameca der zweiten Generation ist da! Er kann fließend mit dem Publikum kommunizieren, sein Gesichtsausdruck ist realistischer und er kann Dutzende Sprachen sprechen. Der Ameca der zweiten Generation ist da! Er kann fließend mit dem Publikum kommunizieren, sein Gesichtsausdruck ist realistischer und er kann Dutzende Sprachen sprechen. Mar 04, 2024 am 09:10 AM

Der humanoide Roboter Ameca wurde auf die zweite Generation aufgerüstet! Kürzlich erschien auf der World Mobile Communications Conference MWC2024 erneut der weltweit fortschrittlichste Roboter Ameca. Rund um den Veranstaltungsort lockte Ameca zahlreiche Zuschauer an. Mit dem Segen von GPT-4 kann Ameca in Echtzeit auf verschiedene Probleme reagieren. „Lass uns tanzen.“ Auf die Frage, ob sie Gefühle habe, antwortete Ameca mit einer Reihe von Gesichtsausdrücken, die sehr lebensecht aussahen. Erst vor wenigen Tagen stellte EngineeredArts, das britische Robotikunternehmen hinter Ameca, die neuesten Entwicklungsergebnisse des Teams vor. Im Video verfügt der Roboter Ameca über visuelle Fähigkeiten und kann den gesamten Raum und bestimmte Objekte sehen und beschreiben. Das Erstaunlichste ist, dass sie es auch kann

Der erste Roboter erscheint, der menschliche Aufgaben autonom erledigt, mit fünf flexiblen Fingern und übermenschlicher Geschwindigkeit, und große Modelle unterstützen das Training im virtuellen Raum Der erste Roboter erscheint, der menschliche Aufgaben autonom erledigt, mit fünf flexiblen Fingern und übermenschlicher Geschwindigkeit, und große Modelle unterstützen das Training im virtuellen Raum Mar 11, 2024 pm 12:10 PM

Diese Woche gab FigureAI, ein Robotikunternehmen, an dem OpenAI, Microsoft, Bezos und Nvidia beteiligt sind, bekannt, dass es fast 700 Millionen US-Dollar an Finanzmitteln erhalten hat und plant, im nächsten Jahr einen humanoiden Roboter zu entwickeln, der selbstständig gehen kann. Und Teslas Optimus Prime hat immer wieder gute Nachrichten erhalten. Niemand zweifelt daran, dass dieses Jahr das Jahr sein wird, in dem humanoide Roboter explodieren. SanctuaryAI, ein in Kanada ansässiges Robotikunternehmen, hat kürzlich einen neuen humanoiden Roboter auf den Markt gebracht: Phoenix. Beamte behaupten, dass es viele Aufgaben autonom und mit der gleichen Geschwindigkeit wie Menschen erledigen kann. Pheonix, der weltweit erste Roboter, der Aufgaben autonom in menschlicher Geschwindigkeit erledigen kann, kann jedes Objekt sanft greifen, bewegen und elegant auf der linken und rechten Seite platzieren. Es kann Objekte autonom identifizieren

nuScenes' neuestes SOTA |. SparseAD: Sparse-Abfrage hilft effizientes durchgängiges autonomes Fahren! nuScenes' neuestes SOTA |. SparseAD: Sparse-Abfrage hilft effizientes durchgängiges autonomes Fahren! Apr 17, 2024 pm 06:22 PM

Vorab geschrieben und Ausgangspunkt Das End-to-End-Paradigma verwendet ein einheitliches Framework, um Multitasking in autonomen Fahrsystemen zu erreichen. Trotz der Einfachheit und Klarheit dieses Paradigmas bleibt die Leistung von End-to-End-Methoden für das autonome Fahren bei Teilaufgaben immer noch weit hinter Methoden für einzelne Aufgaben zurück. Gleichzeitig erschweren die in früheren End-to-End-Methoden weit verbreiteten Funktionen der dichten Vogelperspektive (BEV) die Skalierung auf mehr Modalitäten oder Aufgaben. Hier wird ein Sparse-Search-zentriertes End-to-End-Paradigma für autonomes Fahren (SparseAD) vorgeschlagen, bei dem die Sparse-Suche das gesamte Fahrszenario, einschließlich Raum, Zeit und Aufgaben, ohne dichte BEV-Darstellung vollständig abbildet. Insbesondere ist eine einheitliche, spärliche Architektur für die Aufgabenerkennung einschließlich Erkennung, Verfolgung und Online-Zuordnung konzipiert. Zudem schwer

See all articles