In diesem Artikel gehen wir hauptsächlich zwei Hauptfragen nach, nämlich den Gründen für die Implementierung künstlicher Intelligenz in „kleinen Maschinen“ und welchen Herausforderungen wird es bei der Entwicklung kleiner Maschinen mit künstlicher Intelligenz in der Zukunft gegenüberstehen? Wenn es um künstliche Intelligenz geht, sollten wir fliegende Autos und Roboter-Butler haben. Wir könnten sogar auf empfindungsfähige Roboter stoßen, die beschließen, gegen uns zu rebellieren. Obwohl wir noch nicht ganz am Ziel sind, ist es klar, dass die Technologie der künstlichen Intelligenz (KI) Einzug in unsere Welt gehalten hat.
Jedes Mal, wenn wir den intelligenten Sprachassistenten auffordern, etwas zu tun, erkennt die maschinelle Lerntechnologie zunächst, was Sie gesagt haben, und versucht, die beste Entscheidung zu treffen, was Sie tun möchten. Jedes Mal, wenn Ihnen eine Video-Website oder E-Commerce-Plattform „Filme, die Ihnen gefallen könnten“ oder „Produkte, die Sie benötigen“ empfiehlt, basiert sie auf komplexen maschinellen Lernalgorithmen, um Ihnen möglichst überzeugende Informationen zu liefern. Dies ist deutlich attraktiver als frühere Aktionen.
Auch wenn wir vielleicht nicht alle über selbstfahrende Autos verfügen, sind wir uns der Entwicklungen in diesem Bereich und des Potenzials, das die autonome Navigation bietet, sehr bewusst.
Die Technologie der künstlichen Intelligenz verspricht viel – Maschinen können Entscheidungen auf der Grundlage der sie umgebenden Welt treffen und Informationen wie Menschen oder sogar auf eine Weise verarbeiten, die besser als Menschen ist. Wenn wir jedoch über die obigen Beispiele nachdenken, sehen wir, dass das Versprechen der KI nur durch „große Maschinen“ verwirklicht werden kann, die in der Regel keine Leistungs-, Größen- oder Kostenbeschränkungen haben. Mit anderen Worten: Sie heizen, sind drahtgebunden, groß und teuer. Beispielsweise verlassen sich weltweit führende IT-Giganten wie Alexa und Netflix auf große stromhungrige Server (Rechenzentren) in der Cloud, um Rückschlüsse auf die Absichten der Benutzer zu ziehen.
Während selbstfahrende Autos höchstwahrscheinlich auf Batterien angewiesen sind, ist ihre Energiekapazität enorm, wenn man bedenkt, dass diese Batterien die Räder drehen und lenken müssen. Im Vergleich zu den teuersten KI-Entscheidungen sind das enorme Energieausgaben.
Trotz der Versprechen künstlicher Intelligenz bleiben „kleine Maschinen“ zurück. Geräte, die mit kleineren Batterien betrieben werden oder Kosten- und Größenbeschränkungen unterliegen, können der Idee, dass Maschinen sehen und hören können, nicht gerecht werden. Heutzutage können diese kleinen Maschinen nur einfache Techniken der künstlichen Intelligenz nutzen, beispielsweise auf ein Schlüsselwort achten oder niederdimensionale Signale der Herzfrequenz analysieren, wie etwa die Photoplethysmographie (PPG).
Was wäre, wenn die kleine Maschine sehen und hören könnte?
Wenn also KI für kleine Maschinen so wertvoll ist, warum nutzen wir sie dann nicht bereits in größerem Umfang? Die Antwort ist Rechenleistung. Das Denken mit künstlicher Intelligenz ist das Ergebnis von Modellberechnungen neuronaler Netzwerke. Stellen Sie sich ein neuronales Netzwerkmodell als eine grobe Annäherung daran vor, wie Ihr Gehirn ein Bild oder einen Ton verarbeitet, es in sehr kleine Teile zerlegt und dann Muster erkennt, wenn diese kleinen Teile zusammengesetzt werden.
Das Hauptmodell für moderne Sehprobleme ist das Convolutional Neural Network (CNN). Diese Modelle eignen sich hervorragend für die Bildanalyse und sind auch für die Audioanalyse sehr nützlich. Die Herausforderung besteht darin, dass solche Modelle Millionen oder Milliarden mathematischer Berechnungen erfordern. Traditionell waren diese Anwendungen schwierig zu implementieren:
Was wir brauchen, ist eine eingebettete Lösung für künstliche Intelligenz, die von Grund auf entwickelt wurde, um den Energieverbrauch von CNN-Berechnungen zu minimieren. Die KI-Inferenz muss im Vergleich zu herkömmlichen Mikrocontroller- oder Prozessorlösungen in einer Größenordnung durchgeführt werden und erfordert nicht die Hilfe externer Komponenten wie Speicher, die Energie, Volumen und Kosten verbrauchen.
Wenn KI-Inferenzlösungen den Energieverlust der maschinellen Bildverarbeitung eliminieren könnten, könnten selbst die kleinsten Geräte sehen und identifizieren, was in der Welt um sie herum geschieht.
Glücklicherweise stehen wir am Anfang dieser Revolution der „kleinen Maschine“. Es sind jetzt Produkte verfügbar, die die Energiekosten der KI-Inferenz praktisch eliminieren und eine batteriebetriebene maschinelle Bildverarbeitung ermöglichen. Beispielsweise kann ein Mikrocontroller verwendet werden, um KI-Inferenzen durchzuführen und dabei nur Mikrojoule Energie zu verbrauchen.
Das obige ist der detaillierte Inhalt vonTräume und Herausforderungen der künstlichen Intelligenz. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!