Mit zunehmender Reife der künstlichen Intelligenz (KI) nimmt die Akzeptanz weiter zu. Jüngsten Untersuchungen zufolge nutzen 35 % der Unternehmen künstliche Intelligenz und 42 % erforschen deren Potenzial. Während KI gut verstanden und in großer Zahl in der Cloud eingesetzt wird, steckt sie am Rande noch in den Kinderschuhen und steht vor einigen einzigartigen Herausforderungen.
Viele Menschen nutzen den ganzen Tag über künstliche Intelligenz, von der Navigation ihres Autos über die Verfolgung ihrer Schritte bis hin zur Kommunikation mit digitalen Assistenten. Auch wenn Nutzer häufig über mobile Geräte auf diese Dienste zugreifen, liegen die Ergebnisse der Berechnungen auch in der Cloud-Nutzung von KI vor. Genauer gesagt fordert eine Person Informationen an, die Anfrage wird von einem zentralen Lernmodell in der Cloud verarbeitet und die Ergebnisse werden an das lokale Gerät der Person zurückgesendet.
Edge AI wird seltener verstanden und eingesetzt als Cloud AI. Von Anfang an basierten KI-Algorithmen und -Innovationen auf der Grundannahme, dass alle Daten an einen zentralen Ort gesendet werden können. An diesem zentralen Ort haben Algorithmen vollen Zugriff auf die Daten. Dadurch kann der Algorithmus seine Intelligenz wie ein Gehirn oder ein Zentralnervensystem aufbauen und hat vollen Zugriff auf Berechnungen und Daten.
Allerdings ist KI am Rande anders. Es verteilt die Intelligenz über alle Zellen und Nerven. Indem wir Intelligenz an den Rand bringen, verleihen wir diesen Edge-Geräten Entscheidungsfreiheit. Dies ist in vielen Anwendungen und Bereichen wie dem Gesundheitswesen und der industriellen Fertigung von entscheidender Bedeutung.
Es gibt drei Hauptgründe für den Einsatz von KI am Edge.
Schutz persönlich identifizierbarer Informationen (PII)
Erstens ziehen es einige Organisationen, die mit PII oder sensiblem IP (geistigem Eigentum) umgehen, vor, die Daten aufzubewahren An ihrer Quelle – in bildgebenden Geräten in Krankenhäusern oder Produktionsmaschinen in Fabrikhallen. Dies verringert das Risiko einer „Drift“ oder „Leckage“, die bei der Datenübertragung über das Netzwerk auftreten kann.
Bandbreitennutzung minimieren
Das zweite ist das Bandbreitenproblem. Das Senden großer Datenmengen vom Edge in die Cloud würde das Netzwerk verstopfen und in manchen Fällen unpraktisch sein. Es ist nicht ungewöhnlich, dass bildgebende Geräte in Gesundheitsumgebungen Dateien erzeugen, die so groß sind, dass deren Übertragung in die Cloud unmöglich ist oder Tage dauert.
Die einfache Verarbeitung von Daten am Edge ist effektiver, insbesondere wenn die Erkenntnisse auf die Verbesserung proprietärer Maschinen abzielen. In der Vergangenheit war die Verlagerung und Wartung von Computern viel schwieriger, daher mussten diese Daten an den Computerstandort verschoben werden. Dieses Paradigma wird jetzt in Frage gestellt, da Daten oft wichtiger und schwieriger zu verwalten sind, was zu Anwendungsfällen führt, die eine Verlagerung der Berechnungen an den Speicherort der Daten rechtfertigen.
Latenz vermeiden
Der dritte Grund für den Einsatz von KI am Edge ist die Latenz. Das Internet ist schnell, aber nicht in Echtzeit. Wenn es Situationen gibt, in denen es auf Millisekunden ankommt, wie zum Beispiel bei der Unterstützung von Arztpraxen durch Roboterarme oder bei zeitkritischen Produktionslinien, entscheiden sich Unternehmen möglicherweise dafür, KI an der Edge einzusetzen.
Trotz dieser Vorteile gibt es beim Einsatz von KI am Edge immer noch einige einzigartige Herausforderungen. Hier sind einige Tipps, die Sie berücksichtigen sollten, um diese Herausforderungen zu bewältigen.
Gute und schlechte Ergebnisse des Modelltrainings
Die meisten KI-Technologien verwenden große Datenmengen, um Modelle zu trainieren. In industriellen Edge-Anwendungsfällen wird dies jedoch oft schwieriger, da die meisten hergestellten Produkte fehlerfrei sind und daher als gut gekennzeichnet oder mit Anmerkungen versehen sind. Das daraus resultierende Ungleichgewicht zwischen „guten Ergebnissen“ und „schlechten Ergebnissen“ erschwert es dem Modell, Probleme zu erkennen.
Reine KI-Lösungen, die auf Datenklassifizierung ohne Kontextinformationen basieren, sind aufgrund des Mangels an gekennzeichneten Daten und sogar des Auftretens seltener Ereignisse oft nicht einfach zu erstellen und bereitzustellen. Das Hinzufügen von Kontext zur KI, auch bekannt als datenzentrierter Ansatz, bringt oft Vorteile im Hinblick auf Genauigkeit und Umfang der endgültigen Lösung. Die Wahrheit ist, dass KI zwar oft alltägliche Aufgaben ersetzen kann, die manuell von Menschen ausgeführt werden, sie jedoch beim Erstellen von Modellen stark von menschlichen Erkenntnissen profitiert, insbesondere wenn nicht viele Daten zur Verfügung stehen, mit denen sie arbeiten kann.
Holen Sie sich die Zusage erfahrener Fachexperten, die eng mit den Datenwissenschaftlern zusammenarbeiten, die die Algorithmen entwickeln, um einen Startschuss für das KI-Lernen zu geben.
KI kann nicht auf magische Weise jedes Problem lösen oder eine Antwort darauf geben.
Normalerweise sind es viele Schritte, die in die Ausgabe einfließen. Beispielsweise kann es in einer Fabrikhalle viele Arbeitsplätze geben, die voneinander abhängig sind. Feuchtigkeit in einem Bereich der Fabrik während eines Prozesses kann die Ergebnisse eines anderen Prozesses später in einem anderen Bereich der Produktionslinie beeinflussen.
Man denkt oft, dass künstliche Intelligenz all diese Beziehungen auf magische Weise zusammenfügen kann. Obwohl dies in vielen Fällen möglich ist, kann es auch große Datenmengen und eine lange Zeit für die Erfassung erfordern, was zu sehr komplexen Algorithmen führt, die keine Interpretierbarkeit und Aktualisierung unterstützen.
Künstliche Intelligenz kann nicht im luftleeren Raum leben. Die Erfassung dieser gegenseitigen Abhängigkeiten wird den Rahmen von einer einfachen Lösung zu einer Lösung erweitern, die sich im Laufe der Zeit und über verschiedene Bereitstellungen hinweg skalieren lässt.
Mangelnde Unterstützung der Stakeholder wird den Umfang der KI einschränken
Es ist schwierig, KI im gesamten Unternehmen zu skalieren, wenn eine Gruppe von Personen in der Organisation ihren Vorteilen skeptisch gegenübersteht. Der beste (vielleicht einzige) Weg, breite Unterstützung zu gewinnen, besteht darin, mit einem hochwertigen, schwierigen Problem zu beginnen und es dann mithilfe von KI zu lösen.
Bei Audi erwägen wir die Lösung des Problems der Häufigkeit des Austauschs von Schweißpistolenelektroden. Aber die geringen Kosten der Elektroden machen die alltäglichen Aufgaben des Menschen nicht überflüssig. Stattdessen entschieden sie sich für einen Schweißprozess, der in der gesamten Branche allgemein als schwieriges Problem gilt, und verbesserten die Qualität des Prozesses durch künstliche Intelligenz deutlich. Dies regte die Fantasie von Ingenieuren im gesamten Unternehmen an, die sich mit der Frage beschäftigten, wie KI in anderen Prozessen eingesetzt werden könnte, um die Effizienz und Qualität zu verbessern.
Der Einsatz von KI am Edge kann Organisationen und ihren Teams helfen. Es hat das Potenzial, Einrichtungen in intelligente Edges umzuwandeln, die Qualität zu verbessern, Herstellungsprozesse zu optimieren und Entwickler und Ingenieure im gesamten Unternehmen dazu zu inspirieren, zu erkunden, wie sie KI integrieren oder KI-Anwendungsfälle vorantreiben können, einschließlich prädiktiver Analysen, Empfehlungen zur Verbesserung der Effizienz oder von Anomalien Erkennung. Aber es bringt auch neue Herausforderungen mit sich. Als Branche müssen wir in der Lage sein, es bereitzustellen und gleichzeitig die Latenz zu reduzieren, die Privatsphäre zu erhöhen, geistiges Eigentum zu schützen und den reibungslosen Betrieb des Netzwerks aufrechtzuerhalten.
Das obige ist der detaillierte Inhalt vonKI am Netzwerkrand: Drei Tipps, die Sie vor der Bereitstellung berücksichtigen sollten. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!