Für Start-ups und große Unternehmen ist das Engagement für neue und transformative Technologien von entscheidender Bedeutung, um die aktuelle und zukünftige Wettbewerbsfähigkeit sicherzustellen. Künstliche Intelligenz (KI) bietet vielfältige Lösungen für immer mehr Branchen.
Im aktuellen Wirtschaftsklima muss Forschung und Entwicklung umfassender denn je finanziert werden. Unternehmen sind oft nicht davon überzeugt, in zukünftige Technologien und Infrastruktur zu investieren, und das Risiko eines Scheiterns setzt die Projektbeteiligten enorm unter Druck.
Das bedeutet jedoch nicht, dass Innovationen aufhören oder sich sogar verlangsamen sollten. Sowohl für Start-ups als auch für große Unternehmen ist das Engagement für neue und transformative Technologien von entscheidender Bedeutung, um die aktuelle und zukünftige Wettbewerbsfähigkeit sicherzustellen. Künstliche Intelligenz (KI) bietet vielfältige Lösungen für immer mehr Branchen.
Im letzten Jahrzehnt hat künstliche Intelligenz eine wichtige Rolle bei der Erschließung völlig neuer Umsatzmöglichkeiten gespielt. Vom Verständnis und der Vorhersage des Benutzerverhaltens bis hin zur Unterstützung bei der Generierung von Code und Inhalten hat die Revolution der künstlichen Intelligenz und des maschinellen Lernens (ML) den Wert, den Verbraucher aus ihren Apps, Websites und Onlinediensten ziehen, exponentiell gesteigert.
Diese Revolution beschränkt sich jedoch größtenteils auf die Cloud, wo praktisch unbegrenzter Speicher und Rechenleistung sowie praktische virtuelle Hardware von großen öffentlichen Cloud-Dienstanbietern die Etablierung von Best Practices für jede KI/ML-Anwendung ermöglichen. Muster werden relativ einfach sich vorstellen.
Da die KI-Verarbeitung hauptsächlich in der Cloud erfolgt, bleibt die KI/ML-Revolution für Edge-Geräte unerreichbar. Dies sind die kleineren Prozessoren mit geringerem Stromverbrauch, die in Fabrikhallen, auf Baustellen, in Forschungslabors, in Naturschutzgebieten, auf den Accessoires und Kleidungsstücken, die wir tragen, in den von uns versendeten Paketen und in jeder anderen Umgebung zu finden sind, in der Konnektivität, Speicherung und Berechnung erforderlich sind und Energie sind begrenzt oder nicht selbstverständlich. In ihrer Umgebung sind Rechenzyklen und Hardwarearchitektur von Bedeutung, und Budgets werden nicht an der Anzahl der Endpunkte oder Socket-Verbindungen gemessen, sondern an Watt und Nanosekunden.
CTOs, Führungskräfte aus den Bereichen Technik, Daten und maschinelles Lernen sowie Produktteams, die die nächste Technologiebarriere im Bereich KI/ML durchbrechen möchten, müssen nach vorne blicken. Edge AI und Edge ML stellen einzigartige und komplexe Herausforderungen dar, die eine sorgfältige Koordination und Einbindung vieler Interessengruppen mit umfassendem Fachwissen erfordern, das von Systemintegration, Design, Betrieb und Logistik bis hin zu Embedded-, Daten-, IT- und ML-Engineering reicht.
Edge AI bedeutet, dass der Algorithmus auf einer speziellen Hardware ausgeführt werden muss, von High-End-Gateways oder lokalen Servern bis hin zu Low-End-Energy-Harvesting-Sensoren und MCUs. Um den Erfolg solcher Produkte und Anwendungen sicherzustellen, müssen Daten- und ML-Teams eng mit Produkt- und Hardwareteams zusammenarbeiten, um die Bedürfnisse, Einschränkungen und Anforderungen des anderen zu verstehen und zu berücksichtigen.
Während die Herausforderungen beim Aufbau benutzerdefinierter Edge-KI-Lösungen nicht unüberwindbar sind, gibt es Plattformen für die Entwicklung von Edge-KI-Algorithmen, die dabei helfen können, die Lücke zwischen den erforderlichen Teams zu schließen, höhere Erfolgsniveaus in kürzerer Zeit zu gewährleisten und die Richtung weiterer Investitionen zu überprüfen gemacht werden. Hier sind weitere Dinge zu beachten.
Es ist weder effizient noch immer möglich, dass Data-Science- und ML-Teams Algorithmen entwickeln und diese dann an Firmware-Ingenieure weitergeben, um sie auf dem Gerät zu installieren. Hardware-in-the-Loop-Tests und -Bereitstellung sollten ein grundlegender Bestandteil jeder Edge-KI-Entwicklungspipeline sein. Ohne die Möglichkeit, Algorithmen gleichzeitig auf Hardware auszuführen und zu testen, ist es schwierig, die Speicher-, Leistungs- und Latenzbeschränkungen vorherzusehen, die bei der Entwicklung von Edge-KI-Algorithmen auftreten können.
Einige cloudbasierte Modellarchitekturen sind auch nicht für die Ausführung auf eingeschränkten Geräten oder Edge-Geräten gedacht. Eine frühzeitige Vorhersage kann sowohl Firmware- als auch ML-Teams monatelange Schmerzen ersparen.
Big Data bezieht sich auf große Datensätze, die analysiert werden können, um Muster oder Trends aufzudecken. Allerdings geht es bei Daten im Internet der Dinge (IoT) nicht unbedingt um Quantität, sondern eher um die Qualität der Daten. Darüber hinaus kann es sich bei diesen Daten um Zeitreihensensor- oder Audiodaten oder Bilder handeln, die möglicherweise eine Vorverarbeitung erfordern.
Durch die Kombination traditioneller Sensordatenverarbeitungstechnologien wie der digitalen Signalverarbeitung (DSP) mit KI/ML können neue Edge-KI-Algorithmen entstehen, die genaue Erkenntnisse liefern, die mit früheren Technologien nicht möglich waren. Aber IoT-Daten sind keine Big Data, daher variieren die Menge und die Analyse dieser Datensätze, die für die Edge-KI-Entwicklung verwendet werden. Das schnelle Experimentieren mit der Größe und Qualität von Datensätzen auf der Grundlage der resultierenden Modellgenauigkeit und -leistung ist ein wichtiger Schritt auf dem Weg zu in der Produktion einsetzbaren Algorithmen.
Hardware zu bauen ist schwierig, ohne zu wissen, ob die ausgewählte Hardware anspruchsvolle KI-Software-Workloads ausführen kann. Es ist wichtig, mit dem Benchmarking Ihrer Hardware zu beginnen, bevor Sie eine Stückliste auswählen. Bei vorhandener Hardware können Einschränkungen des auf dem Gerät verfügbaren Speichers kritischer sein.
Selbst bei frühen, kleinen Datensätzen können Edge-KI-Entwicklungsplattformen damit beginnen, Leistungs- und Speicherschätzungen für die Arten von Hardware bereitzustellen, die zum Ausführen von KI-Workloads erforderlich sind.
Ein Prozess zur Abwägung der Geräteauswahl und zum Benchmarking mit frühen Versionen von Edge-KI-Modellen stellt sicher, dass Hardwareunterstützung vorhanden ist, um die erforderliche Firmware und KI-Modelle zu unterstützen, die auf dem Gerät ausgeführt werden.
Bei der Auswahl einer Entwicklungsplattform lohnt es sich auch, die technische Unterstützung verschiedener Anbieter zu berücksichtigen. Edge AI umfasst Datenwissenschaft, ML, Firmware und Hardware. Für Anbieter ist es wichtig, in Bereichen Orientierung zu geben, in denen interne Entwicklungsteams möglicherweise zusätzliche Unterstützung benötigen.
In manchen Fällen geht es weniger um das eigentliche Modell, das entwickelt wird, als vielmehr um die Planung des Entwurfsprozesses auf Systemebene, einschließlich Dateninfrastruktur, ML-Entwicklungstools, Tests, Bereitstellungsumgebungen und kontinuierlicher Integration, kontinuierlicher Bereitstellung (CI). /CD)-Rohr.
Schließlich ist es wichtig, dass Edge-KI-Entwicklungstools den verschiedenen Benutzern in Ihrem Team gerecht werden – vom ML-Ingenieur bis zum Firmware-Entwickler. Die Low-Code/No-Code-Benutzeroberfläche ist eine großartige Möglichkeit, schnell Prototypen zu erstellen und neue Anwendungen zu erstellen, während die API und das SDK für erfahrenere ML-Entwickler nützlich sind, die mit Python aus Jupyter-Notebooks besser und schneller arbeiten können.
Die Plattform bietet den Vorteil eines flexiblen Zugriffs und geht auf die Bedürfnisse mehrerer Interessengruppen oder Entwickler ein, die möglicherweise in funktionsübergreifenden Teams vorhanden sind, die Edge-KI-Anwendungen entwickeln.
Das obige ist der detaillierte Inhalt vonWie nutzt man Edge-KI, um neue Möglichkeiten zu entdecken?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!