Das wahre Zeichen von Größe, wenn es um Infrastruktur geht, ist, dass man sie beim Fliegen leicht ignorieren kann. Je besser es funktioniert, desto weniger denken wir darüber nach. Die Bedeutung der mobilen Infrastruktur wird uns beispielsweise erst bewusst, wenn wir Schwierigkeiten haben, eine Verbindung herzustellen. Genau wie wenn wir eine neue, frisch asphaltierte Autobahn entlangfahren, machen wir uns kaum Gedanken über die Straßenoberfläche, die lautlos unter unseren Rädern vorbeizieht. Eine schlecht instandgehaltene Autobahn hingegen erinnert uns mit jedem Schlagloch, jeder Delle und jeder Unebenheit an ihre Existenz.
Infrastruktur braucht unsere Aufmerksamkeit nur dann, wenn sie fehlt, unzureichend oder beschädigt ist. Und beim Computer Vision ist die Infrastruktur – oder vielmehr das, was ihr fehlt – das, worüber sich derzeit viele Sorgen machen.
Jedem AI/ML-Projekt (einschließlich Computer Vision) liegen drei grundlegende Entwicklungssäulen zugrunde: Daten, Algorithmen/Modelle und Computing. Von diesen drei Säulen ist die Informatik mit Abstand diejenige mit der stärksten und solidesten Infrastruktur. Durch jahrzehntelange gezielte Unternehmensinvestitionen und -entwicklung ist Cloud Computing zum Goldstandard für die IT-Infrastruktur in allen IT-Umgebungen von Unternehmen geworden – und Computer Vision bildet da keine Ausnahme.
In einem Infrastructure-as-a-Service-Modell genießen Entwickler seit fast 20 Jahren On-Demand- und Pay-as-you-go-Zugriff auf eine ständig wachsende Pipeline an Rechenleistung. In dieser Zeit hat es die Unternehmens-IT revolutioniert, indem es Agilität, Kosteneffizienz, Skalierbarkeit und mehr erheblich verbessert hat. Mit dem Aufkommen dedizierter GPUs für maschinelles Lernen kann man mit Sicherheit sagen, dass dieser Teil des Computer-Vision-Infrastruktur-Stacks lebendig und gesund ist. Wenn wir sehen wollen, dass Computer Vision und KI ihr volles Potenzial ausschöpfen, wäre es klug, Computing als Modell zu verwenden, auf dem der Rest des CV-Infrastruktur-Stacks basiert.
Bis vor kurzem waren Algorithmen und Modellentwicklung die treibende Kraft hinter der Entwicklung von Computer Vision und künstlicher Intelligenz. Sowohl auf der Forschungs- als auch auf der kommerziellen Entwicklungsseite haben Teams jahrelang hart daran gearbeitet, KI/ML-Modelle zu testen, zu patchen und schrittweise zu verbessern und ihre Fortschritte in Open-Source-Communitys wie Kaggle zu teilen. Die Bereiche Computer Vision und künstliche Intelligenz machten in den ersten zwei Jahrzehnten des neuen Jahrtausends große Fortschritte, indem sie ihre Bemühungen auf die Entwicklung und Modellierung von Algorithmen konzentrierten.
In den letzten Jahren hat sich dieser Fortschritt jedoch verlangsamt, da die modellzentrierte Optimierung gegen das Gesetz der sinkenden Rendite verstößt. Darüber hinaus weisen modellzentrierte Ansätze mehrere Einschränkungen auf. Sie können beispielsweise nicht dieselben Daten für das Training verwenden und das Modell dann erneut trainieren. Modellzentrierte Ansätze erfordern außerdem mehr manuelle Arbeit in Bezug auf Datenbereinigung, Modellvalidierung und Schulung, wodurch wertvolle Zeit und Ressourcen für innovativere, umsatzgenerierende Aufgaben verloren gehen können.
Heutzutage haben CV-Teams über Communities wie Hugging Face freien und offenen Zugang zu einer Vielzahl großer, komplexer Algorithmen, Modelle und Architekturen, die jeweils unterschiedliche CV-Kernfunktionen unterstützen – von der Objekterkennung und Erkennung von Gesichtspunkten bis hin zur Posenschätzung und Funktion passend. Diese Assets kommen einer „Standardlösung“ so nahe, wie man es sich nur vorstellen kann: Sie bieten Computer-Vision- und KI-Teams ein fertiges Whiteboard, auf dem sie eine beliebige Anzahl spezieller Aufgaben und Anwendungsfälle trainieren können.
So wie grundlegende menschliche Fähigkeiten wie die Hand-Auge-Koordination auf eine Vielzahl verschiedener Fähigkeiten angewendet und trainiert werden können – vom Tischtennisspielen bis zum Pitching – können diese modernen ML-Algorithmen auch für eine Reihe spezifischer Anwendungen trainiert werden. Während sich Menschen jedoch durch jahrelange Übung und Schweiß spezialisieren, tun dies Maschinen durch Training mit Daten.
Dies hat viele führende Persönlichkeiten auf dem Gebiet der künstlichen Intelligenz dazu veranlasst, eine neue Ära der Deep-Learning-Entwicklung zu fordern – eine Ära, in der Daten der Hauptmotor des Fortschritts sind. Noch vor wenigen Jahren verkündeten Andrew Ng und andere, dass Datenzentrierung die Richtung der KI-Entwicklung sei. In dieser kurzen Zeit florierte die Branche. In nur wenigen Jahren ist eine Vielzahl neuartiger kommerzieller Anwendungen und Anwendungsfälle für Computer Vision entstanden, die ein breites Branchenspektrum abdecken – von Robotik und AR/VR bis hin zur Automobilherstellung und Heimsicherheit.
Kürzlich haben wir mit einem datenzentrierten Ansatz Untersuchungen zur Hand-am-Lenkrad-Erkennung in Autos durchgeführt. Unsere Experimente zeigen, dass wir mit diesem Ansatz und synthetischen Daten in der Lage sind, spezifische Randfälle zu identifizieren und zu generieren, die im Trainingsdatensatz fehlen.
Datagen generiert synthetische Bilder für den Hand-Lenkrad-Test (Bild bereitgestellt von: Datagen)
Während die Computer-Vision-Branche von Daten schwärmt, ist nicht alles davon fanatisch. Während die Branche erkannt hat, dass Daten der Weg nach vorne sind, gibt es auf dem Weg dorthin viele Hindernisse und Fallstricke, von denen viele CV-Teams bereits behindert haben. Eine aktuelle Umfrage unter US-amerikanischen Computer-Vision-Experten ergab, dass der Bereich von langen Projektverzögerungen, nicht standardisierten Prozessen und Ressourcenknappheit geplagt wird – allesamt datenbedingt. In derselben Umfrage gaben 99 % der Befragten an, dass mindestens ein Lebenslaufprojekt aufgrund unzureichender Schulungsdaten auf unbestimmte Zeit abgesagt wurde.
Selbst die glücklichen 1 %, die bisher eine Projektabsage vermieden haben, können Projektverzögerungen nicht vermeiden. In der Umfrage gab jeder Befragte an, dass es aufgrund unzureichender oder unzureichender Schulungsdaten zu erheblichen Projektverzögerungen kam, wobei 80 % von Verzögerungen berichteten, die drei Monate oder länger dauerten. Letztendlich besteht der Zweck der Infrastruktur darin, sie zu nutzen – sie soll ermöglichen, beschleunigen oder kommunizieren. In einer Welt, in der erhebliche Verzögerungen zum Geschäftsleben gehören, ist klar, dass wichtige Infrastruktur fehlt.
Im Gegensatz zu Computern und Algorithmen ist die dritte Säule der KI/ML-Entwicklung jedoch nicht für eine Infrastrukturalisierung geeignet – insbesondere im Bereich Computer Vision, wo große Datenmengen unorganisiert und sehr zeit- und zeitintensiv sind Das Sammeln und Verwalten ist ressourcenintensiv. Zwar gibt es online viele gekennzeichnete, frei verfügbare Datenbanken mit visuellen Trainingsdaten (wie die inzwischen berühmte ImageNet-Datenbank), sie haben sich jedoch als alleinige Quelle für Trainingsdaten bei der kommerziellen Lebenslaufentwicklung als unzureichend erwiesen.
Das liegt daran, dass Trainingsdaten im Gegensatz zu Modellen, die absichtlich verallgemeinern, von Natur aus anwendungsspezifisch sind. Daten unterscheiden eine Anwendung eines bestimmten Modells von einer anderen und müssen daher nicht nur für eine bestimmte Aufgabe, sondern auch für die Umgebung oder den Kontext, in dem diese Aufgabe ausgeführt wird, eindeutig sein. Im Gegensatz zu Rechenleistung, die mit Lichtgeschwindigkeit erzeugt und abgerufen werden kann, müssen herkömmliche visuelle Daten von Menschen erstellt oder gesammelt werden (indem sie vor Ort Fotos machen oder im Internet nach geeigneten Bildern suchen) und dann von Menschen sorgfältig bereinigt und beschriftet werden (Dies ist ein Prozess, der anfällig für menschliches Versagen, Inkonsistenz und Voreingenommenheit ist).
Dies wirft die Frage auf: „Wie können wir Datenvisualisierungen erstellen, die sowohl für bestimmte Anwendungen geeignet sind als auch leicht kommerziell nutzbar (d. h. schnell, kostengünstig und vielseitig) sind?“ Obwohl diese beiden Eigenschaften widersprüchlich erscheinen mögen, hat sich das Potenzial der Lösung herauskristallisiert Es ist ein vielversprechender Weg, diese beiden grundlegenden, aber scheinbar unvereinbaren Eigenschaften in Einklang zu bringen.
Computer Vision (CV) ist eines der führenden Gebiete der modernen künstlichen Intelligenz
Anwendungen mit spezifischen Anwendungen erstellen und Zeit und Ressourcen sparen Skala Die einzige Möglichkeit, Trainingsdaten zu visualisieren, ist die Verwendung synthetischer Daten. Für diejenigen, die mit dem Konzept nicht vertraut sind: Bei synthetischen Daten handelt es sich um von Menschen generierte Informationen, die ein reales Äquivalent originalgetreu darstellen sollen. Bei den visuellen synthetischen Daten handelt es sich um realistische computergenerierte 3D-Bilder (CGI) in Form von Standbildern oder Videos.
Als Reaktion auf viele der Probleme, die im Zeitalter der Rechenzentren entstanden sind, hat sich rund um die Generierung synthetischer Daten eine aufstrebende Branche gebildet – ein wachsendes Ökosystem kleiner und mittlerer Startups, die Lösungen anbieten, die synthetische Daten zur Lösung der Probleme nutzen Oben sind eine Reihe von Schmerzpunkten aufgeführt.
Die vielversprechendsten dieser Lösungen nutzen KI/ML-Algorithmen, um fotorealistische 3D-Bilder zu erzeugen und automatisch die zugehörige Grundwahrheit (d. h. Metadaten) für jeden Datenpunkt zu generieren. Durch synthetische Daten entfällt daher der oft monatelange manuelle Kennzeichnungs- und Anmerkungsprozess, während gleichzeitig die Möglichkeit menschlicher Fehler und Voreingenommenheit ausgeschlossen wird.
In unserem Artikel (veröffentlicht bei NeurIPS 2021) „Discovering Group Bias in Facial Landmark Detection Using Synthetic Data“ haben wir herausgefunden, dass es notwendig ist, einen Teil der Daten beiseite zu legen, um die Leistung eines trainierten Modells zu analysieren und seine Schwächen zu identifizieren zum Testen. Der Testsatz muss groß genug sein, um statistisch signifikante Abweichungen in Bezug auf alle relevanten Untergruppen innerhalb der Zielpopulation zu erkennen. Insbesondere bei datenintensiven Anwendungen kann es schwierig sein, diese Anforderung zu erfüllen.
Wir schlagen vor, diese Schwierigkeit durch die Generierung synthetischer Testsätze zu überwinden. Wir verwenden die Aufgabe zur Erkennung von Gesichtsmarkierungen, um unseren Vorschlag zu validieren, indem wir zeigen, dass alle bei realen Datensätzen beobachteten Verzerrungen auch bei gut gestalteten synthetischen Datensätzen sichtbar sind. Dies zeigt, dass synthetische Testsätze Modellschwächen effektiv erkennen und Einschränkungen in der Größe oder Vielfalt realer Testsätze überwinden können.
Heute stellen Start-ups den Lebenslaufteams von Unternehmen bewährte Self-Service-Plattformen zur Generierung synthetischer Daten zur Verfügung, die Voreingenommenheit abmildern und eine Skalierung der Datenerfassung ermöglichen. Mit diesen Plattformen können CV-Teams in Unternehmen anwendungsfallspezifische Trainingsdaten auf einer gemessenen On-Demand-Basis generieren und so die Lücke zwischen Spezifität und Umfang schließen, die herkömmliche Daten für die Infrastrukturierung ungeeignet macht.
Es lässt sich nicht leugnen, dass dies eine aufregende Zeit für den Bereich Computer Vision ist. Aber wie in jedem anderen sich verändernden Bereich sind auch dies herausfordernde Zeiten. Große Talente und brillante Köpfe stürmen in ein Feld voller Ideen und Begeisterung, werden jedoch durch den Mangel an geeigneten Datenpipelines zurückgehalten. Der Bereich ist so stark ineffizient, dass Datenwissenschaftler heute bekanntermaßen ein Bereich sind, in dem jedes dritte Unternehmen bereits mit einem Qualifikationsdefizit zu kämpfen hat und wir es uns nicht leisten können, wertvolle Humanressourcen zu verschwenden.
Synthetische Daten öffnen die Tür zu einer echten Trainingsdaten-Infrastruktur – eines Tages könnte es so einfach sein, den Wasserhahn für ein Glas Wasser aufzudrehen oder Berechnungen durchzuführen. Dies ist sicherlich eine willkommene Erfrischung für die Datenmanager dieser Welt.
Das obige ist der detaillierte Inhalt vonDas Datenmanagement ist zum größten Engpass bei der Entwicklung künstlicher Intelligenz geworden. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!