Da Unternehmen in fast allen Branchen die Technologie der künstlichen Intelligenz (KI) in ihre Hardware- und Softwareprodukte integrieren, werden Ein- und Ausgaben für maschinelles Lernen (ML) für Kunden immer breiter verfügbar. Dies erregt natürlich die Aufmerksamkeit böswilliger Akteure.
HiddenLayer-CEO Christopher Sestito spricht über Überlegungen zur Sicherheit beim maschinellen Lernen und damit verbundene Bedrohungen, über die sich Unternehmen Sorgen machen sollten.
Wenige Unternehmen konzentrieren sich auf den Schutz ihrer maschinellen Lernressourcen, und noch weniger stellen Ressourcen für die maschinelle Lernsicherheit bereit. Dafür gibt es viele Gründe, darunter konkurrierende Budgetprioritäten, Fachkräftemangel und bis vor Kurzem ein Mangel an Sicherheitsprodukten, die dieses Problem angehen.
Im letzten Jahrzehnt haben wir gesehen, wie jede Branche KI/maschinelles Lernen wie nie zuvor einsetzt, um jeden Anwendungsfall mit verfügbaren Daten zu bewältigen. Die Vorteile sind erwiesen, aber wie wir bei anderen neuen Technologien gesehen haben, werden sie schnell zu einer neuen Angriffsfläche für böswillige Akteure.
Während die Operationen des maschinellen Lernens voranschreiten, bauen Data-Science-Teams ein ausgereifteres KI-Ökosystem im Hinblick auf Effektivität, Effizienz, Zuverlässigkeit und Erklärbarkeit auf, aber die Sicherheit muss noch Priorität haben. Dies ist für Großunternehmen kein gangbarer Weg mehr, da die Beweggründe für Angriffe auf Machine-Learning-L-Systeme klar sind, Angriffstools verfügbar und einfach zu verwenden sind und potenzielle Ziele in einem beispiellosen Tempo wachsen.
Da Modelle des maschinellen Lernens in immer mehr Produktionssysteme integriert werden, werden sie Kunden in Hardware- und Softwareprodukten, Webanwendungen, mobilen Anwendungen und mehr vorgeführt. Dieser Trend, der oft als „Edge AI“ bezeichnet wird, verleiht allen Technologien, die wir täglich nutzen, unglaubliche Entscheidungs- und Vorhersagefähigkeiten. Bereitstellung von maschinellem Lernen für eine wachsende Zahl von Endbenutzern und gleichzeitige Offenlegung derselben maschinellen Lernressourcen für Bedrohungsakteure.
Modelle des maschinellen Lernens, die nicht über das Netzwerk verfügbar gemacht werden, sind ebenfalls gefährdet. Auf diese Modelle kann über herkömmliche Cyber-Angriffstechniken zugegriffen werden, was den Weg für Möglichkeiten des gegnerischen maschinellen Lernens ebnet. Sobald Bedrohungsakteure Zugriff erhalten, können sie verschiedene Arten von Angriffen ausführen. Inferenzangriffe versuchen, ein Modell abzubilden oder zu „umkehren“, wodurch Schwachstellen im Modell ausgenutzt, die Funktionalität des Gesamtprodukts manipuliert oder das Modell selbst kopiert und gestohlen werden können.
Die Leute haben reale Beispiele dafür gesehen, wie Sicherheitsanbieter angegriffen werden, um Antiviren- oder andere Schutzmechanismen zu umgehen. Ein Angreifer könnte sich auch dafür entscheiden, die Daten zu verfälschen, die zum Trainieren des Modells verwendet werden, um das System dazu zu verleiten, falsch zu lernen und die Entscheidungsfindung zugunsten des Angreifers zu beeinflussen.
Während alle gegnerischen Angriffsarten des maschinellen Lernens abgewehrt werden müssen, haben verschiedene Unternehmen unterschiedliche Prioritäten. Finanzinstitute, die Modelle des maschinellen Lernens nutzen, um betrügerische Transaktionen zu identifizieren, werden sich stark auf die Abwehr von Inferenzangriffen konzentrieren.
Wenn Angreifer die Stärken und Schwächen eines Betrugserkennungssystems verstehen, können sie es nutzen, um ihre Techniken so zu ändern, dass sie unentdeckt bleiben und das Modell vollständig umgehen. Unternehmen im Gesundheitswesen reagieren möglicherweise empfindlicher auf Datenvergiftung. Der medizinische Bereich war einer der ersten Anwender der Vorhersage von Ergebnissen durch maschinelles Lernen unter Verwendung seiner umfangreichen historischen Datensätze.
Datenvergiftungsangriffe können zu Fehldiagnosen führen, die Ergebnisse von Medikamentenstudien verändern, Patientengruppen falsch darstellen usw. Sicherheitsunternehmen selbst konzentrieren sich derzeit auf Umgehungsangriffe durch maschinelles Lernen, die aktiv zum Einsatz von Ransomware oder Backdoor-Netzwerken genutzt werden.
Der beste Rat, den Sie Chief Information Security Officers (CISOs) heute geben können, ist, die Muster zu übernehmen, die wir in neuen Technologien gelernt haben. Wie unsere Fortschritte in der Cloud-Infrastruktur stellen auch maschinelle Lerneinsätze eine neue Angriffsfläche dar, die spezielle Abwehrmaßnahmen erfordert. Mit Open-Source-Angriffstools wie Microsofts Counterfit oder IBMs Adversarial Robustness Toolbox sinkt die Eintrittsbarriere für gegnerische Machine-Learning-Angriffe täglich.
Eine weitere wichtige Überlegung ist, dass viele dieser Angriffe nicht offensichtlich sind und man möglicherweise nicht versteht, dass sie stattfinden, wenn man nicht danach sucht. Als Sicherheitsexperten sind wir an Ransomware gewöhnt, die ein klares Indiz dafür ist, dass ein Unternehmen kompromittiert wurde und Daten gesperrt oder gestohlen wurden. Gegnerische Machine-Learning-Angriffe können so angepasst werden, dass sie über längere Zeiträume auftreten, und einige Angriffe, wie z. B. Data Poisoning, können ein langsamerer, aber dauerhaft schädlicher Prozess sein.
Das obige ist der detaillierte Inhalt vonMaschinelles Lernen schafft neue Angriffsflächen, die spezielle Abwehrmaßnahmen erfordern. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!