Heim > Technologie-Peripheriegeräte > KI > KI mit KI angreifen? Bedrohungen und Abwehrmaßnahmen des kontradiktorischen maschinellen Lernens

KI mit KI angreifen? Bedrohungen und Abwehrmaßnahmen des kontradiktorischen maschinellen Lernens

WBOY
Freigeben: 2023-04-09 18:31:05
nach vorne
1724 Leute haben es durchsucht

Immer mehr Unternehmen beginnen, Projekte mit künstlicher Intelligenz (Artificial Intelligence, abgekürzt AI) und maschinellem Lernen (Machine Learning, abgekürzt ML) anzuwenden, und der Schutz dieser Projekte wird immer wichtiger. Eine gemeinsam von IBM und Morning Consult durchgeführte Umfrage zeigt, dass von den mehr als 7.500 befragten multinationalen Unternehmen 35 % bereits KI nutzen, was einem Anstieg von 13 % gegenüber dem Vorjahr entspricht, und weitere 42 % prüfen die Machbarkeit. Allerdings berichten fast 20 % der Unternehmen über Schwierigkeiten beim Schutz von Daten vor KI-Systemen, was das Tempo der KI-Einführung verlangsamt.

Die Sicherung von KI- und ML-Systemen steht vor erheblichen Herausforderungen, von denen einige nicht durch die KI-Technologie selbst verursacht werden. Beispielsweise benötigen KI- und ML-Systeme Daten, und wenn die Daten sensible oder private Informationen enthalten, werden sie zum Ziel von Angreifern. Modelle des maschinellen Lernens sind im Cyberspace-Umfeld einem potenziellen Risiko durch gegnerische Angriffe ausgesetzt und können zum schwächsten Glied im Verteidigungssystem werden und dadurch die Sicherheit des gesamten Systems gefährden.

Was ist gegnerisches maschinelles Lernen?? Gegnerisches maschinelles Lernen ist keine Form des maschinellen Lernens, sondern eine Reihe von Mitteln, mit denen Angreifer ML-Systeme angreifen. Adversarial Machine Learning nutzt die Schwachstellen und Besonderheiten von ML-Modellen aus, um Angriffe durchzuführen. Beispielsweise kann kontradiktorisches maschinelles Lernen verwendet werden, um ML-Handelsalgorithmen dazu zu bringen, falsche Handelsentscheidungen zu treffen, betrügerische Vorgänge schwieriger zu erkennen, falsche Betriebsempfehlungen zu geben und Berichte auf der Grundlage einer Stimmungsanalyse zu manipulieren.

Gegnerische maschinelle Lernangriffe werden in vier Methoden unterteilt: Poisoning-Angriff, Ausweichangriff, Extraktionsangriff und Inferenzangriff.

1.Vergiftungsangriff

Bei einem Vergiftungsangriff manipuliert der Angreifer den Trainingsdatensatz. Beispielsweise führt die absichtliche Verzerrung eines Datensatzes dazu, dass die Maschine falsch lernt. Ihr Zuhause ist beispielsweise mit KI-basierten Sicherheitskameras ausgestattet. Ein Angreifer könnte jeden Tag um 3 Uhr morgens an Ihrem Haus vorbeigehen und seinen Hund über den Rasen laufen lassen, wodurch das Sicherheitssystem ausgelöst wird. Schließlich schalten Sie die Alarme aus, die um 3 Uhr morgens ausgelöst werden, um nicht vom Hund geweckt zu werden. Dieser Hundeführer stellt tatsächlich Trainingsdaten zur Verfügung, um dem Sicherheitssystem mitzuteilen, dass das, was jeden Tag um 3 Uhr morgens passiert, harmlos ist. Wenn Systeme darauf trainiert werden, alles zu ignorieren, was um 3 Uhr morgens passiert, nutzen Angreifer die Gelegenheit, um Angriffe zu starten.

2. Ausweichangriff

Bei einem Ausweichangriff wurde das Modell trainiert, aber der Angreifer kann die Eingabe leicht ändern, um den Angriff auszuführen. Ein Beispiel ist ein Stoppschild – wenn ein Angreifer ein Yield-Tag anbringt, interpretiert die Maschine es als Yield-Schild und nicht als Stoppschild. Im obigen Beispiel für einen Hundespaziergang könnte ein Einbrecher in einem Hundeanzug in Ihr Haus einbrechen. Einem Angriff auszuweichen ist wie eine optische Täuschung der Maschine.

3. Extraktionsangriff

Bei einem Extraktionsangriff erlangt der Angreifer eine Kopie des KI-Systems. Manchmal können Sie das Modell einfach durch Beobachtung seiner Ein- und Ausgänge extrahieren und mit dem Modell herumspielen, um zu sehen, wie es reagiert. Wenn Sie Ihr Modell mehrmals testen können, können Sie ihm beibringen, sich auf die gleiche Weise zu verhalten.

Zum Beispiel wurde im Jahr 2019 eine Schwachstelle im E-Mail-Schutzsystem von Proofpoint aufgedeckt, und die generierten E-Mail-Header wurden mit einer Bewertung angehängt, die angibt, wie wahrscheinlich es war, dass es sich bei der E-Mail um Spam handelte. Mithilfe dieser Bewertungen können Angreifer Nachahmungs-Spam-Erkennungs-Engines erstellen, um Spam zu generieren, der der Erkennung entgeht.

Wenn ein Unternehmen kommerzielle KI-Produkte nutzt, können Angreifer durch den Kauf oder die Nutzung des Dienstes auch eine Kopie des Modells erhalten. Beispielsweise gibt es Plattformen, mit denen Angreifer ihre Malware gegen Antiviren-Engines testen können. Im obigen Beispiel für einen Hundespaziergang könnte ein Angreifer ein Fernglas besorgen, um zu sehen, um welche Marke es sich bei der Überwachungskamera handelt, und dann eine Kamera derselben Marke kaufen und herausfinden, wie er die Verteidigung umgehen kann.

4. Inferenzangriff

Bei einem Inferenzangriff ermittelt der Angreifer den Datensatz, der zum Trainieren des Systems verwendet wird, und nutzt dann Schwachstellen oder Abweichungen in den Daten aus, um den Angriff durchzuführen. Wenn Sie die Trainingsdaten herausfinden können, können Sie sie mit gesundem Menschenverstand oder cleveren Tricks ausnutzen. Um noch einmal das Beispiel des Hundespaziergangs zu verwenden: Ein Angreifer könnte das Haus überwachen, um ein Gefühl für Passanten und Fahrzeuge in der Nähe zu bekommen. Wenn ein Angreifer jeden Tag um 3 Uhr morgens bemerkt, dass ein Hundeführer vorbeikommt, ignoriert das Sicherheitssystem den Hundeführer und nutzt diese Schwachstelle möglicherweise aus, um einen Angriff durchzuführen.

Zukünftig könnten Angreifer auch intelligente maschinelle Lerntechnologien nutzen, um reguläre maschinelle Lernanwendungen anzugreifen. Zum Beispiel ein neuartiges generatives KI-Konfrontationssystem. Solche Systeme werden häufig verwendet, um Deep-Fake-Inhalte zu erstellen, bei denen es sich um Fotos oder Videos handelt, die so realistisch sind, dass sie echt erscheinen. Angreifer nutzen sie häufig für Online-Betrügereien, aber die gleichen Prinzipien können auch zur Generierung nicht erkennbarer Malware genutzt werden.

In einem generativen gegnerischen Netzwerk wird eine Seite als Diskriminator und die andere Seite als Generator bezeichnet und sie greifen sich gegenseitig an. Beispielsweise könnte die Antiviren-KI versuchen herauszufinden, ob es sich bei einem Objekt um Malware handelt. Malware erzeugende KI versucht möglicherweise, Malware zu erstellen, die das erste System nicht erkennen kann. Durch wiederholte Konfrontationen zwischen den beiden Systemen kann das Endergebnis Schadsoftware sein, die nahezu unmöglich zu erkennen ist.

Wie man sich gegen gegnerisches maschinelles Lernen verteidigt

Die weit verbreitete Konfrontation im Cyberspace stellt die Anwendung von maschinellem Lernen vor große Herausforderungen. Um sich gegen die Bedrohung durch gegnerische Angriffe auf maschinelles Lernen zu wehren, haben Sicherheitsforscher mit der Sicherheitsforschung zu gegnerischem maschinellem Lernen begonnen, um die praktische Anwendung von maschinellem Lernen zu verbessern Robustheit in Anwendungen gewährleistet die Anwendungssicherheit von Algorithmen im Zusammenhang mit maschinellem Lernen.

Das Forschungsunternehmen Gartner empfiehlt, dass Unternehmen gezielte Sicherheitsmaßnahmen ergreifen sollten, wenn sie über KI- und ML-Systeme verfügen, die geschützt werden müssen. Erstens sollten Unternehmen zum Schutz der Integrität von KI-Modellen die Grundsätze vertrauenswürdiger KI übernehmen und Verifizierungsprüfungen an Modellen durchführen. Zweitens sollten zum Schutz der Integrität von KI-Trainingsdaten zusätzlich Technologien zur Erkennung von Datenvergiftungen eingesetzt werden , viele traditionelle Sicherheitsmaßnahmen Es kann auch auf den Schutz von KI-Systemen angewendet werden. Beispielsweise können Lösungen, die Daten vor Zugriff oder Zerstörung schützen, auch Trainingsdatensätze vor Manipulationen schützen.

MITRE ist bekannt für seine standardisierte ATT&CK-Gegnerstrategie und sein Technologie-Framework. Das Unternehmen hat außerdem eine Reihe gegnerischer Bedrohungsmatrizen für maschinelles Lernen für KI-Systeme erstellt, die Adversarial Machine Learning Threat Matrix genannt werden )-Angriffsframework, das derzeit als Adversarial Threat Landscape for Artificial-Intelligence Systems (ATLAS) bekannt ist, deckt 12 Phasen des Angriffs auf ML-Systeme ab.

Darüber hinaus haben einige Hersteller damit begonnen, Sicherheitstools herauszubringen, die Benutzern helfen sollen, KI-Systeme zu schützen und sich gegen gegnerisches maschinelles Lernen zu verteidigen. Microsoft veröffentlichte im Mai 2021 Counterfit, ein Open-Source-Automatisierungstool für Sicherheitstests von KI-Systemen. Counterfit begann als Angriffsskriptbibliothek, die speziell für ein einzelnes KI-Modell geschrieben wurde, und entwickelte sich später zu einem allgemeinen Automatisierungstool für groß angelegte Angriffe auf mehrere KI-Systeme. Das Tool kann zur Automatisierung von Techniken im ATLAS-Angriffsframework von MITRE verwendet werden, kann aber auch während der KI-Entwicklungsphase verwendet werden, um Schwachstellen frühzeitig zu finden, bevor sie in die Produktion gelangen.

IBM verfügt außerdem über ein Open-Source-Verteidigungstool für gegnerisches maschinelles Lernen namens Adversarial Robustness Toolbox, das jetzt ein Projekt der Linux Foundation ist. Das Projekt unterstützt alle gängigen ML-Frameworks und umfasst 39 Angriffsmodule, die in vier Kategorien unterteilt sind: Evasion, Poisoning, Extraction und Inference.

Angesichts der möglichen Angriffe durch maschinelles Lernen in der Cyberspace-Verteidigung sollten Unternehmen möglichst frühzeitig auch maschinelle Lern-Angreifermodelle mit dem Ziel der wissenschaftlichen Bewertung einführen ihre Leistung in bestimmten Bedrohungsszenarien. Gleichzeitig sollten Unternehmen die gängigen Methoden, mit denen gegnerische Algorithmen für maschinelles Lernen in der Testphase Umgehungsangriffe, in der Trainingsphase Vergiftungsangriffe und in der gesamten Phase des maschinellen Lernens Datenschutzdiebstahl starten, vollständig verstehen, sie entwerfen und einsetzen tatsächliche konfrontative Umgebungen im Cyberspace und in der Lage sein, eine Verteidigungsmethode zu entwickeln, die die Sicherheit von Modellen des maschinellen Lernens effektiv stärkt.

Referenzlink:

https://www.csoonline.com/article/3664748/adversarial-machine-learning-explained-how -attackers-disrupt-ai-and-ml-systems.html

Das obige ist der detaillierte Inhalt vonKI mit KI angreifen? Bedrohungen und Abwehrmaßnahmen des kontradiktorischen maschinellen Lernens. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage