Ist maschinelles Lernen für die Sicherheit eine schöne Lüge?

WBOY
Freigeben: 2023-04-15 20:13:01
nach vorne
1228 Leute haben es durchsucht

Übersetzer |. Bugatti

Rezensent |.🎜🎜#

Maschinelles Lernen (ML) ist keine magische Technologie. Im Allgemeinen eignet sich ML zur Lösung enger Probleme mit großen Datenmengen, und die interessierenden Muster sind in hohem Maße wiederholbar oder vorhersehbar. Die meisten Sicherheitsprobleme erfordern weder ML noch profitieren sie davon. Viele Experten, darunter auch die von Google, empfehlen, bei der Lösung komplexer Probleme ML erst dann auszuprobieren, wenn alle anderen Methoden ausgeschöpft sind.

ML kombiniert eine breite Palette statistischer Techniken: ML ermöglicht es uns, Computern beizubringen, die Antwort auf ein Problem abzuschätzen, auch wenn uns die richtige Antwort nicht im Voraus programmiert wurde. Wenn ein gut konzipiertes ML-System zur Bewältigung der richtigen Art von Problem eingesetzt wird, kann es Erkenntnisse gewinnen, die sonst nicht verfügbar wären.

Die IT-Umgebung jedes Unternehmens hat unterschiedliche Zwecke, Architekturen, Prioritäten und Risikotoleranzen. Es ist unmöglich, Algorithmen, ML oder andere Produkte zu erstellen, die Sicherheitsanwendungsfälle in allen Szenarien umfassend unterstützen. Aus diesem Grund kombinieren die meisten erfolgreichen ML-Anwendungen im Sicherheitsbereich mehrere Ansätze, um ein sehr spezifisches Problem zu lösen. Typische Beispiele sind Spamfilter, DDoS- oder Bot-Abwehr und Malware-Erkennung.

1. Müll rein, Müll raus

Die größte Herausforderung von ML besteht darin, relevante und verfügbare Daten zur Lösung realer Probleme zu haben. Für überwachtes ML benötigen Sie einen großen, ordnungsgemäß beschrifteten Datensatz. Um beispielsweise ein Modell zu erstellen, das Katzenfotos erkennt, müssen Sie das Modell mit vielen Katzenfotos mit der Bezeichnung „Katze“ und vielen Nicht-Katzenfotos mit der Bezeichnung „Nicht-Katze“ trainieren. Wenn Sie nicht genügend Fotos haben oder diese nicht genau beschriftet sind, wird das Modell nicht gut.

Im Sicherheitsbereich ist die signaturlose Malware-Erkennung ein bekannter Anwendungsfall für überwachtes ML. Viele Anbieter von Endpoint-Protection-Plattformen (EPP) verwenden ML, um eine große Anzahl bösartiger und harmloser Beispiele zu kennzeichnen, um Modelle darauf zu trainieren, „wie Malware aussieht“. Diese Modelle können ausweichende mutierte Malware und andere Täuschungsmanöver (Dateien, die so manipuliert wurden, dass sie Signaturerkennungsmethoden umgehen können, aber dennoch bösartig sind) korrekt identifizieren. Anstatt Funktionen abzugleichen, verwendet ML einen anderen Funktionssatz, um schädliche Inhalte vorherzusagen, und fängt dabei häufig Malware ab, die funktionsbasierten Methoden entgeht.

Da ML-Modelle probabilistisch sind, erfordern sie Kompromisse. ML kann Malware abfangen, die von Signaturmethoden übersehen wird, aber es kann auch Malware übersehen, die von Signaturmethoden übersehen wird. Aus diesem Grund verwenden moderne EPP-Tools einen hybriden Ansatz und kombinieren ML und funktionsbasierte Techniken, um eine maximale Schutzabdeckung zu erreichen.

2. Falsch-positives Problem

Selbst wenn das Modell sorgfältig entworfen wurde, bringt ML einige zusätzliche Herausforderungen bei der Interpretation der Ausgabe mit sich, darunter:

    Das Ergebnis ist Wahrscheinlichkeit. Ausgabemöglichkeiten für ML-Modelle. Wenn Ihr Modell darauf ausgelegt wäre, Katzen zu identifizieren, würden Sie etwas erhalten wie „Es besteht eine 80-prozentige Chance, dass es sich bei diesem Ding um eine Katze handelt.“ Diese Unsicherheit ist ML-Systemen inhärent und kann die Interpretation der Ergebnisse erschweren. Ist eine Wahrscheinlichkeit von 80 % für eine Katze genau genug?
  • Das Modell kann nicht angepasst werden, zumindest nicht durch den Endbenutzer. Um probabilistische Ergebnisse zu verarbeiten, können Tools diese anhand der vom Anbieter festgelegten Schwellenwerte in binäre Ergebnisse verarbeiten. Ein Katzenerkennungsmodell könnte beispielsweise melden, dass jede „Katze“ mit einer Wahrscheinlichkeit von >90 % eine Katze ist. Die Toleranz Ihres Unternehmens in diesem Bereich kann höher oder niedriger sein als die vom Lieferanten festgelegte Toleranz.
  • False Negatives (FN), das Versäumnis, wirklich bösartige Inhalte zu erkennen, ist ein großer Nachteil von ML-Modellen, insbesondere von schlecht abgestimmten Modellen. Wir mögen keine Fehlalarme (FP), weil sie Zeit verschwenden. Es gibt jedoch einen inhärenten Kompromiss zwischen dem PF-Satz und dem FN-Satz. ML-Modelle sind darauf abgestimmt, diesen Kompromiss zu optimieren, indem sie dem „besten“ Gleichgewicht zwischen FP-Rate und FN-Rate Priorität einräumen. Die „richtige“ Balance variiert jedoch je nach individueller Bedrohungs- und Risikobewertung von Organisation zu Organisation. Wenn Sie ML-basierte Produkte verwenden, müssen Sie darauf vertrauen, dass der Anbieter die für Sie geeigneten Schwellenwerte auswählt.
  • Es ist kein ausreichender Kontext für die Alarmklassifizierung vorhanden. Ein Teil der Magie von ML besteht darin, hervorstechende prädiktive und dennoch willkürliche „Merkmale“ aus einem Datensatz zu extrahieren. Stellen Sie sich vor, dass die Identifizierung einer Katze stark vom Wetter abhängt. Niemand würde so argumentieren. Aber das ist der Sinn von ML: Muster zu finden, die wir sonst nicht finden würden, und zwar in großem Maßstab. Selbst wenn der Benutzer die vorhergesagte Ursache erkennen kann, ist sie bei der Alarmtriage oder bei der Reaktion auf Vorfälle oft nicht hilfreich. Dies liegt daran, dass die Vorhersagekraft durch die „Funktionen“ optimiert wird, die letztendlich die Entscheidungen des ML-Systems definieren.
3. Klingt ein anderer Name für die „statistische“ Methode

?

Zusätzlich zu den Vor- und Nachteilen von ML gibt es noch etwas anderes zu beachten: Nicht jedes „ML“ ist echtes ML. Statistische Methoden können Ihnen einige Rückschlüsse auf Ihre Daten liefern. ML erstellt Vorhersagen auf der Grundlage von Daten, die Sie haben, und Daten, die Sie nicht haben. Vermarkter wollen von der Beliebtheit von „ML“ und „künstlicher Intelligenz“ profitieren und behaupten, dass es sich dabei um moderne, innovative und fortschrittliche technologische Produkte handele. Allerdings wird oft wenig darüber nachgedacht, ob diese Technologie ML nutzt, geschweige denn, ob ML der richtige Ansatz ist.

4.Kann ML schädliche Inhalte erkennen?

ML kann erkennen, wenn „bösartige Inhalte“ klar definiert und in ihrem Umfang begrenzt sind. Es kann auch Abweichungen vom erwarteten Verhalten in hoch vorhersehbaren Systemen erkennen. Je stabiler die Umgebung, desto wahrscheinlicher ist es, dass ML Anomalien korrekt erkennt. Aber nicht jede Ausnahme ist bösartig und die Betreiber verfügen nicht immer über genügend Kontext, um zu reagieren.

Die Stärke von ML liegt darin, bestehende Methoden, Systeme und Teams zu erweitern und nicht zu ersetzen, um eine optimale Abdeckung und Effizienz zu erreichen.

Originallink: https://www.darkreading.com/vulnerabilities-threats/the-beautiful-lies-of-machine-learning-in-security

Das obige ist der detaillierte Inhalt vonIst maschinelles Lernen für die Sicherheit eine schöne Lüge?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage