Übersetzer |. Bugatti
Rezensent |.🎜🎜#
Maschinelles Lernen (ML) ist keine magische Technologie. Im Allgemeinen eignet sich ML zur Lösung enger Probleme mit großen Datenmengen, und die interessierenden Muster sind in hohem Maße wiederholbar oder vorhersehbar. Die meisten Sicherheitsprobleme erfordern weder ML noch profitieren sie davon. Viele Experten, darunter auch die von Google, empfehlen, bei der Lösung komplexer Probleme ML erst dann auszuprobieren, wenn alle anderen Methoden ausgeschöpft sind. ML kombiniert eine breite Palette statistischer Techniken: ML ermöglicht es uns, Computern beizubringen, die Antwort auf ein Problem abzuschätzen, auch wenn uns die richtige Antwort nicht im Voraus programmiert wurde. Wenn ein gut konzipiertes ML-System zur Bewältigung der richtigen Art von Problem eingesetzt wird, kann es Erkenntnisse gewinnen, die sonst nicht verfügbar wären. Die IT-Umgebung jedes Unternehmens hat unterschiedliche Zwecke, Architekturen, Prioritäten und Risikotoleranzen. Es ist unmöglich, Algorithmen, ML oder andere Produkte zu erstellen, die Sicherheitsanwendungsfälle in allen Szenarien umfassend unterstützen. Aus diesem Grund kombinieren die meisten erfolgreichen ML-Anwendungen im Sicherheitsbereich mehrere Ansätze, um ein sehr spezifisches Problem zu lösen. Typische Beispiele sind Spamfilter, DDoS- oder Bot-Abwehr und Malware-Erkennung. 1. Müll rein, Müll raus Die größte Herausforderung von ML besteht darin, relevante und verfügbare Daten zur Lösung realer Probleme zu haben. Für überwachtes ML benötigen Sie einen großen, ordnungsgemäß beschrifteten Datensatz. Um beispielsweise ein Modell zu erstellen, das Katzenfotos erkennt, müssen Sie das Modell mit vielen Katzenfotos mit der Bezeichnung „Katze“ und vielen Nicht-Katzenfotos mit der Bezeichnung „Nicht-Katze“ trainieren. Wenn Sie nicht genügend Fotos haben oder diese nicht genau beschriftet sind, wird das Modell nicht gut. Im Sicherheitsbereich ist die signaturlose Malware-Erkennung ein bekannter Anwendungsfall für überwachtes ML. Viele Anbieter von Endpoint-Protection-Plattformen (EPP) verwenden ML, um eine große Anzahl bösartiger und harmloser Beispiele zu kennzeichnen, um Modelle darauf zu trainieren, „wie Malware aussieht“. Diese Modelle können ausweichende mutierte Malware und andere Täuschungsmanöver (Dateien, die so manipuliert wurden, dass sie Signaturerkennungsmethoden umgehen können, aber dennoch bösartig sind) korrekt identifizieren. Anstatt Funktionen abzugleichen, verwendet ML einen anderen Funktionssatz, um schädliche Inhalte vorherzusagen, und fängt dabei häufig Malware ab, die funktionsbasierten Methoden entgeht. Da ML-Modelle probabilistisch sind, erfordern sie Kompromisse. ML kann Malware abfangen, die von Signaturmethoden übersehen wird, aber es kann auch Malware übersehen, die von Signaturmethoden übersehen wird. Aus diesem Grund verwenden moderne EPP-Tools einen hybriden Ansatz und kombinieren ML und funktionsbasierte Techniken, um eine maximale Schutzabdeckung zu erreichen. 2. Falsch-positives ProblemSelbst wenn das Modell sorgfältig entworfen wurde, bringt ML einige zusätzliche Herausforderungen bei der Interpretation der Ausgabe mit sich, darunter:ML kann erkennen, wenn „bösartige Inhalte“ klar definiert und in ihrem Umfang begrenzt sind. Es kann auch Abweichungen vom erwarteten Verhalten in hoch vorhersehbaren Systemen erkennen. Je stabiler die Umgebung, desto wahrscheinlicher ist es, dass ML Anomalien korrekt erkennt. Aber nicht jede Ausnahme ist bösartig und die Betreiber verfügen nicht immer über genügend Kontext, um zu reagieren.
Die Stärke von ML liegt darin, bestehende Methoden, Systeme und Teams zu erweitern und nicht zu ersetzen, um eine optimale Abdeckung und Effizienz zu erreichen.
Originallink: https://www.darkreading.com/vulnerabilities-threats/the-beautiful-lies-of-machine-learning-in-security
Das obige ist der detaillierte Inhalt vonIst maschinelles Lernen für die Sicherheit eine schöne Lüge?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!