Auf der diesjährigen RSAC-Konferenz in San Francisco gab es ein heißes Thema: Werkzeuge der künstlichen Intelligenz. Das Potenzial generativer künstlicher Intelligenz in Cybersicherheitstools hat bei Cybersicherheitsexperten Interesse geweckt. Es wurden jedoch Fragen zur praktischen Anwendung von KI in der Cybersicherheit sowie zur Zuverlässigkeit der zur Erstellung von KI-Modellen verwendeten Daten aufgeworfen.
M.K. Palmore, ein strategischer Berater für Cybersicherheit und Vorstandsmitglied von Google Cloud und Cyversity, sagte in einem Interview: Wir befinden uns derzeit in der ersten Runde des Kampfes mit künstlicher Intelligenz. Wir wissen noch nicht, wie groß die Auswirkungen künstlicher Intelligenz sein werden Keine Ahnung, welche Ergebnisse wir am Ende sehen werden. Wir sind jedoch zuversichtlich, dass sich das gesamte Unternehmen nun in eine Richtung bewegt, die auch zeigt, dass wir den Wert und den Einsatz künstlicher Intelligenz für einen positiven Einfluss auf die Branche erkennen.
Palmore gab jedoch auch zu, dass wir bei der Entwicklung künstlicher Intelligenz noch viel zu tun haben. Er glaubt, dass wir uns alle an dieses neue Modell anpassen und uns diese großen Sprachmodelle (LLM) und künstliche Intelligenz zur Verfügung stellen müssen, wenn sich die Dinge ändern und weiterentwickeln. Dan Lohrmann, Chief Information Security Officer bei Presidio, glaubt, dass künstliche Intelligenz in der Cybersicherheit noch in den Kinderschuhen steckt. Als auf der RSAC-Konferenz das Thema der Tools für künstliche Intelligenz erwähnt wurde, glaubte er, dass dies eine Revolution sein würde und künstliche Intelligenz einen großen Teil der Produkte verändern würde. Dies könnte die Offensive und Defensive verändern, genau wie die Art und Weise, wie wir unsere roten und blauen Teams aufbauen.
Darüber hinaus stellte er fest, dass bei der Optimierung der von Sicherheitsteams verwendeten Tools noch ein langer Weg vor uns liegt. Er sagte: „Ich glaube nicht, dass wir jemals eine einheitliche Sicht auf die Ressourcenüberwachung und -verwaltung erreichen werden, aber das ist so rationalisiert, wie ich es noch nie gesehen habe
Während der RSAC 2023 Viele Unternehmen haben beschrieben, wie sie generative künstliche Intelligenz in Sicherheitstools einsetzen. Google hat beispielsweise sein generatives künstliches Intelligenz-Tool und Sicherheits-LLM Sec-PaLM auf den Markt gebracht, das auf Mandiant basiert, um Schwachstellen und Malware zu erkennen
Stephen Hay, Direktor Aufgrund der Benutzererfahrung bei Google Cloud haben LLMs jetzt einen Wendepunkt erreicht, an dem sie Informationen kontextualisieren können. Dies bedeutet, dass wir jetzt über echte generative künstliche Intelligenz verfügen Ryland, Direktor des Büros des Chief Information Security Officer von Amazon Web Services, betonte, wie man mithilfe generativer Intelligenz Bedrohungsaktivitäten jeden Tag aufs Neue erkennt und Fehlalarme minimiert um maschinelles Lernen zu trainieren, das den Kern unserer Sicherheitsdienste darstellt.
Ein neues Tool zum Aufbau auf AWS namens Amazon Bedrock umfasst generative künstliche Intelligenz. Amazon Bedrock ist ein neuer Dienst mit API-Zugriff von AI21 Labs, Anthropic, Stability AI und Amazon Darüber hinaus hat Tenable ein generatives KI-Sicherheitstool eingeführt, das speziell für die Forschungsgemeinschaft entwickelt wurde. Darüber hinaus wurde kürzlich ein Bericht mit dem Titel „Wie Generative KI die Sicherheitsforschung verändert“ veröffentlicht und die Effizienz in Forschungsbereichen wie Reverse Engineering, Debugging-Code, Verbesserung der Webanwendungssicherheit und Cloud-Tool-Sichtbarkeit steigern. Der Bericht stellt fest, dass ChatGPT auf den Web-Tools für künstliche Intelligenz in Sicherheitsplattformen wächst. Bob Huber, Chief Security Officer von Tenable, sagte: Mit diesen Tools können Sie beispielsweise eine Datenbank erstellen, wenn Sie nach einem Penetrationstest suchen und das Ziel ist. Sie müssen hineingehen und suchen, aber künstliche Intelligenz kann Ihnen helfen, diese Dinge schneller zu bekommen
Er fügte außerdem hinzu, dass einige Unternehmen bereits mit der Nutzung von LLMs beginnen. Er wies auch darauf hin, dass die Daten, auf denen LLMs basieren, nicht unbedingt dieselben seien
Es bestehen Bedenken, dass die Verknüpfung mit LLMs wie GPT die Sicherheit beeinträchtigen könnte. Diese Tools sind alle darauf ausgelegt, die Arbeit von Verteidigern zu erleichtern, doch Ismael Valenzuela, Vizepräsident für Bedrohungsforschung und Aufklärung bei BlackBerry, wies auf die Grenzen der generativen KI hin.
Wie jedes andere Werkzeug, das wir als Verteidiger nutzen, wird es auch von anderen Angreifern genutzt. Der beste Weg, diese generativen KI-Tools zu nutzen, ist also als Assistent. Es ist klar, dass es uns wirklich hilft, zu wachsen. Aber wenn Sie erwarten, dass es alles völlig verändern wird, ist die Antwort nein.
Das obige ist der detaillierte Inhalt vonDirekt auf der RSAC-Seite: Künstliche Intelligenz-Tools sind dieses Jahr das heißeste Thema!. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!