Heim > Technologie-Peripheriegeräte > KI > Zehn Möglichkeiten, wie ChatGPT und generative KI Zero Trust stärken

Zehn Möglichkeiten, wie ChatGPT und generative KI Zero Trust stärken

PHPz
Freigeben: 2023-05-16 14:34:06
nach vorne
1270 Leute haben es durchsucht

Zehn Möglichkeiten, wie ChatGPT und generative KI Zero Trust stärken

Welches Feedback erhalten Cybersicherheits-CEOs von Kunden?

CEOs von Cybersicherheitsanbietern, die auf der RSA-Konferenz 2023 befragt wurden, gaben an, dass ihre Unternehmenskunden den Wert von ChatGPT für die Verbesserung der Cybersicherheit erkennen, während gleichzeitig Bedenken hinsichtlich des Risikos einer versehentlichen Offenlegung vertraulicher Daten geäußert wurden und geistiges Eigentum. Die Cloud Security Alliance (CSA) veröffentlichte während der Konferenz das allererste ChatGPT-Leitdokument und forderte die Branche auf, ihre Roadmap für künstliche Intelligenz zu verbessern.

Connie Stack, CEO von NextDLP, sagte, dass ihr Unternehmen die Verwendung von ChatGPT durch Next-Kunden untersucht und festgestellt habe, dass 97 % der großen Unternehmen festgestellt hätten, dass ihre Mitarbeiter das Tool nutzten. 10 % der Terminals auf der Reveal-Plattform von Next haben auf ChatGPT zugegriffen.

In einem Interview auf der RSA-Konferenz 2023 sagte Stack: „Dieser Grad der ChatGPT-Nutzung bereitet einigen unserer Kunden große Sorgen, da sie diesen neuen Datenverlustvektor bewerten. Einige Next-Kunden haben sich dafür entschieden, ihn komplett zu deaktivieren.“ Gesundheitsunternehmen, das kein Risiko eingehen konnte, geistiges Eigentum und Geschäftsgeheimnisse an ein generatives, groß angelegtes Sprachmodell für die Öffentlichkeit weiterzugeben. Andere Unternehmen waren offen für die potenziellen Vorteile und entschieden sich dafür, ChatGPT sparsam einzusetzen, beispielsweise bei der Verbesserung der Datenverlust-Bedrohungsjagd ' und Unterstützung der Erstellung sicherheitsrelevanter Inhalte

Aufbau eines neuen Muskelgedächtnisses für Cybersicherheit

Generative KI-Technologie hat das Potenzial, die Lern- und Arbeitseffizienz der Mitarbeiter von Bedrohungsanalysten, Bedrohungsjägern und Sicherheitsbetriebszentren (SOCs) zu verbessern, was die Hauptantriebskraft ist Dies zwingt Netzwerksicherheitsanbieter dazu, generative KI-Tools wie ChatGPT schnell einzuführen. Kontinuierliches Lernen muss tief in die Bedrohungsabwehr eines Unternehmens eingebettet sein, damit es sich auf sein „Muskelgedächtnis“ verlassen kann, um einen Einbruchsversuch anzupassen, darauf zu reagieren und ihn zu neutralisieren, bevor er beginnt.

Das am meisten diskutierte Thema auf der RSA-Konferenz 2023 ist zweifellos das neu veröffentlichte ChatGPT-Produkt und die Integration.

Von den 20 Anbietern, die neue Produkte und Integrationen ankündigen, sind Airgap Networks, Google Security AI Workbench, Microsoft Security Copilot (im Vorfeld der Messe eingeführt), Recorded Future, Security Scorecard und SentinelOne die bemerkenswertesten.

Davon sind besonders die Zero Trust Firewall (ZTFW) und ThreatGPT von Airgap hervorzuheben. Es soll die bestehende Perimeter-Firewall-Infrastruktur ergänzen, indem es dedizierte Mikrosegmentierungs- und Zugriffsschichten im Netzwerkkern hinzufügt. Ritesh Agrawal, CEO von Airgap, sagte: „Mit hochpräziser Asset-Erkennung, agentenloser Mikrosegmentierung und sicherem Zugriff bietet Airgap umfassende Informationen zur Bekämpfung sich entwickelnder Bedrohungen. Kunden benötigen jetzt eine einfach auszunutzende Methode, die keine Programmierung erfordert.“ „Dieser funktionale Ansatz ist das Schöne an ThreatGPT – die reine Data-Mining-Intelligenz der KI in Kombination mit einer einfachen Benutzeroberfläche in natürlicher Sprache wird für Sicherheitsteams von entscheidender Bedeutung sein.“ innovative Ingenieurs- und Produktentwicklungsteams.“ ThreatGPT von Airgap kombiniert eine Diagrammdatenbank und ein GPT-3-Modell, um bisher nicht verfügbare Erkenntnisse zur Cybersicherheit bereitzustellen. Das Unternehmen konfigurierte GPT-3-Modelle, um Abfragen in natürlicher Sprache zu analysieren und potenzielle Sicherheitsbedrohungen zu identifizieren, und integrierte gleichzeitig Diagrammdatenbanken, um kontextbezogene Informationen über Verkehrsbeziehungen zwischen Endpunkten bereitzustellen.

Wie ChatGPT Zero Trust verbessert

Eine Möglichkeit, wie generative KI Zero Trust verbessert, besteht darin, die anfälligsten Bedrohungsoberflächen eines Unternehmens zu identifizieren und zu härten. Anfang dieses Jahres schlug der Erfinder von Zero Trust, John Kindervag, in einem Interview vor, dass „man mit einer geschützten Oberfläche beginnt“ und sprach über das, was er „die Lernkurve von Zero Trust“ nannte. Man beginnt nicht mit der Technologie, das ist ein Missverständnis Hier sind mögliche Möglichkeiten, wie generative KI das im NIST 800-207-Standard definierte Kern-Zero-Trust-Framework verbessern kann:

1. Vereinheitlichen und erlernen Sie die Bedrohungsanalyse und die Reaktion auf Vorfälle auf Unternehmensebene

Chief Information Security Officer (CISO) ). Sie möchten ihre Technologie-Stacks konsolidieren, weil es so viele widersprüchliche Systeme gibt, wenn es um Bedrohungsanalyse, Reaktion auf Vorfälle und Warnsysteme geht, und SOC-Analysten nicht sicher sind, was am dringendsten ist. Generative KI und ChatGPT haben sich als leistungsstarke Tools zur Integration von Anwendungen erwiesen. Letztendlich bieten sie CISOs einen einheitlichen Überblick über die Bedrohungsanalyse und die Reaktion auf Vorfälle in ihrer gesamten Infrastruktur.

2. Identifizieren Sie identitätsbasierte interne und externe Einbruchsversuche schneller durch kontinuierliche Überwachung.

Der Kern von Zero Trust ist die Identität. Generative KI hat das Potenzial, schnell zu erkennen, ob die Aktivität einer bestimmten Identität mit ihrer Vorgeschichte übereinstimmt.

CISOs glauben, dass die Angriffe, die am schwersten zu stoppen sind, oft von innen ausgehen und sich legitime Identitäten und Anmeldeinformationen zunutze machen.

Einer der Hauptvorteile von LLM (Large Language Model) ist die Fähigkeit, Anomalien in Daten anhand kleiner Stichprobengrößen zu entdecken. Dies eignet sich hervorragend zum Schutz von IAM, PAM und Active Directorys. LLM hat sich bei der Analyse von Benutzerzugriffsprotokollen und der Erkennung verdächtiger Aktivitäten als wirksam erwiesen.

3. Die größten Herausforderungen der Mikrosegmentierung überwinden

Die vielen Herausforderungen bei der korrekten Durchführung der Mikrosegmentierung können dazu führen, dass sich große Mikrosegmentierungsprojekte um Monate oder sogar Jahre verzögern. Während die Netzwerk-Mikrosegmentierung darauf abzielt, definierte Segmente innerhalb eines Unternehmensnetzwerks zu isolieren, handelt es sich selten um eine einmalige Aufgabe.

Generative KI kann helfen, indem sie ermittelt, wie Mikrosegmentierungsszenarien am besten eingeführt werden können, ohne den System- und Ressourcenzugriff zu beeinträchtigen. Das Beste daran ist, dass dadurch möglicherweise Tausende von Tickets reduziert werden können, die in IT-Service-Management-Systemen durch fehlerhafte Mikrosegmentierungsprojekte entstehen.

4. Lösen Sie die Sicherheitsherausforderungen bei der Verwaltung und dem Schutz von Endpunkten und Identitäten.

Angreifer suchen immer nach Schwachstellen zwischen Endpunktsicherheit und Identitätsmanagement. Generative KI und ChatGPT können zur Lösung dieses Problems beitragen und Bedrohungsjägern die Informationen liefern, die sie benötigen, um zu wissen, welche Endpunkte am anfälligsten für Kompromittierungen sind.

Um das „Muskelgedächtnis“ von Sicherheitsreaktionen, insbesondere wenn es um Endpunkte geht, zu stärken, kann generative KI eingesetzt werden, um kontinuierlich zu lernen, wie Angreifer versuchen, in Endpunkte einzudringen, welche Zielpunkte sie haben und welche Identitäten sie zu verwenden versuchen.

5. Den Least-Privilege-Zugriff auf ein ganz neues Niveau zu heben

Der Einsatz generativer KI zur Einschränkung des Zugriffs auf Ressourcen nach Identität, System und Zeitdauer ist einer der leistungsfähigsten Zero-Trust-KI-gestützten Anwendungsfälle. Das Abfragen von Audit-Daten aus ChatGPT auf der Grundlage von Ressourcen- und Berechtigungsprofilen spart Systemadministratoren und SOC-Teams jedes Jahr Tausende von Stunden.

Ein zentraler Bestandteil des Least-Privileg-Zugriffs ist das Löschen veralteter Konten. Der State of Security Readiness Report 2023 von Ivanti ergab, dass 45 % der Unternehmen vermuten, dass ehemalige Mitarbeiter und Auftragnehmer immer noch aktiven Zugriff auf Unternehmenssysteme und -dateien haben.

Dr. Srinivas Mukkamala, Chief Product Officer bei Ivanti, bemerkte: „Große Unternehmen berücksichtigen oft nicht das riesige Ökosystem von Anwendungen, Plattformen und Drittanbieterdiensten, die ihren Mitarbeitern weit über den Zugriff hinausgehen, den wir nennen.“ „Zombie-Anmeldeinformationen“ und eine alarmierende Anzahl von Sicherheitsexperten, sogar im oberen Management, haben immer noch Zugriff auf die Systeme und Daten ihres früheren Arbeitgebers.“

6. Fein abgestimmte Verhaltensanalysen, Risikobewertung und Sicherheitsrollen in Echtzeit. Optimierungen

Generative KI und ChatGPT werden es SOC-Analysten und -Teams ermöglichen, durch Verhaltensanalysen und Risikobewertung entdeckte Anomalien schneller zu erkennen. Sie können dann jede seitliche Bewegung potenzieller Angreifer sofort blockieren. Die Definition privilegierter Zugriffe ausschließlich über Risikobewertungen wird obsolet werden, generative KI wird Anfragen in einen Kontext setzen und Warnungen an ihre Algorithmen senden, um potenzielle Bedrohungen zu identifizieren.

7. Verbesserte Echtzeitanalysen, Berichte und Sichtbarkeit, um Online-Betrug zu stoppen

Die meisten erfolgreichen Zero-Trust-Programme basieren auf Datenintegration, die Echtzeitanalysen, Berichte und Sichtbarkeit aggregiert und berichtet. Unternehmen können diese Daten nutzen, um generative KI-Modelle zu trainieren und SOC-Bedrohungsjägern und -Analysten beispiellose Erkenntnisse zu liefern.

Die Ergebnisse werden im Hinblick auf die Unterbindung von E-Commerce-Betrug sofort messbar sein, da Angreifer E-Commerce-Systeme ins Visier nehmen, die mit der Geschwindigkeit der Angriffe nicht mithalten können. Bedrohungsanalysten mit ChatGPT-Zugriffsverlaufsdaten wissen sofort, ob gekennzeichnete Transaktionen legitim sind.

8. Verbessern Sie den kontextbezogenen Zugriff und verbessern Sie die differenzierte Zugriffskontrolle

Eine weitere Kernkomponente von Zero Trust ist die Granularität der Zugriffskontrolle basierend auf Identität, Assets und Endpunkten. Nutzen Sie generative KI, um völlig neue Arbeitsabläufe zu erstellen, die eine Kombination aus Netzwerkverkehrsmustern, Benutzerverhalten und kontextueller Intelligenz genauer erkennen können, um Richtlinienänderungen basierend auf Identität und Rolle zu empfehlen. Bedrohungsjäger, SOC-Analysten und Betrugsanalysten erfahren in Sekundenschnelle über alle missbrauchten privilegierten Zugangsdaten und können den gesamten Zugriff mit einem einfachen ChatGPT-Befehl einschränken.

9. Stärken Sie die Konfiguration und Compliance, um die Konformität mit Zero-Trust-Standards zu verbessern.

Das LLM-Modell, auf dem ChatGPT basiert, hat sich bei der Verbesserung der Anomalieerkennung und der Vereinfachung der Betrugserkennung als wirksam erwiesen. Der nächste Schritt in diesem Bereich besteht darin, das ChatGPT-Modell zu nutzen, um die Erstellung von Zugriffsrichtlinien und Benutzergruppen zu automatisieren und über die Einhaltung der vom Modell generierten Echtzeitdaten auf dem Laufenden zu bleiben. ChatGPT wird die Effizienz des Konfigurationsmanagements, der Risikokontrolle und der Compliance-Berichterstellung erheblich verbessern.

10. Begrenzen Sie den Radius von Phishing-Angriffen

Dies ist die Bedrohungsoberfläche, auf der Angreifer gedeihen – indem sie Social Engineering nutzen, um Opfer dazu zu bringen, große Geldsummen zu zahlen. ChatGPT hat sich bei der Verarbeitung natürlicher Sprache (NLP) als sehr effektiv erwiesen und kann in Kombination mit seinem LLM anomale Textmuster in E-Mails effektiv erkennen. Diese Muster sind oft ein Kennzeichen von Business Email Compromise (BEC)-Betrügereien. ChatGPT kann auch von der KI generierte E-Mails erkennen, identifizieren und in die Quarantäne schicken. Generative KI wird zur Entwicklung von Cyber-Resilienzplattformen und Erkennungssystemen der nächsten Generation eingesetzt.

Konzentriert sich darauf, die Nachteile von Zero Trust in Vorteile umzuwandeln.

ChatGPT und generative KI können den Herausforderungen sich ständig ändernder Bedrohungsinformationen und Sicherheitskenntnisse begegnen, indem sie das „Muskelgedächtnis“ der Zero-Trust-Sicherheit von Unternehmen stärken. Es ist an der Zeit, diese Technologien als lernende Systeme zu betrachten, die Unternehmen dabei helfen, ihre Cybersicherheitsautomatisierung und menschlichen Fähigkeiten zur Abwehr externer und interner Bedrohungen kontinuierlich zu verbessern, indem sie den gesamten Netzwerkverkehr protokollieren und prüfen, den Zugriff einschränken und kontrollieren sowie Netzwerkressourcen authentifizieren und schützen.

Das obige ist der detaillierte Inhalt vonZehn Möglichkeiten, wie ChatGPT und generative KI Zero Trust stärken. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!

Verwandte Etiketten:
Quelle:51cto.com
Erklärung dieser Website
Der Inhalt dieses Artikels wird freiwillig von Internetnutzern beigesteuert und das Urheberrecht liegt beim ursprünglichen Autor. Diese Website übernimmt keine entsprechende rechtliche Verantwortung. Wenn Sie Inhalte finden, bei denen der Verdacht eines Plagiats oder einer Rechtsverletzung besteht, wenden Sie sich bitte an admin@php.cn
Beliebte Tutorials
Mehr>
Neueste Downloads
Mehr>
Web-Effekte
Quellcode der Website
Website-Materialien
Frontend-Vorlage