Maison > Périphériques technologiques > IA > Dix façons dont ChatGPT et l'IA générative renforcent la confiance zéro

Dix façons dont ChatGPT et l'IA générative renforcent la confiance zéro

PHPz
Libérer: 2023-05-16 14:34:06
avant
1271 Les gens l'ont consulté

Dix façons dont ChatGPT et lIA générative renforcent la confiance zéro

Quels retours les PDG de cybersécurité reçoivent-ils des clients ?

Les PDG de fournisseurs de cybersécurité interrogés lors de la conférence RSA 2023 ont déclaré que leurs entreprises clientes reconnaissent la valeur de ChatGPT pour améliorer la cybersécurité, tandis que des inquiétudes ont également été exprimées quant au risque de divulgation accidentelle de données confidentielles. données et propriété intellectuelle. La Cloud Security Alliance (CSA) a publié le tout premier document d'orientation ChatGPT lors de la conférence, appelant le secteur à améliorer sa feuille de route en matière d'intelligence artificielle.

Connie Stack, PDG de NextDLP, a déclaré que son entreprise a enquêté sur l'utilisation de ChatGPT par les clients de Next et a constaté que 97 % des grandes entreprises ont constaté que leurs employés utilisaient l'outil. 10 % des terminaux de la plateforme Reveal de Next ont accédé à ChatGPT.

Dans une interview lors de la conférence RSA 2023, Stack a déclaré : « Ce niveau d'utilisation de ChatGPT est une grande préoccupation pour certains de nos clients car ils évaluent ce nouveau vecteur de perte de données. Certains clients Next ont choisi de le désactiver complètement. entreprise de soins de santé qui ne pouvait accepter aucun risque de fuite de propriété intellectuelle et de secrets commerciaux vers un modèle de langage génératif à grande échelle destiné au public. D'autres entreprises étaient ouvertes aux avantages potentiels et ont choisi d'utiliser ChatGPT avec parcimonie, comme l'amélioration de la chasse aux menaces en matière de perte de données. ' et soutenir la création de contenu lié à la sécurité

Créer une nouvelle mémoire musculaire en matière de cybersécurité

La technologie d'IA générative a le potentiel d'améliorer l'apprentissage et l'efficacité du travail des analystes de menaces, des chasseurs de menaces et des centres d'opérations de sécurité (SOC), ce qui est le principal moteur. obligeant les fournisseurs de sécurité réseau à se précipiter pour adopter des outils d’IA générative tels que ChatGPT. L'apprentissage continu doit être profondément intégré dans les défenses contre les menaces d'une organisation afin qu'elle puisse s'appuyer sur sa « mémoire musculaire » pour s'adapter, réagir et neutraliser une tentative d'intrusion avant qu'elle ne commence.

Le sujet le plus discuté lors de la conférence RSA 2023 est sans aucun doute le nouveau produit et son intégration ChatGPT.

Parmi les 20 fournisseurs annonçant de nouveaux produits et intégrations, les plus notables sont Airgap Networks, Google Security AI Workbench, Microsoft Security Copilot (lancé avant le salon), Recorded Future, Security Scorecard et SentinelOne.

Parmi eux, le Zero Trust Firewall (ZTFW) et ThreatGPT d’Airgap méritent particulièrement l’attention. Il est conçu pour compléter l’infrastructure de pare-feu périmétrique existante en ajoutant des couches de micro-segmentation et d’accès dédiées au cœur du réseau. Ritesh Agrawal, PDG d'Airgap, a déclaré : « Grâce à une découverte d'actifs très précise, une micro-segmentation sans agent et un accès sécurisé, Airgap fournit des informations riches pour lutter contre les menaces en constante évolution. Ce dont les clients ont désormais besoin, c'est d'une méthode facile à exploiter et sans aucun besoin. " Cette approche fonctionnelle. C'est la beauté de ThreatGPT : l'intelligence pure d'exploration de données de l'IA combinée à une interface simple en langage naturel va changer la donne pour les équipes de sécurité. "

Parmi les startups Zero Trust, Airgap est considérée comme l'une des " équipes d’ingénierie et de développement de produits les plus innovantes. ThreatGPT d'Airgap combine une base de données graphique et un modèle GPT-3 pour fournir des informations sur la cybersécurité auparavant indisponibles. La société a configuré des modèles GPT-3 pour analyser les requêtes en langage naturel et identifier les menaces de sécurité potentielles, tout en intégrant des bases de données graphiques pour fournir une intelligence contextuelle des relations de trafic entre les points de terminaison.

Comment ChatGPT renforce le Zero Trust

L’IA générative renforce le Zero Trust en identifiant et en renforçant les surfaces de menace les plus vulnérables d’une entreprise. Plus tôt cette année, le créateur de Zero Trust, John Kindervag, a suggéré dans une interview qu'« il faut commencer avec une surface protégée » et a parlé de ce qu'il a appelé « la courbe d'apprentissage du Zero Trust. On ne commence pas avec la technologie, c'est un malentendu

». Voici les moyens potentiels par lesquels l'IA générative peut améliorer le cadre de base de confiance zéro défini dans la norme NIST 800-207 :

1 Unifiez et apprenez l'analyse des menaces et la réponse aux incidents au niveau de l'entreprise

Le directeur de la sécurité de l'information (CISO) ). cherchent à consolider leurs piles technologiques, car il existe de nombreux systèmes contradictoires en matière d'analyse des menaces, de réponse aux incidents et de systèmes d'alerte, et les analystes SOC ne savent pas exactement ce qui est le plus urgent. L'IA générative et ChatGPT se sont révélés être des outils puissants pour l'intégration d'applications. À terme, ils fourniront aux RSSI une vue unique de l’analyse des menaces et de la réponse aux incidents dans l’ensemble de leur infrastructure.

2. Identifiez plus rapidement les tentatives d'intrusion internes et externes basées sur l'identité grâce à une surveillance continue

Le cœur du zéro confiance est l'identité. L’IA générative a le potentiel d’identifier rapidement si l’activité d’une identité donnée est cohérente avec son historique antérieur.

Les RSSI estiment que les intrusions les plus difficiles à arrêter commencent souvent de l'intérieur, en exploitant des identités et des informations d'identification légitimes.

L'un des principaux avantages du LLM (Large Language Model) est la capacité de découvrir des anomalies dans les données sur la base de petites tailles d'échantillon. C'est idéal pour protéger IAM, PAM et Active Directory. LLM s'est avéré efficace pour analyser les journaux d'accès des utilisateurs et détecter les activités suspectes.

3. Surmonter les obstacles les plus difficiles de la micro-segmentation

Les nombreux défis liés à la réalisation correcte d'une micro-segmentation peuvent retarder de grands projets de micro-segmentation de plusieurs mois, voire de plusieurs années. Bien que la micro-segmentation du réseau soit conçue pour isoler des segments définis au sein d'un réseau d'entreprise, il s'agit rarement d'une tâche unique.

L'IA générative peut aider en déterminant la meilleure façon d'introduire des scénarios de micro-segmentation sans perturber l'accès au système et aux ressources. Mieux encore, cela peut potentiellement réduire les milliers de tickets créés dans les systèmes de gestion des services informatiques par de mauvais projets de micro-segmentation.

4. Résolvez les défis de sécurité liés à la gestion et à la protection des points de terminaison et des identités

Les attaquants recherchent toujours des vulnérabilités entre la sécurité des points de terminaison et la gestion des identités. L'IA générative et ChatGPT peuvent aider à résoudre ce problème, en donnant aux chasseurs de menaces les informations dont ils ont besoin pour savoir quels points de terminaison sont les plus vulnérables aux compromissions.

Pour renforcer la « mémoire musculaire » des réponses de sécurité, en particulier lorsqu'il s'agit de points de terminaison, l'IA générative peut être utilisée pour apprendre en permanence comment les attaquants tentent de pénétrer dans les points de terminaison, leurs points cibles et les identités qu'ils tentent d'utiliser.

5. Amener l'accès au moindre privilège à un tout nouveau niveau

Appliquer l'IA générative pour restreindre l'accès aux ressources par identité, système et durée est l'un des cas d'utilisation améliorés par l'IA zéro confiance les plus puissants. L'interrogation de ChatGPT pour obtenir des données d'audit basées sur des profils de ressources et d'autorisations permet aux administrateurs système et aux équipes SOC d'économiser des milliers d'heures chaque année.

Un élément essentiel de l'accès au moindre privilège consiste à supprimer les comptes obsolètes. Le rapport Ivanti sur l'état de préparation en matière de sécurité 2023 révèle que 45 % des entreprises soupçonnent que leurs anciens employés et sous-traitants ont toujours un accès actif aux systèmes et aux fichiers de l'entreprise.

Le Dr Srinivas Mukkamala, directeur des produits chez Ivanti, a déclaré : « Les grandes entreprises ne prennent souvent pas en compte le vaste écosystème d'applications, de plates-formes et de services tiers qui accordent un accès bien au-delà de celui de leurs employés. « informations d'identification zombies » et un nombre alarmant de professionnels de la sécurité, même de la haute direction, ont toujours accès aux systèmes et aux données de leur ancien employeur. "

6. Analyse comportementale affinée, notation des risques et rôles de sécurité en temps réel.

L'IA générative et ChatGPT permettront aux analystes et aux équipes SOC de saisir plus rapidement les anomalies découvertes par l'analyse comportementale et la notation des risques. Ils peuvent alors bloquer immédiatement tout mouvement latéral tenté par des attaquants potentiels. Définir un accès privilégié uniquement via des scores de risque deviendra obsolète, l’IA générative contextualisera les requêtes et enverra des alertes à ses algorithmes pour identifier les menaces potentielles.

7. Analyses, rapports et visibilité en temps réel améliorés pour aider à mettre fin à la fraude en ligne

Les programmes Zero Trust les plus réussis reposent sur l'intégration de données, qui regroupe et rend compte des analyses, des rapports et de la visibilité en temps réel. Les entreprises peuvent utiliser ces données pour former des modèles d’IA génératifs, fournissant ainsi des informations sans précédent aux chasseurs de menaces et aux analystes SOC.

Les résultats seront immédiatement mesurables en termes de lutte contre la fraude dans le commerce électronique, car les attaquants ciblent les systèmes de commerce électronique qui ne peuvent pas suivre le rythme des attaques. Les analystes des menaces disposant des données d'historique d'accès ChatGPT sauront immédiatement si les transactions signalées sont légitimes.

8. Améliorez l'accès contextuel et améliorez le contrôle d'accès précis

Un autre élément essentiel du zéro confiance est la granularité du contrôle d'accès basé sur l'identité, les actifs et les points de terminaison. Tournez-vous vers l'IA générative pour créer de nouveaux flux de travail capables de détecter plus précisément une combinaison de modèles de trafic réseau, de comportement des utilisateurs et d'intelligence contextuelle afin de recommander des changements de politique en fonction de l'identité et du rôle. Les chasseurs de menaces, les analystes SOC et les analystes de fraude connaîtront chaque identifiant d'accès privilégié abusé en quelques secondes et pourront restreindre tous les accès avec une simple commande ChatGPT.

9. Renforcez la configuration et la conformité pour la rendre plus conforme aux normes Zero Trust

Le modèle LLM sur lequel est basé ChatGPT s'est avéré efficace pour améliorer la détection des anomalies et simplifier la détection des fraudes. La prochaine étape dans ce domaine consiste à tirer parti du modèle ChatGPT pour automatiser la politique d'accès et la création de groupes d'utilisateurs et rester informé de la conformité avec les données en temps réel générées par le modèle. ChatGPT améliorera considérablement l'efficacité de la gestion de la configuration, de la gouvernance des risques et des rapports de conformité.

10. Limiter la portée des attaques de phishing

C'est la surface de menace sur laquelle les attaquants prospèrent : ils utilisent l'ingénierie sociale pour inciter les victimes à payer de grosses sommes d'argent. ChatGPT s'est avéré très efficace dans le traitement du langage naturel (NLP) et, combiné à son LLM, peut détecter efficacement les modèles de texte anormaux dans les e-mails. Ces modèles sont souvent caractéristiques des escroqueries BEC (Business Email Compromise). ChatGPT peut également détecter et identifier les e-mails générés par l'IA et les envoyer en quarantaine. L’IA générative est utilisée pour développer des plateformes de cyber-résilience et des systèmes de détection de nouvelle génération.

Axés sur la transformation des inconvénients du Zero Trust en avantages

ChatGPT et l'IA générative peuvent relever les défis de l'évolution constante des informations sur les menaces et des connaissances en matière de sécurité en renforçant la « mémoire musculaire » de la sécurité Zero Trust de l'entreprise. Il est temps de considérer ces technologies comme des systèmes d’apprentissage qui aident les entreprises à améliorer continuellement leur automatisation de la cybersécurité et leurs compétences humaines pour se défendre contre les menaces externes et internes en enregistrant et en inspectant tout le trafic réseau, en restreignant et en contrôlant l’accès, et en authentifiant et en protégeant les ressources du réseau.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal