La cybersécurité bénéficie des progrès de l'IA et du ML. Les équipes de sécurité d’aujourd’hui sont inondées de données sur des activités potentiellement suspectes, cherchant souvent l’aiguille dans la botte de foin. L'intelligence artificielle aide les équipes de sécurité à découvrir les menaces réelles dans ces données grâce à la reconnaissance de modèles dans le trafic réseau, d'indicateurs de logiciels malveillants et de tendances de comportement des utilisateurs.
Les pirates informatiques utilisent souvent l'intelligence artificielle et l'apprentissage automatique pour traiter avec les entreprises. L’accès facile aux environnements cloud, par exemple, permet de commencer facilement à utiliser l’IA et à créer des modèles d’apprentissage puissants et performants.
Voyons comment les pirates informatiques utilisent l'IA et l'apprentissage automatique pour cibler les entreprises, ainsi que les moyens de prévenir les cyberattaques axées sur l'IA.
Les pirates peuvent utiliser le ML de différentes manières. La première consiste à créer leur propre environnement d’apprentissage automatique et à modéliser leurs propres pratiques en matière de logiciels malveillants et d’attaques afin de déterminer les types d’événements et de comportements recherchés par les équipes de sécurité.
Par exemple, un malware sophistiqué peut modifier les bibliothèques et les composants du système local, exécuter des processus en mémoire et communiquer avec un ou plusieurs domaines appartenant à l'infrastructure contrôlée par les pirates. Toutes ces activités se combinent pour créer un profil appelé Tactiques, Techniques et Procédures (TTP). Les modèles d'apprentissage automatique peuvent observer les TTP et les utiliser pour créer des capacités de détection.
En observant et en prédisant la manière dont les équipes de sécurité détectent les TTP, les pirates peuvent modifier les indicateurs et les comportements de manière subtile et fréquente, gardant ainsi une longueur d'avance sur les équipes de sécurité qui s'appuient sur des outils basés sur l'IA pour détecter les attaques.
Les pirates informatiques utilisent également l'apprentissage automatique et l'intelligence artificielle pour détruire les modèles d'IA contenant des données inexactes, endommageant ainsi l'environnement. Les modèles d'apprentissage automatique et d'intelligence artificielle s'appuient sur des échantillons de données correctement étiquetés pour créer des profils de détection précis et reproductibles. En introduisant des fichiers inoffensifs qui ressemblent à des logiciels malveillants ou en créant des modèles de comportement qui s'avèrent être de faux positifs, les pirates peuvent tromper un modèle d'IA en lui faisant croire qu'une attaque n'est pas malveillante, ou en introduisant des fichiers malveillants que l'IA a été entraînée à marquer. comme sûrs.
Les pirates informatiques cherchent activement à cartographier les modèles d'IA existants et en développement utilisés par les fournisseurs de cybersécurité et les équipes opérationnelles. En comprenant les capacités d’un modèle d’IA et ce qu’il fait, les pirates peuvent activement interférer avec les opérations et les modèles d’apprentissage automatique au cours de leur cycle de vie. Cela permet à un pirate informatique d'influencer le modèle en trompant le système en sa faveur. Il permet également aux pirates d’échapper à la détection basée sur des modèles identifiés en modifiant subtilement les données pour éviter complètement les modèles connus.
Se défendre contre les attaques axées sur l'IA est extrêmement difficile. Les équipes de sécurité doivent s'assurer que les étiquettes associées aux données utilisées dans le développement des modèles et modèles d'apprentissage sont exactes. En garantissant que les données comportent des identifiants d'étiquette précis, l'ensemble de données utilisé pour entraîner le modèle peut devenir plus petit, ce qui n'aide pas à l'efficacité de l'IA.
Pour ceux qui créent des modèles de détection de sécurité de l'IA, l'introduction de techniques et de stratégies contradictoires lors de la modélisation peut aider à combiner la reconnaissance de formes avec des stratégies vues dans la nature. Des chercheurs de l'Université Johns Hopkins ont développé le Trojan Software Framework pour aider à générer des modèles d'intelligence artificielle de chevaux de Troie et d'autres modèles de logiciels malveillants. Des chercheurs du Massachusetts Institute of Technology (MIT) ont publié TextFooler, un outil pour les modèles de langage naturel qui peut aider à créer des modèles d'intelligence artificielle plus résilients pour détecter des problèmes tels que la fraude bancaire.
À mesure que l’importance de l’intelligence artificielle grandit, les pirates chercheront à surpasser les efforts des équipes de sécurité grâce à leurs propres recherches. Il est crucial que les équipes de sécurité se tiennent au courant des stratégies d’attaque des pirates afin de se défendre contre eux.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!