Maison > Périphériques technologiques > IA > ChatGPT est une arme à double tranchant dans le domaine de la sécurité des réseaux

ChatGPT est une arme à double tranchant dans le domaine de la sécurité des réseaux

王林
Libérer: 2023-04-07 15:01:08
avant
1696 Les gens l'ont consulté

ChatGPT est un prototype de chatbot piloté par l'IA, conçu pour prendre en charge un large éventail de cas d'utilisation, notamment le développement de code et le débogage. L'un de ses principaux attraits est la possibilité pour les utilisateurs d'interagir avec le chatbot de manière conversationnelle et d'obtenir de l'aide pour tout, de l'écriture de logiciels à la compréhension de sujets complexes, en passant par la rédaction d'articles et d'e-mails, l'amélioration du service client et le test de différents scénarios commerciaux ou de marché. Mais il peut aussi être utilisé à des fins plus sombres.

Depuis qu'OpenAI a publié ChatGPT, de nombreux experts en sécurité ont prédit que ce n'était qu'une question de temps avant que les cybercriminels ne commencent à utiliser des chatbots IA pour écrire des logiciels malveillants et effectuer d'autres activités malveillantes. Comme toutes les nouvelles technologies, avec suffisamment de temps et d’incitations, quelqu’un trouvera un moyen d’en profiter. Quelques semaines plus tard, il semblait que le moment était venu. Les cybercriminels ont commencé à utiliser ChatGPT, le chatbot d’intelligence artificielle d’OpenAI, pour créer rapidement des outils de piratage. Les fraudeurs testent également la capacité de ChatGPT à créer d'autres chatbots conçus pour se faire passer pour des jeunes femmes afin d'attirer des cibles.

En fait, des chercheurs de Check Point Research (CPR) rapportent qu'au moins trois pirates au chapeau noir ont démontré sur des forums clandestins comment ils exploitent ChatGPT. Intelligence artificielle pour mener des attaques malveillantes.

Dans un exemple documenté, la société de sécurité israélienne Check Point a découvert un message sur un forum de piratage clandestin populaire par un pirate informatique qui a déclaré qu'il expérimentait l'utilisation de chatbots d'intelligence artificielle populaires pour « recréer des logiciels malveillants ».

ChatGPT 在网络安全领域是把双刃剑

ChatGPT permet aux utilisateurs de poser des questions ou des suggestions simples, comme écrire pour suivre les e-mails des fournisseurs d'hébergement.

Les pirates compressent les logiciels malveillants Android générés par ChatGPT et les propagent sur le réseau. Le malware serait capable de voler des fichiers intéressants. Un autre pirate informatique a présenté un autre outil capable d'installer une porte dérobée sur un ordinateur et potentiellement de l'infecter avec davantage de logiciels malveillants.

Dans son évaluation de la situation, Check Point a noté que certains hackers utilisaient ChatGPT pour créer leurs premiers scripts. Dans le forum mentionné ci-dessus, un autre utilisateur a partagé un morceau de code Python écrit à l'aide de ChatGPT qui permet de crypter des fichiers sur l'ordinateur de la victime. Bien que le code puisse être utilisé pour des raisons inoffensives, Check Point déclare que « ChatGPT génère un code qui peut être facilement modifié pour chiffrer entièrement les fichiers sur l'ordinateur d'une victime sans aucune interaction de l'utilisateur ». En outre, un pirate informatique a posté sur un forum clandestin qu'il avait utilisé ChatGPT pour créer un morceau de code qui utilise une API tierce pour récupérer les derniers prix des cryptomonnaies, qui sont utilisés dans les systèmes de paiement du marché darknet.

La société de sécurité a souligné que même si l'outil de piratage codé ChatGPT semble "très basique", "ce n'est qu'une question de temps avant que des acteurs malveillants plus sophistiqués améliorent la façon dont ils utilisent les outils basés sur l'IA". Rik Ferguson, vice-président du renseignement de sécurité chez la société américaine de cybersécurité Forescout, a déclaré que ChatGPT ne semble pas encore être capable d'écrire quelque chose d'aussi sophistiqué que le ransomware majeur observé lors d'incidents de piratage majeurs ces dernières années, comme Conti, qui a été utilisé pour pirater le système national de santé irlandais est notoire. Cependant, les outils d'OpenAI abaisseront les barrières à l'entrée des nouveaux arrivants sur le marché illégal en créant des logiciels malveillants plus basiques mais tout aussi efficaces, a-t-il déclaré.

Alex Holden, fondateur de la société de cyber-renseignement Hold Security, a également déclaré avoir vu des escrocs dans les rencontres commencer également à utiliser ChatGPT alors que les cybercriminels tentaient de créer des personnalités convaincantes. "Ils prévoient de créer des chatbots pour se faire passer pour des filles qui tentent d'automatiser les bavardages à des fins d'escroquerie en ligne." Cependant, la boîte de discussion de l'IA a fait l'objet d'un examen plus approfondi après que les analystes de sécurité ont découvert qu'en utilisant ChatGPT, il était possible d'écrire des e-mails de phishing grammaticalement corrects et sans fautes de frappe.

De l'écriture d'un malware à la création de marchés sur le darknet Dans un cas, l'auteur du malware a révélé dans un forum utilisé par d'autres cybercriminels comment il expérimentait ChatGPT pour voir s'il pouvait reproduire un malware et une technologie connus.

Dans un exemple de réussite d'un attaquant, cet individu a partagé le code d'un voleur d'informations basé sur Python qu'il a développé à l'aide de ChatGPT et qui peut rechercher, copier et exfiltrer 12 types de fichiers courants, tels que les fichiers Office provenant de systèmes infectés. Documents, PDF et images. . Le même auteur de malware a également montré comment il a utilisé ChatGPT pour écrire du code Java afin de télécharger le client PuTTY SSH et telnet et de l'exécuter secrètement sur le système via PowerShell.

Un autre acteur malveillant a publié un script Python qu'il a généré à l'aide d'un chatbot pour crypter et déchiffrer les données à l'aide des algorithmes de cryptage Blowfish et Twofish. Les chercheurs en sécurité ont découvert que même si le code pouvait être utilisé à des fins tout à fait inoffensives, les acteurs malveillants pouvaient facilement le modifier pour qu'il s'exécute sur un système sans aucune interaction de l'utilisateur, le transformant ainsi en ransomware. Contrairement à l'auteur du voleur d'informations, certains des attaquants semblent avoir des compétences techniques très limitées, affirmant en fait que le script Python qu'il a généré à l'aide de ChatGPT était le premier script qu'il ait jamais créé.

Dans un troisième cas, des chercheurs en sécurité ont découvert qu'un cybercriminel discutait de la façon dont il avait utilisé ChatGPT pour créer un marché darknet entièrement automatisé pour échanger des données de comptes bancaires et de cartes de paiement volées, des outils malveillants, des drogues, des munitions et divers autres produits illégaux. "Seuil zéro pour générer des logiciels malveillants"

Sergey Shykevich, responsable du groupe Threat Intelligence chez Check Point, a réitéré qu'avec ChatGPT, les acteurs malveillants n'ont besoin d'aucune expérience en codage pour écrire des logiciels malveillants : « Vous devez savoir quelle fonctionnalité le logiciel malveillant ou tout autre programme devrait avoir pour écrire le code pour vous. "Le problème à court terme est donc certainement que ChatGPT permet à des cybercriminels peu qualifiés de développer des logiciels malveillants", a déclaré Shykevich. "À plus long terme, je pense que les cybercriminels plus sophistiqués adopteront également ChatGPT pour rendre leurs campagnes plus efficaces ou combler différentes lacunes qu'ils peuvent avoir." « Du point de vue d'un attaquant, la capacité des systèmes d'IA à générer du code permet aux acteurs malveillants de combler facilement tout manque de compétences qu'ils pourraient rencontrer en agissant comme traducteur entre les langues. » a ajouté Brad Hong, Customer Success Manager chez Horizon3AI road. Ces outils permettent de créer à la demande des modèles de code adaptés aux objectifs des attaquants et de réduire leur besoin de rechercher des sites de développeurs tels que Stack Overflow et Git. Avant même que des acteurs malveillants soient découverts en train d'abuser de ChatGPT, Check Point, comme un certain nombre d'autres fournisseurs de sécurité, a démontré comment les adversaires exploitaient les chatbots dans des campagnes malveillantes. Dans un article de blog, le fournisseur de sécurité a décrit comment ses chercheurs ont pu créer un e-mail de phishing parfaitement légitime en demandant simplement à ChatGPT d'écrire un e-mail qui semblait provenir d'un service d'hébergement Web fictif. Les chercheurs ont également démontré comment ils laissaient ChatGPT écrire du code VBS qu'ils pouvaient coller dans un classeur Excel pour télécharger un fichier exécutable à partir d'une URL distante.

Le but de ce test est de démontrer comment un attaquant peut abuser d'un modèle d'IA tel que ChatGPT pour créer une chaîne d'infection complète, depuis l'e-mail initial de spear phishing jusqu'à l'exécution d'un shell inversé sur le système affecté. ChatGPT 在网络安全领域是把双刃剑

Dans l’état actuel des choses, ChatGPT ne peut pas remplacer les acteurs malveillants qualifiés – du moins pas encore. Mais les chercheurs en sécurité affirment qu'il existe de nombreuses preuves selon lesquelles ChatGPT aide les pirates informatiques peu qualifiés à créer des logiciels malveillants, ce qui continuera de susciter des inquiétudes dans l'opinion publique quant aux cybercriminels qui abusent de cette technologie.

Contourner les restrictions de ChatGPT

Au départ, certains chercheurs en sécurité pensaient que les restrictions de l'interface utilisateur de ChatGPT étaient faibles et ont constaté que les acteurs malveillants pouvaient facilement contourner les obstacles. Depuis lors, Shykevich a déclaré qu'OpenAI s'efforçait d'améliorer les limites du chatbot.

« Nous constatons que les restrictions sur l'interface utilisateur de ChatGPT augmentent chaque semaine. En conséquence, il est désormais plus difficile d'utiliser ChatGPT pour des activités malveillantes ou abusives », a-t-il déclaré.

Mais les cybercriminels peuvent toujours abuser du programme en utilisant et en évitant certains mots ou expressions qui permettent aux utilisateurs de contourner les restrictions. Matt Lewis, directeur de la recherche commerciale chez NCC Group, considère l'interaction avec des modèles en ligne comme une « forme d'art » impliquant l'informatique.

"Si vous évitez d'utiliser le mot malware et lui demandez simplement de vous montrer un exemple de code qui crypte un fichier, en fonction de la façon dont le malware est conçu, c'est ce qu'il va faire", a déclaré Lewis. "Il a une façon d'aimer être instruit, et il existe des façons intéressantes de lui faire faire ce que vous voulez qu'il fasse de différentes manières."

Dans une démo sur un sujet connexe, Lewis a montré comment ChatGPT " écrire un script de cryptage" qui, même s'il n'atteint pas la totalité du ransomware, peut néanmoins être dangereux. "Cela va être un problème difficile à résoudre", a déclaré Lewis à propos de le contourner, ajoutant que le langage réglementaire concernant le contexte et l'intention serait très difficile pour OpenAI.

Pour compliquer encore les choses, les chercheurs de Check Point ont observé des acteurs malveillants utilisant un robot Telegram avec une API modèle GPT-3, appelée text-davinci-003, au lieu de ChatGPT, afin de contourner les limitations du chatbot.

ChatGPT n'est que l'interface utilisateur pour les modèles OpenAI. Les développeurs peuvent utiliser ces modèles pour intégrer des modèles back-end à leurs propres applications. Les utilisateurs consomment ces modèles via une API protégée sans restriction.

« D'après ce que nous avons vu, les barrières et limitations qu'OpenAI a mises en place sur l'interface ChatGPT ne s'appliquent pas à ceux qui utilisent ces modèles via l'API », a déclaré Shykevich.

Les acteurs menaçants peuvent également échapper aux restrictions en appelant précisément les chatbots. CyberArk a testé ChatGPT depuis son lancement et a découvert des angles morts dans ses limites. Grâce à une persévérance et des demandes répétées, il fournira le produit de codage souhaité. Les chercheurs de CyberArk rapportent également qu'en interrogeant continuellement ChatGPT et en restituant un nouveau morceau de code à chaque fois, les utilisateurs peuvent créer des logiciels malveillants polymorphes très évasifs à la détection.

Les virus polymorphes peuvent être très dangereux. Il existe déjà des outils et des frameworks en ligne capables de générer de tels virus. La capacité de ChatGPT à créer du code est particulièrement bénéfique pour les codeurs non qualifiés et les script kiddies.

Ce n'est pas une nouvelle fonctionnalité en ce qui concerne les attaquants... ce n'est pas non plus un moyen particulièrement efficace de générer des variantes de logiciels malveillants, il existe de meilleurs outils. ChatGPT est peut-être un nouvel outil, car il permet à des attaquants moins expérimentés de générer du code potentiellement dangereux.

Rendre la tâche plus difficile pour les cybercriminels

ChatGPT 在网络安全领域是把双刃剑

Les développeurs d'OpenAI et d'autres outils similaires ont installé des filtres et des contrôles et les améliorent constamment pour tenter de limiter l'utilisation abusive de leur technologie. Pour l’instant du moins, les outils d’IA restent défectueux et sujets à ce que de nombreux chercheurs décrivent comme de pures erreurs, qui pourraient contrecarrer certains efforts malveillants. Néanmoins, nombreux sont ceux qui prédisent que le risque d’utilisation abusive de ces technologies restera élevé à long terme.

Pour rendre plus difficile l'abus de ces technologies par les criminels, les développeurs doivent former et améliorer leurs moteurs d'IA pour identifier les requêtes qui pourraient être utilisées de manière malveillante, a déclaré Shykevich. Une autre option, a-t-il déclaré, consiste à mettre en œuvre des exigences d’authentification et d’autorisation pour utiliser le moteur OpenAI. Il a noté que même quelque chose de similaire à ce que les institutions financières et les systèmes de paiement en ligne utilisent actuellement serait suffisant.

En ce qui concerne la prévention de l'utilisation criminelle de ChatGPT, Shykevich a également déclaré qu'en fin de compte, "malheureusement, l'application doit passer par la réglementation". OpenAI a mis en place des contrôles qui empêchent ChatGPT de créer des demandes évidentes de logiciels espions avec des avertissements de violation des politiques, bien que les pirates et les journalistes l'aient fait. trouvé des moyens de contourner ces protections. Shykevich a également déclaré que des entreprises comme OpenAI pourraient devoir être légalement obligées de former leur IA pour détecter de tels abus.


Cet article est traduit de : https://www.techtarget.com/searchsecurity/news/365531559/How-hackers-can-abuse-ChatGPT-to-create-malware

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal