Un rapport de recherche récemment publié par BlackBerry montre que les robots ChatGPT alimentés par l'intelligence artificielle peuvent constituer une menace pour la sécurité du réseau. Shishir Singh, directeur de la technologie de la cybersécurité chez BlackBerry, a déclaré : « Il existe de nombreuses preuves que des acteurs malveillants tentent d'utiliser les robots ChatGPT pour mener des cyberattaques. Il a déclaré qu'il s'attendait à ce qu'en 2023, les pirates en profitent davantage. » Cet outil d’intelligence artificielle est utilisé à des fins néfastes. Une enquête menée auprès d'experts informatiques en Amérique du Nord, au Royaume-Uni et en Australie a montré que 51 % des personnes interrogées ont déclaré qu'une cyberattaque basée sur ChatGPT était susceptible de se produire avant la fin de l'année, et 71 % ont déclaré que certains pays utilisaient peut-être déjà ChatGPT pour cibler. d’autres pays mènent des cyberattaques.
Il est facile de considérer le taux d'adoption élevé de ChatGPT comme une réaction exagérée et instinctive à une application impressionnante. Il suffit de regarder la croissance rapide de son utilisation. ChatGPT serait l'application grand public qui connaît la croissance la plus rapide de tous les temps. ChatGPT n’a été ouvert au public qu’en décembre 2022. En seulement deux mois, les utilisateurs enregistrés ont atteint plus de 100 millions. Il a fallu environ 9 mois à TikTok pour atteindre le même nombre. Il est facile de comprendre pourquoi les gens s'inquiéteraient des abus de ChatGPT, car le robot ouvert à l'IA peut non seulement écrire des commentaires, mais également créer du code.
Les experts du secteur ont trouvé que les articles générés par ChatGPT sont un peu approximatifs. Bien qu'il soit possible d'écrire un article impressionnant, l'article ne peut pas résister à l'épreuve de la vision éditoriale de quelqu'un qui comprend le sujet concerné. Même en l’absence d’intention malveillante, le risque de désinformation est élevé. Apparemment, ChatGPT ne comprend pas les problèmes de sécurité et ce que sont les menaces de cybersécurité ?
Les chercheurs du fournisseur de services de cybersécurité CyberArk ont publié un article de blog sur la recherche sur les cybermenaces en janvier de cette année détaillant comment ils ont utilisé ChatGPT pour créer malware polymorphe. Comme on pouvait s’y attendre, les chercheurs ont réussi à contourner les filtres de politique de contenu établis par OpenAI. Comme vous pouvez le voir sur la capture d'écran ci-dessous, si l'on demande au robot IA de créer du code malveillant en Python, il refusera poliment.
Cependant, grâce à ce que les chercheurs appellent un processus de « conserver et exiger » lors de la demande d'entrée, ChatGPT a le potentiel de créer du code exécutable. . Cela était problématique, et est devenu encore plus problématique lorsqu'ils ont continué à créer du code de malware polymorphe : ChatGPT a muté le code pour créer plusieurs itérations différentes afin de tromper les systèmes de détection initiaux basés sur les signatures. Est-ce une préoccupation majeure ? Ne soyez pas, comme le disent les chercheurs, « une fois que le malware est présent sur une machine cible, il s'agit manifestement d'un code malveillant qui est facilement détecté par un logiciel de sécurité. » ChatGPT est un exemple d'apprentissage automatique. Au fil du temps, plus il reçoit de données d’entrée, plus sa sortie s’améliore, et les choses ne feront que s’améliorer.
L'agence de sécurité Check Point Re4search a également publié un rapport d'enquête en janvier de cette année, axé sur l'enquête sur la manière dont les cybercriminels ont commencé à utiliser ChatGPT de manière malveillante. Les chercheurs ont découvert qu'en plus de créer un « e-mail de spear phishing convaincant », les acteurs malveillants sur les forums criminels partageaient un message basé sur Python qui volait un morceau de code malveillant très basique et un script Java malveillant créé à l'aide de ChatGPT. Un autre émulateur de cyberattaque a admis que ChatGPT l'avait aidé à mettre au point un outil de cryptage Python qui fonctionne dans une configuration de ransomware. Les chercheurs affirment que bon nombre des cybercriminels impliqués n’avaient tout simplement aucune compétence en développement, ce qui est peut-être l’aspect le plus préoccupant puisqu’ils n’avaient pas besoin de créer eux-mêmes les scripts malveillants.
Des experts du secteur ont contacté OpenAI à cette fin, dans l'espoir d'obtenir une déclaration sur la menace de cybersécurité ChatGPT, mais n'ont pas reçu de réponse au moment de la publication. Cependant, il a reçu quelques réponses de ChatGPT.
Les experts du secteur se demandent si ChatGPT présente des risques en matière de cybersécurité. ChatGPT a répondu de cette façon : « Non, les modèles basés sur GPT d'OpenAI (tels que ChatGPT) ne constituent pas une menace pour la cybersécurité. Ils sont formés à l'aide de grandes quantités de données textuelles provenant d'Internet et n'ont cependant aucune intention ou capacité malveillante. Tout Comme pour la technologie, il est important de faire preuve de prudence et de suivre les meilleures pratiques en matière de sécurité et de confidentialité des données lors de l'utilisation et du déploiement de modèles basés sur GPT »
.Parce que ChatGPT semblait la nier, une autre tentative a été faite pour lui faire régénérer une réponse à la même question. ChatGP a répondu : "Non, ChatGPT ne pose pas de menace pour la cybersécurité. Il s'agit d'un modèle de langage développé par OpenAI qui est conçu pour générer du texte en fonction des entrées qu'il reçoit. Cependant, il est important de se rappeler que toute technologie peut être utilisée à mauvais escient, comme le sont les utilisateurs. responsables de la protection de leurs systèmes et de leurs données. De plus, faites preuve de prudence lorsque vous partagez des informations sensibles car elles peuvent être accessibles à des tiers. plusieurs fois, mais ChatGPT a toujours répondu par le même "ne constitue pas une menace pour la sécurité du réseau". Ensuite, il a demandé à ChatGPT de répondre à cette question en 500 mots, ce qui peut effectivement générer plus d'informations de base. Par exemple, « S'il tombe entre de mauvaises mains, il pourrait être exploité à des fins malveillantes », « ChatGPT pourrait être utilisé pour récupérer des informations sensibles sur Internet, telles que des données personnelles ou des informations financières. »
Enfin, utilisez 1 000 mots. pour ChatGPT Après avoir écrit un article sur les risques de cybersécurité de ChatGPT, j'ai une expression plus franche dans le troisième paragraphe : « Un autre risque associé aux modèles d'intelligence artificielle tels que ChatGPT est qu'ils peuvent être utilisés à des fins malveillantes, par exemple par un cyberattaquant. pourrait créer un faux chatbot qui ressemble à un représentant du service client et l'utiliser pour inciter les gens à fournir leurs informations personnelles ou à effectuer des achats non autorisés si le cyberattaquant parvient à le faire voir au chatbot. Encouragé par ce succès, ChatGPT a finalement admis que. il pourrait être utilisé à des fins malveillantes. Les experts du secteur ont amélioré leurs questions en posant à ChatGPT sur la création de code malveillant et ont reçu de nouveaux commentaires. ChatGPT a répondu : « La capacité des modèles de langage comme ChatGPT à écrire du code malveillant est un sujet de préoccupation pour de nombreuses entreprises et particuliers. À mesure que ces modèles deviennent plus sophistiqués, la probabilité qu'ils puissent être utilisés à des fins malveillantes augmente. comprendre que les risques associés à l'écriture de code malveillant avec ChatGPT ne sont pas inhérents à la technologie elle-même, mais dépendent de la manière dont elle est utilisée. »
ChatGPT a développé ce contenu en ajoutant : « Par exemple, les modèles de langage peuvent être entraînés. pour générer du code qui exploite les vulnérabilités des applications logicielles, qui pourraient être utilisées pour mener des attaques telles que le vol de données ou le déni de service. Les cyber-attaquants peuvent également utiliser des modèles de langage pour générer du code conçu pour échapper à la détection par les outils de sécurité. les attaques deviennent plus difficiles. »
ChatGPT est aussi efficace que le but pour lequel il est utiliséBien sûr, on ne peut pas se laisser berner par la spéculation selon laquelle ChatGPT pourrait être dangereux. ChatGPT est un outil d'intelligence artificielle impressionnant qui a le potentiel de faire beaucoup de bien même dans le domaine de la recherche sur la cybersécurité. Cependant, comme pour toute technologie, les mauvais acteurs adopteront des outils comme celui-ci pour faire de mauvaises choses, et c’est comme ça. Le résumé de ChatGPT est le suivant : "En résumé, la capacité d'un modèle de langage comme ChatGPT à écrire du code malveillant est une réelle préoccupation. Cependant, il ne s'agit pas d'un risque inhérent à la technologie elle-même, mais plutôt à la manière dont elle est utilisée.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!