Table des matières
1.ChatGPT abaissera le seuil d'utilisation de la cybercriminalité
2 .Créer un phishing convaincant. les e-mails deviendront plus faciles
3. Les entreprises auront besoin de professionnels de la sécurité qui comprennent l’intelligence artificielle
4. Les entreprises devront vérifier le contenu de la sortie de l'IA générative
5. L'IA générative mettra à niveau les menaces existantes
6. Les entreprises définiront leurs attentes concernant l'utilisation de ChatGPT
7. capacités
8. Les entreprises seront toujours confrontées aux mêmes vieilles menaces
Maison Périphériques technologiques IA Huit prévisions d'analystes sur la sécurité de ChatGPT en 2023

Huit prévisions d'analystes sur la sécurité de ChatGPT en 2023

Apr 04, 2023 pm 01:00 PM
人工智能 安全 chatgpt

La récente sortie de ChatGPT-4 par le développeur d'intelligence artificielle OpenAI a de nouveau choqué le monde, mais ce que cela signifie dans le domaine de la sécurité des données reste à déterminer. D’une part, générer des malwares et des ransomwares est plus facile que jamais. D'un autre côté, ChatGPT peut également fournir une série de nouveaux cas d'utilisation de défense.

La récente sortie de ChatGPT-4 par le développeur d'intelligence artificielle OpenAI a de nouveau choqué le monde, mais ce que cela signifie dans le domaine de la sécurité des données n'a pas encore été déterminé. D’une part, générer des malwares et des ransomwares est plus facile que jamais. D'un autre côté, ChatGPT peut également fournir une série de nouveaux cas d'utilisation de défense.

Huit prévisions d'analystes sur la sécurité de ChatGPT en 2023

Les médias du secteur ont récemment interviewé certains des meilleurs analystes mondiaux en matière de cybersécurité, et ils ont fait les prédictions suivantes sur le développement de ChatGPT et de l'intelligence artificielle générative en 2023 :

  • ChatGPT abaissera le seuil de la cybercriminalité.
  • Créer des e-mails de phishing convaincants deviendra plus facile.
  • Les entreprises auront besoin de professionnels de la sécurité qui comprennent la technologie de l'IA.
  • Les entreprises devront vérifier le contenu des résultats de l’IA générative.
  • L'IA générative mettra à niveau les menaces existantes.
  • Les entreprises définiront leurs attentes concernant l'utilisation de ChatGPT.
  • L'intelligence artificielle améliorera les capacités humaines.
  • Les entreprises seront toujours confrontées aux mêmes vieilles menaces.

Voici quelques prédictions d'analystes en cybersécurité.

1.ChatGPT abaissera le seuil d'utilisation de la cybercriminalité

Steve Grobman, vice-président directeur et directeur de la technologie de McAfee, a déclaré : « ChatGPT abaisse le seuil d'utilisation, rendant ainsi certaines technologies qui nécessitent traditionnellement l'investissement de talents hautement qualifiés et de grosses sommes d'argent. accessible à tous. Toute personne ayant accès à Internet peut désormais l'utiliser. Les cyberattaquants non qualifiés ont désormais les moyens de générer du code malveillant en masse

Par exemple, ils peuvent demander à un programme d'écrire du code pour générer des messages texte qui sont envoyés à des centaines de personnes. C'est ce que fait une équipe marketing non criminelle. Au lieu de diriger les destinataires vers un site Web sécurisé, ils les dirigent vers un site Web contenant des menaces malveillantes. Bien que le code lui-même ne soit pas malveillant, il peut l'être.

Comme toute technologie ou application émergente, qui présente des avantages et des inconvénients, ChatGPT sera utilisé à la fois par de bons et de mauvais acteurs, la communauté de la cybersécurité doit donc rester vigilante sur la manière dont elle peut être exploitée »

2 .Créer un phishing convaincant. les e-mails deviendront plus faciles

Justin Greis, associé chez McKinsey & Company, a déclaré : « D'une manière générale, l'IA générative est un outil qui, comme tous les outils, peut être utilisé à bon escient. des chercheurs curieux élaborent des e-mails de phishing plus convaincants, générant du code et des scripts malveillants pour lancer des cyberattaques potentielles ou même simplement pour interroger afin d'obtenir des renseignements meilleurs et plus rapides

Mais à chaque cas d'abus, des contrôles continueront d'être mis en place pour les contrer, c'est la nature de la cybersécurité, c'est une bataille sans fin pour déjouer l'adversaire. Une course aux défenseurs.

Comme pour tout outil pouvant être utilisé à des fins malveillantes, les entreprises doivent mettre en place des garde-fous et des garanties pour protéger le public contre les abus. ”

3. Les entreprises auront besoin de professionnels de la sécurité qui comprennent l’intelligence artificielle

David Hoelzer, chercheur SANS à l’Institut SANS, a déclaré : « ChatGPT est actuellement populaire dans le monde entier, mais nous n’en sommes qu’à ses balbutiements. impact sur le paysage de la cybersécurité. Cela marque le début d’une nouvelle ère d’adoption de l’IA/ML des deux côtés, non pas tant à cause de ce que ChatGPT peut faire, mais parce qu’il met l’IA/ML sous les projecteurs

Sur le D'un côté, ChatGPT peut potentiellement être utilisé pour démocratiser l'ingénierie sociale, en donnant aux acteurs de menace inexpérimentés de nouvelles capacités pour générer rapidement et facilement des excuses ou des escroqueries, et déployer des attaques de phishing sophistiquées à grande échelle.

D'un autre côté, lorsqu'il s'agit de créer ChatGPT, c'est possible. beaucoup moins capable lorsqu'il s'agit de nouvelles attaques ou de défenses. Ce n'est pas un échec, c'est parce que les gens lui demandent de faire des choses pour lesquelles il n'est pas formé.

Qu'est-ce que cela signifie pour les professionnels de la sécurité ? ignorer ChatGPT ? Non. En tant que professionnels de la sécurité, beaucoup d'entre nous ont testé ChatGPT pour voir à quel point il remplit les fonctions de base. Peut-il écrire des scénarios de test Pen ? Peut-il écrire des excuses de phishing ? Comment peut-il aider à créer une infrastructure d'attaque et C2 ? Jusqu'à présent, les résultats de ses tests ont été mitigés.

Cependant, la conversation plus large sur la sécurité ne concerne pas ChatGPT. Il s’agit de savoir si nous disposons actuellement de rôles de sécurité qui comprennent comment créer, utiliser et interpréter les technologies IA/ML. "

4. Les entreprises devront vérifier le contenu de la sortie de l'IA générative

L'analyste de Gartner, Avivah Litan, a déclaré : "Dans certains cas, lorsque le personnel de sécurité ne peut pas vérifier le contenu de sa sortie, les problèmes causés par ChatGPT seront plus importants. que cela résout plus de problèmes. Par exemple, cela manquera inévitablement de détecter certaines vulnérabilités et donnera aux entreprises un faux sentiment de sécurité.

De même, il peut également manquer les détections détectées d'attaques de phishing et fournir des informations sur les menaces incorrectes ou obsolètes.

Nous verrons donc certainement en 2023 que ChatGPT sera tenu responsable des cyberattaques manquées et des vulnérabilités conduisant à des violations de données pour les entreprises qui l'utilisent. "

5. L'IA générative mettra à niveau les menaces existantes

Rob Hughes, responsable de la sécurité de l'information chez RSA, a déclaré : "Comme beaucoup de nouvelles technologies, je ne pense pas que ChatGPT apportera de nouvelles menaces. Je pense que le plus grand changement que cela apportera au paysage de la sécurité sera d’amplifier, d’accélérer et de renforcer les menaces existantes, en particulier le phishing.

À un niveau basique, ChatGPT peut fournir aux cyberattaquants des e-mails de phishing syntaxiquement corrects, ce que nous ne voyons pas très souvent de nos jours.

Bien que ChatGPT reste un service hors ligne, ce n'est qu'une question de temps avant que les auteurs de cybermenaces commencent à combiner l'accès Internet, l'automatisation et l'intelligence artificielle pour créer des attaques persistantes et avancées.

Avec les chatbots, les humains n’ont pas besoin d’écrire des appâts pour le spam. Au lieu de cela, ils pourraient écrire un script qui dit : « Utilisez les données Internet pour vous familiariser avec tel ou tel et continuez à lui envoyer des messages jusqu'à ce qu'il clique sur le lien. 

Le phishing reste l'une des principales causes de violations de cybersécurité. Lorsqu'un robot en langage naturel utilise un outil de spear phishing distribué tout en travaillant à grande échelle sur les machines de centaines d'utilisateurs, il sera plus difficile pour les équipes de sécurité de faire leur travail. "

6. Les entreprises définiront leurs attentes concernant l'utilisation de ChatGPT

Matt Miller, responsable des services de cybersécurité chez KPMG, a déclaré qu'à mesure que de plus en plus d'entreprises explorent et adoptent ChatGPT, la sécurité sera une préoccupation majeure. Voici quelques étapes pour aider les entreprises. prenez une longueur d'avance en 2023 :

(1) Définir les attentes quant à la manière dont ChatGPT et les solutions similaires doivent être utilisées dans les environnements d'entreprise. Développer une politique d'utilisation acceptable, définir toutes les solutions approuvées, les cas d'utilisation et une liste de données sur lesquelles les employés peuvent s'appuyer. et exiger des contrôles pour vérifier l'exactitude des réponses

(2) Établir des processus internes pour examiner l'impact et l'évolution des réglementations concernant l'utilisation des solutions d'automatisation cognitive, notamment la propriété intellectuelle, la gestion des données personnelles, ainsi que leur inclusion appropriée. et la diversité.

(3) Mettre en œuvre des contrôles techniques du réseau, en accordant une attention particulière au test de la résilience opérationnelle du code et à la recherche de charges utiles malveillantes, notamment : l'authentification multifacteur et l'autorisation de l'accès des utilisateurs ; de programmes de prévention des pertes de données pour garantir que tout le code généré par les outils passe par un processus de révision standard et ne peut pas être copié directement dans les environnements de production ; et la configuration du filtrage du réseau pour alerter les employés lorsqu'ils accèdent à des solutions non approuvées

7. capacités

Doug Cahill, vice-président senior et analyste senior chez ESG Corp. Analyst Services, a déclaré : « Comme la plupart des nouvelles technologies, ChatGPT deviendra une ressource pour les cyber-attaquants et les défenseurs. Les cas d'utilisation contradictoires incluent la reconnaissance et les défenseurs recherchant les meilleures pratiques et le marché du renseignement sur les menaces. Comme pour d’autres cas d’utilisation de ChatGPT, la fidélité des réponses aux tests utilisateur variera à mesure que le système d’IA est formé sur un corpus de données déjà important et croissant.

Bien que le cas d'utilisation de ChatGPT soit largement utilisé, le partage de renseignements sur les menaces entre les membres de l'équipe pour la recherche des menaces et la mise à jour des règles et des modèles de défense est prometteur. Cependant, ChatGPT est un autre exemple d’IA augmentant (plutôt que remplaçant) l’élément humain requis dans tout type de scénario d’application d’enquête sur les menaces. "

8. Les entreprises seront toujours confrontées aux mêmes vieilles menaces

Candid Wuest, vice-président de la recherche mondiale chez Acronis, a déclaré : "Bien que ChatGPT soit un modèle de génération de langage puissant, cette technologie n'est pas un outil autonome et ne peut pas fonctionner indépendamment. Il repose sur la saisie de l'utilisateur et est limité par les données sur lesquelles il est formé.

Par exemple, le texte de phishing généré par ce modèle doit toujours être envoyé depuis un compte de messagerie et dirigé vers un site Web. Ce sont des indicateurs traditionnels qui peuvent être analysés pour aider à les détecter.

Bien que ChatGPT ait la capacité d'écrire des exploits et des charges utiles, les tests ont montré que ces fonctionnalités ne sont pas aussi performantes que suggérées initialement. La plateforme peut également être utilisée pour écrire des logiciels malveillants, et bien que ce code soit déjà disponible en ligne et sur divers forums, ChatGPT le rend plus accessible au grand public.

Cependant, ses modifications sont encore limitées, ce qui rend ce malware facilement détectable par la détection basée sur le comportement et d'autres méthodes. ChatGPT n'est pas spécifiquement conçu pour cibler ou exploiter les vulnérabilités, mais il peut augmenter la fréquence des messages automatisés ou simulés. Il abaisse les barrières à l’entrée pour les cybercriminels, mais il n’introduit pas de méthodes d’attaque entièrement nouvelles pour les entreprises établies. »

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn

Outils d'IA chauds

Undresser.AI Undress

Undresser.AI Undress

Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover

AI Clothes Remover

Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool

Undress AI Tool

Images de déshabillage gratuites

Clothoff.io

Clothoff.io

Dissolvant de vêtements AI

AI Hentai Generator

AI Hentai Generator

Générez AI Hentai gratuitement.

Article chaud

R.E.P.O. Crystals d'énergie expliqués et ce qu'ils font (cristal jaune)
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Meilleurs paramètres graphiques
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. Comment réparer l'audio si vous n'entendez personne
3 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25: Comment déverrouiller tout dans Myrise
4 Il y a quelques semaines By 尊渡假赌尊渡假赌尊渡假赌

Outils chauds

Bloc-notes++7.3.1

Bloc-notes++7.3.1

Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise

SublimeText3 version chinoise

Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1

Envoyer Studio 13.0.1

Puissant environnement de développement intégré PHP

Dreamweaver CS6

Dreamweaver CS6

Outils de développement Web visuel

SublimeText3 version Mac

SublimeText3 version Mac

Logiciel d'édition de code au niveau de Dieu (SublimeText3)

ChatGPT permet désormais aux utilisateurs gratuits de générer des images en utilisant DALL-E 3 avec une limite quotidienne ChatGPT permet désormais aux utilisateurs gratuits de générer des images en utilisant DALL-E 3 avec une limite quotidienne Aug 09, 2024 pm 09:37 PM

Le DALL-E 3 a été officiellement introduit en septembre 2023 en tant que modèle considérablement amélioré par rapport à son prédécesseur. Il est considéré comme l’un des meilleurs générateurs d’images IA à ce jour, capable de créer des images avec des détails complexes. Cependant, au lancement, c'était exclu

Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Bytedance Cutting lance le super abonnement SVIP : 499 yuans pour un abonnement annuel continu, offrant une variété de fonctions d'IA Jun 28, 2024 am 03:51 AM

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Le réglage fin peut-il vraiment permettre au LLM d'apprendre de nouvelles choses : l'introduction de nouvelles connaissances peut amener le modèle à produire davantage d'hallucinations Jun 11, 2024 pm 03:57 PM

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Afin de fournir un nouveau système de référence et d'évaluation de questions-réponses scientifiques et complexes pour les grands modèles, l'UNSW, Argonne, l'Université de Chicago et d'autres institutions ont lancé conjointement le cadre SciQAG. Jul 25, 2024 am 06:42 AM

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Les performances de SOTA, la méthode d'IA de prédiction d'affinité protéine-ligand multimodale de Xiamen, combinent pour la première fois des informations sur la surface moléculaire Jul 17, 2024 pm 06:37 PM

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Préparant des marchés tels que l'IA, GlobalFoundries acquiert la technologie du nitrure de gallium de Tagore Technology et les équipes associées Préparant des marchés tels que l'IA, GlobalFoundries acquiert la technologie du nitrure de gallium de Tagore Technology et les équipes associées Jul 15, 2024 pm 12:21 PM

Selon les informations de ce site Web du 5 juillet, GlobalFoundries a publié un communiqué de presse le 1er juillet de cette année, annonçant l'acquisition de la technologie de nitrure de gallium (GaN) et du portefeuille de propriété intellectuelle de Tagore Technology, dans l'espoir d'élargir sa part de marché dans l'automobile et Internet. des objets et des domaines d'application des centres de données d'intelligence artificielle pour explorer une efficacité plus élevée et de meilleures performances. Alors que des technologies telles que l’intelligence artificielle générative (GenerativeAI) continuent de se développer dans le monde numérique, le nitrure de gallium (GaN) est devenu une solution clé pour une gestion durable et efficace de l’énergie, notamment dans les centres de données. Ce site Web citait l'annonce officielle selon laquelle, lors de cette acquisition, l'équipe d'ingénierie de Tagore Technology rejoindrait GF pour développer davantage la technologie du nitrure de gallium. g

SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. SK Hynix présentera de nouveaux produits liés à l'IA le 6 août : HBM3E à 12 couches, NAND à 321 hauteurs, etc. Aug 01, 2024 pm 09:40 PM

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière

SearchGPT : Open AI affronte Google avec son propre moteur de recherche IA SearchGPT : Open AI affronte Google avec son propre moteur de recherche IA Jul 30, 2024 am 09:58 AM

L’Open AI fait enfin son incursion dans la recherche. La société de San Francisco a récemment annoncé un nouvel outil d'IA doté de capacités de recherche. Rapporté pour la première fois par The Information en février de cette année, le nouvel outil s'appelle à juste titre SearchGPT et propose un c

See all articles