


PwC : 11 tendances de sécurité dans ChatGPT et l'IA générative
Récemment, les analystes de PwC ont partagé leur point de vue avec le média technologique étranger VentureBeat sur la manière dont des outils tels que l'intelligence artificielle générative et ChatGPT affecteront le paysage des menaces et sur les cas d'utilisation qui émergeront pour les défenseurs.
Ils pensent que si la capacité de l'IA à générer du code malveillant et des e-mails de phishing crée de nouveaux défis pour les entreprises, elle ouvre également la porte à une gamme de cas d'utilisation défensifs, tels que la détection des menaces, les conseils de remédiation et la protection de Kubernetes et de l'environnement Cloud. , etc.
Dans l’ensemble, les analystes sont optimistes quant à l’augmentation des cas d’utilisation défensive à long terme pour lutter contre les utilisations malveillantes de l’IA.
Voici 11 prédictions sur l’impact de l’IA générative sur la cybersécurité à l’avenir.
1. Utilisation malveillante de l'intelligence artificielle
Nous sommes à un point d'inflexion en ce qui concerne la manière dont nous pouvons exploiter l'intelligence artificielle, un changement de paradigme qui affecte tout le monde et tout. Lorsque l’IA est entre les mains des citoyens et des consommateurs, de grandes choses peuvent se produire.
En même temps, il peut être utilisé par des acteurs malveillants à des fins néfastes telles que des logiciels malveillants et des e-mails de phishing sophistiqués.
Compte tenu des nombreuses inconnues concernant les capacités et le potentiel futurs de l'IA, il est essentiel que les organisations développent des procédures robustes pour renforcer leur résilience contre les réseaux malveillants.
Il faut également une réglementation basée sur des valeurs sociales, stipulant que l'utilisation de cette technologie doit être éthique. Dans le même temps, nous devons être des utilisateurs « intelligents » de cet outil et réfléchir aux garanties nécessaires pour que l’IA offre une valeur maximale tout en minimisant les risques.
2. La nécessité de protéger la formation et les résultats de l'intelligence artificielle
Maintenant que l'intelligence artificielle générative a la capacité d'aider les entreprises à se transformer, il est important pour les dirigeants de comprendre comment gérer la sécurité croissante. Il est important de travailler avec une entreprise qui comprend parfaitement les considérations liées à la confidentialité.
Il y a deux raisons. Premièrement, les entreprises doivent protéger la formation à l’IA, car les connaissances uniques qu’elles acquièrent grâce à l’ajustement des modèles seront essentielles à la manière dont elles gèrent leur entreprise, fournissent de meilleurs produits et services et interagissent avec les employés, les clients et les écosystèmes.
Deuxièmement, les entreprises doivent également protéger les signaux et les réactions qu'elles reçoivent des solutions d'IA générative, car elles reflètent ce que les clients et les employés de l'entreprise font avec la technologie.
3. Développez une politique d'utilisation de l'IA générative
Lorsque vous envisagez d'utiliser votre propre contenu, vos fichiers et vos actifs pour perfectionner (affiner) un modèle d'IA générative afin qu'il puisse être utilisé dans votre ( industrie/professionnel), de nombreux cas d’usage métier intéressants émergent. De cette manière, les entreprises peuvent utiliser leur propriété intellectuelle et leurs connaissances uniques pour étendre le fonctionnement de l’IA générative.
C'est là que la sécurité et la confidentialité deviennent importantes. Pour une entreprise, la façon dont vous permettez à l’IA générative de produire du contenu doit être la confidentialité de votre entreprise. Heureusement, la plupart des plateformes d’IA générative ont cela à l’esprit dès le début et sont conçues pour inviter, produire et affiner le contenu de manière sécurisée et privée.
Cependant, tous les utilisateurs le comprennent désormais. Par conséquent, toute entreprise doit élaborer des politiques d’utilisation de l’IA générative afin d’empêcher les données confidentielles et privées de pénétrer dans les systèmes publics et établir un environnement sûr et sécurisé pour l’IA générative au sein de l’entreprise.
4. Audit de sécurité moderne
L'IA générative est susceptible de conduire à l'innovation dans le travail d'audit. L’IA générative sophistiquée a la capacité de créer des réponses qui tiennent compte de certaines situations tout en étant rédigées dans un langage simple et compréhensible.
Cette technologie offre un point unique d'information et d'orientation, tout en permettant également l'automatisation des documents et l'analyse des données pour répondre à des requêtes spécifiques - et avec une grande efficacité. C'est un résultat gagnant-gagnant.
Il est facile de voir que cette capacité peut offrir une meilleure expérience à nos employés et, par conséquent, une meilleure expérience à nos clients.
5. Accordez plus d'attention à l'hygiène des données et aux biais d'examen
Toutes les données saisies dans un système d'intelligence artificielle risquent d'être volées ou utilisées à mauvais escient. Premièrement, déterminer les données appropriées à saisir dans le système contribuera à réduire le risque de perte d’informations confidentielles et privées.
En outre, il est important de procéder à une collecte de données appropriée pour formuler des conseils détaillés et ciblés et les introduire dans le système afin que vous puissiez obtenir un résultat plus précieux.
Une fois que vous avez votre résultat, vous devez vérifier s'il existe des biais inhérents au système. Au cours de ce processus, faites appel à une équipe diversifiée de professionnels pour vous aider à évaluer tout parti pris.
Contrairement aux solutions codées ou scriptées, l'IA générative est basée sur des modèles entraînés, donc les réponses qu'ils donnent ne sont pas prévisibles à 100 %. Pour que l’IA générative produise le résultat le plus fiable, elle nécessite une collaboration entre la technologie qui la sous-tend et les personnes qui l’exploitent.
6. Suivez l'évolution des risques et maîtrisez les bases
Maintenant que l'IA générative est largement adoptée, la mise en œuvre de mesures de sécurité strictes est indispensable pour se protéger contre les acteurs menaçants. Les capacités de cette technologie permettent aux cybercriminels de créer de fausses images et d’exécuter plus facilement des attaques de logiciels malveillants et de ransomwares, et les entreprises doivent se préparer à ces défis.
Les cybermesures les plus efficaces continuent de recevoir le moins d'attention : en maintenant une cyberhygiène de base et en compactant les systèmes existants volumineux, les entreprises peuvent réduire le nombre de cybercriminels.
La consolidation des environnements d'exploitation réduit les coûts, permettant aux entreprises de maximiser leur efficacité et de se concentrer sur l'amélioration de leurs mesures de cybersécurité.
7. Créer de nouveaux emplois et de nouvelles responsabilités
Dans l'ensemble, je recommande aux entreprises d'envisager d'adopter l'IA générative plutôt que de construire des pare-feu et de la résistance -- mais avec des garanties et des mesures d'atténuation des risques appropriées. L'IA générative présente un potentiel très intéressant en termes de manière de travailler ; elle peut réellement contribuer à libérer du temps humain pour l'analyse et la création.
L'émergence de l'IA générative a le potentiel de conduire à de nouveaux emplois et responsabilités liés à la technologie elle-même - et de créer une responsabilité pour garantir que l'IA est utilisée de manière éthique et responsable.
Cela nécessitera également que les employés qui utilisent ces informations développent une nouvelle compétence : la capacité d'évaluer et d'identifier si le contenu créé est exact.
Tout comme les calculatrices sont utilisées pour des tâches simples liées aux mathématiques, de nombreuses compétences humaines doivent encore être appliquées dans l'utilisation quotidienne de l'IA générative - telles que la pensée critique et la personnalisation ciblée - pour libérer toute la puissance de l'IA générative. intelligence artificielle.
Ainsi, même si, à première vue, cela peut sembler une menace en termes de capacité à automatiser les tâches humaines, cela peut également libérer la créativité et aider les gens à exceller au travail.
8. Tirer parti de l'intelligence artificielle pour optimiser les investissements dans les réseaux
Même dans un contexte d'incertitude économique, les entreprises ne cherchent pas activement à réduire leurs dépenses en cybersécurité en 2023. Cependant, les RSSI doivent réfléchir à leurs décisions d'investissement. Est-ce plus économique ?
Ils sont confrontés à une pression pour faire plus avec moins, ce qui les amène à investir dans une technologie qui remplace les processus trop manuels de prévention et d'atténuation des risques par des alternatives automatisées.
Bien que l’IA générative ne soit pas parfaite, elle est très rapide, efficace et cohérente, et les compétences s’améliorent rapidement. En mettant en œuvre la bonne technologie de gestion des risques, telle que des mécanismes d'apprentissage automatique conçus pour une meilleure couverture et détection des risques, les organisations peuvent économiser de l'argent, du temps et des ressources humaines et être mieux à même de gérer et de résister à toute incertitude future. 9. Améliorer l'intelligence des menaces seront utilisés par les mauvais acteurs à ces fins et pour agir à l'avance.
En 2023, nous prévoyons de nouvelles améliorations en matière de renseignement sur les menaces et d'autres capacités de défense afin de tirer parti de l'IA générative pour faire le bien à la société. L’IA générative permettra des avancées fondamentales en matière d’efficacité et de prise de décision fiable en temps réel. Par exemple, l’accès aux systèmes et aux informations peut être transformé en conclusions en temps réel avec un niveau de confiance beaucoup plus élevé que les modèles d’accès et d’identité actuellement déployés.
Ce qui est certain, c'est que l'IA générative aura un impact profond sur chaque secteur et sur la façon dont les entreprises qui y travaillent fonctionnent ; PwC estime que ces progrès continueront d'être menés par l'humain et la technologie en 2023. Les progrès les plus rapides se produiront. en 2016, fixant la direction pour les décennies à venir.
10. Prévention des menaces et gestion des risques de conformité
Alors que le paysage des menaces continue d'évoluer, le secteur de la santé – une industrie regorgeant d'informations personnelles – continue de se retrouver dans la ligne de mire des acteurs de la menace.
Les dirigeants du secteur de la santé augmentent leurs cyberbudgets et investissent dans des technologies d'automatisation qui peuvent non seulement aider à prévenir les cyberattaques, mais également à gérer les risques de non-conformité et à mieux protéger les données des patients et du personnel, à réduire les coûts médicaux, à réduire les processus inefficaces, etc.
À mesure que l'IA générative continue d'évoluer, les risques et les opportunités associés à la sécurisation des systèmes de santé évoluent également, soulignant l'importance pour le secteur de la santé de renforcer ses cyberdéfenses et sa résilience à mesure qu'il adopte cette nouvelle technologie.
11. Mettre en œuvre une stratégie de confiance numérique
Le rythme de l'innovation dans les technologies comme l'IA générative, associé à un « patchwork » évolutif de réglementation et à l'érosion de la confiance institutionnelle, nécessite une approche plus stratégique .
En poursuivant une stratégie de confiance numérique, les entreprises peuvent mieux coordonner des fonctions traditionnellement cloisonnées telles que la cybersécurité, la confidentialité et la gouvernance des données, leur permettant d'anticiper les risques tout en libérant de la valeur pour l'entreprise.
À la base, le Digital Trust Framework identifie des solutions qui vont au-delà de la conformité, en donnant plutôt la priorité à la confiance et à l'échange de valeurs entre les organisations et les clients.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

Le DALL-E 3 a été officiellement introduit en septembre 2023 en tant que modèle considérablement amélioré par rapport à son prédécesseur. Il est considéré comme l’un des meilleurs générateurs d’images IA à ce jour, capable de créer des images avec des détails complexes. Cependant, au lancement, c'était exclu

Ce site a rapporté le 27 juin que Jianying est un logiciel de montage vidéo développé par FaceMeng Technology, une filiale de ByteDance. Il s'appuie sur la plateforme Douyin et produit essentiellement du contenu vidéo court pour les utilisateurs de la plateforme. Il est compatible avec iOS, Android et. Windows, MacOS et autres systèmes d'exploitation. Jianying a officiellement annoncé la mise à niveau de son système d'adhésion et a lancé un nouveau SVIP, qui comprend une variété de technologies noires d'IA, telles que la traduction intelligente, la mise en évidence intelligente, l'emballage intelligent, la synthèse humaine numérique, etc. En termes de prix, les frais mensuels pour le clipping SVIP sont de 79 yuans, les frais annuels sont de 599 yuans (attention sur ce site : équivalent à 49,9 yuans par mois), l'abonnement mensuel continu est de 59 yuans par mois et l'abonnement annuel continu est de 59 yuans par mois. est de 499 yuans par an (équivalent à 41,6 yuans par mois) . En outre, le responsable de Cut a également déclaré que afin d'améliorer l'expérience utilisateur, ceux qui se sont abonnés au VIP d'origine

Améliorez la productivité, l’efficacité et la précision des développeurs en intégrant une génération et une mémoire sémantique améliorées par la récupération dans les assistants de codage IA. Traduit de EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG, auteur JanakiramMSV. Bien que les assistants de programmation d'IA de base soient naturellement utiles, ils ne parviennent souvent pas à fournir les suggestions de code les plus pertinentes et les plus correctes, car ils s'appuient sur une compréhension générale du langage logiciel et des modèles d'écriture de logiciels les plus courants. Le code généré par ces assistants de codage est adapté à la résolution des problèmes qu’ils sont chargés de résoudre, mais n’est souvent pas conforme aux normes, conventions et styles de codage des équipes individuelles. Cela aboutit souvent à des suggestions qui doivent être modifiées ou affinées pour que le code soit accepté dans l'application.

Les grands modèles linguistiques (LLM) sont formés sur d'énormes bases de données textuelles, où ils acquièrent de grandes quantités de connaissances du monde réel. Ces connaissances sont intégrées à leurs paramètres et peuvent ensuite être utilisées en cas de besoin. La connaissance de ces modèles est « réifiée » en fin de formation. À la fin de la pré-formation, le modèle arrête effectivement d’apprendre. Alignez ou affinez le modèle pour apprendre à exploiter ces connaissances et répondre plus naturellement aux questions des utilisateurs. Mais parfois, la connaissance du modèle ne suffit pas, et bien que le modèle puisse accéder à du contenu externe via RAG, il est considéré comme bénéfique de l'adapter à de nouveaux domaines grâce à un réglage fin. Ce réglage fin est effectué à l'aide de la contribution d'annotateurs humains ou d'autres créations LLM, où le modèle rencontre des connaissances supplémentaires du monde réel et les intègre.

L'ensemble de données ScienceAI Question Answering (QA) joue un rôle essentiel dans la promotion de la recherche sur le traitement du langage naturel (NLP). Des ensembles de données d'assurance qualité de haute qualité peuvent non seulement être utilisés pour affiner les modèles, mais également évaluer efficacement les capacités des grands modèles linguistiques (LLM), en particulier la capacité à comprendre et à raisonner sur les connaissances scientifiques. Bien qu’il existe actuellement de nombreux ensembles de données scientifiques d’assurance qualité couvrant la médecine, la chimie, la biologie et d’autres domaines, ces ensembles de données présentent encore certaines lacunes. Premièrement, le formulaire de données est relativement simple, et la plupart sont des questions à choix multiples. Elles sont faciles à évaluer, mais limitent la plage de sélection des réponses du modèle et ne peuvent pas tester pleinement la capacité du modèle à répondre aux questions scientifiques. En revanche, les questions et réponses ouvertes

Editeur | KX Dans le domaine de la recherche et du développement de médicaments, il est crucial de prédire avec précision et efficacité l'affinité de liaison des protéines et des ligands pour le criblage et l'optimisation des médicaments. Cependant, les études actuelles ne prennent pas en compte le rôle important des informations sur la surface moléculaire dans les interactions protéine-ligand. Sur cette base, des chercheurs de l'Université de Xiamen ont proposé un nouveau cadre d'extraction de caractéristiques multimodales (MFE), qui combine pour la première fois des informations sur la surface des protéines, la structure et la séquence 3D, et utilise un mécanisme d'attention croisée pour comparer différentes modalités. alignement. Les résultats expérimentaux démontrent que cette méthode atteint des performances de pointe dans la prédiction des affinités de liaison protéine-ligand. De plus, les études d’ablation démontrent l’efficacité et la nécessité des informations sur la surface des protéines et de l’alignement des caractéristiques multimodales dans ce cadre. Les recherches connexes commencent par "S

Selon les informations de ce site Web du 5 juillet, GlobalFoundries a publié un communiqué de presse le 1er juillet de cette année, annonçant l'acquisition de la technologie de nitrure de gallium (GaN) et du portefeuille de propriété intellectuelle de Tagore Technology, dans l'espoir d'élargir sa part de marché dans l'automobile et Internet. des objets et des domaines d'application des centres de données d'intelligence artificielle pour explorer une efficacité plus élevée et de meilleures performances. Alors que des technologies telles que l’intelligence artificielle générative (GenerativeAI) continuent de se développer dans le monde numérique, le nitrure de gallium (GaN) est devenu une solution clé pour une gestion durable et efficace de l’énergie, notamment dans les centres de données. Ce site Web citait l'annonce officielle selon laquelle, lors de cette acquisition, l'équipe d'ingénierie de Tagore Technology rejoindrait GF pour développer davantage la technologie du nitrure de gallium. g

Selon les informations de ce site le 1er août, SK Hynix a publié un article de blog aujourd'hui (1er août), annonçant sa participation au Global Semiconductor Memory Summit FMS2024 qui se tiendra à Santa Clara, Californie, États-Unis, du 6 au 8 août, présentant de nombreuses nouvelles technologies de produit. Introduction au Future Memory and Storage Summit (FutureMemoryandStorage), anciennement Flash Memory Summit (FlashMemorySummit) principalement destiné aux fournisseurs de NAND, dans le contexte de l'attention croissante portée à la technologie de l'intelligence artificielle, cette année a été rebaptisée Future Memory and Storage Summit (FutureMemoryandStorage) pour invitez les fournisseurs de DRAM et de stockage et bien d’autres joueurs. Nouveau produit SK hynix lancé l'année dernière
