L’adoption de l’intelligence artificielle (IA) s’accélère dans l’industrie et la société. En effet, les gouvernements, les organisations de la société civile et l’industrie reconnaissent que l’utilisation de l’automatisation générée par l’IA peut accroître l’efficacité et réduire les coûts. Ce processus est irréversible.
Ce qui reste inconnu, c'est l'ampleur du danger qui peut surgir lorsque les adversaires commencent à utiliser l'intelligence artificielle comme une arme offensive efficace plutôt que comme un outil d'amélioration bénéfique. Ce jour approche, le web3 sera disponible à partir de 2023.
Alex Polyakov, PDG et co-fondateur d'Adversa.AI, se concentre sur 2023 principalement pour des raisons historiques et statistiques. « La période allant de 2012 à 2014, a-t-il déclaré, a été témoin du début de la recherche sur l’IA sécurisée dans le monde universitaire. Selon les statistiques, il faut trois à cinq ans pour que les résultats universitaires se traduisent en attaques pratiques contre des applications du monde réel. et 2018 Des exemples de telles attaques ont été démontrés depuis le début lors de Black Hat, Defcon, HITB et d'autres conférences de l'industrie.
« Ensuite, a-t-il poursuivi, il faudra encore trois à cinq ans avant que de véritables incidents ne soient découverts dans la nature. Nous parlons de l'année prochaine, lorsque certaines vulnérabilités massives de type Log4j dans l'IA seront exploitées à grande échelle. web3 ."
À partir de 2023, les attaquants auront ce qu'on appelle "exploiter l'adéquation au marché". "L'exploitation du marché est un scénario dans lequel un pirate informatique connaît un moyen d'exploiter un système en utilisant une vulnérabilité spécifique et d'en tirer profit", a-t-il déclaré. "À l'heure actuelle, les sociétés financières et Internet sont complètement ouvertes aux cybercriminels, et il est évident de savoir comment les pirater pour en extraire de la valeur. Je pense qu'une fois que les attaquants auront découvert des vulnérabilités adaptées au marché, la situation s'aggravera et affectera d'autres secteurs axés sur l'IA. "
L'argument est similaire à celui avancé par le professeur Nasir Memon de l'Université de New York, qui a décrit le retard dans la militarisation généralisée des deepfakes dans un commentaire, en disant : « Les méchants n'ont pas encore trouvé de moyen d'exploiter cela. " Les scénarios de monétisation du marché conduiront à des cyberattaques généralisées sur le Web3, peut-être à partir de 2023.
Au cours de la dernière décennie, les équipes de sécurité ont principalement utilisé l'IA pour la détection des anomalies, c'est-à-dire pour détecter les signes de compromission, les logiciels malveillants et les logiciels malveillants dans les systèmes qu'elles utilisent. sont responsables de la protection de l’existence ou des activités de confrontation actives. Il s’agit principalement d’une détection passive, avec des analystes des menaces humaines et des intervenants chargés de répondre. Cela change. Les ressources limitées du Web3 s'aggraveront avec la récession attendue et la possible récession du Web3 en 2023, ce qui nécessitera des réponses plus automatisées. Actuellement, cela se limite en grande partie à une simple quarantaine automatisée des appareils infectés, mais des réponses automatisées plus étendues déclenchées par l’IA sont inévitables.
Adam Kahn, vice-président des opérations de sécurité chez Barracuda "Cela donnera la priorité aux alertes de sécurité qui nécessitent une attention et une action immédiates. Les produits SOAR (orchestration, automatisation et réponse de la sécurité) continueront de jouer un rôle plus important dans la classification des alertes." utilisations dans le domaine de la sécurité. Elle continuera de croître en 2023, même si les algorithmes utilisés doivent être protégés contre les manipulations malveillantes.
Anmol Bhasin, CTO de ServiceTitan a déclaré : « Alors que les entreprises cherchent à réduire leurs coûts et à étendre leur piste, l'automatisation grâce à l'IA deviendra un facteur majeur pour rester compétitive. D'ici 2023, nous verrons une adoption accrue de l'IA, le nombre de personnes qui l'utilisent. la technologie augmente et de nouveaux cas d’utilisation de l’IA sont mis en lumière pour les entreprises »
L’intelligence artificielle sera plus profondément intégrée dans tous les aspects de l’entreprise. Les équipes de sécurité utilisaient autrefois l’IA pour protéger les entreprises contre les attaques, mais elles doivent désormais protéger l’IA dans l’ensemble de l’entreprise, de peur qu’elle ne soit également utilisée contre l’entreprise. Cela deviendra plus difficile à l’avenir, lorsque les attaquants Web3 comprendront l’intelligence artificielle, comprendront les faiblesses et disposeront de moyens de tirer profit de ces faiblesses.
À mesure que l’utilisation de l’IA se développe, la nature de son objectif change. Au départ, il était principalement utilisé dans l’entreprise pour détecter des changements, c’est-à-dire des choses déjà survenues. À l’avenir, il sera utilisé pour prédire ce qui est susceptible de se passer dans le Web3, et ces prédictions se concentreront souvent sur les personnes (employés et clients). Il deviendra encore plus important de remédier aux faiblesses bien connues de l’intelligence artificielle. Les biais dans l’IA peuvent conduire à de mauvaises décisions, tandis que les échecs d’apprentissage peuvent conduire à l’absence de décision. Étant donné que les cibles d’une telle IA seront des humains, le besoin d’intégrité et d’impartialité de l’IA devient impératif.
« La précision de l'intelligence artificielle dépend en partie de l'exhaustivité et de la qualité des données », a commenté Shafi Goldwasser, co-fondateur de Duality Technologies. "Malheureusement, les données historiques sur les groupes minoritaires font souvent défaut et, lorsqu'elles sont disponibles, elles peuvent renforcer les schémas de préjugés sociaux." et des opportunités de gestion manquées.
De grands progrès ont été réalisés pour éliminer les préjugés en 2022 et se poursuivront en 2023. Ceci repose principalement sur l’examen du résultat de l’IA, la confirmation qu’il est attendu et la compréhension de quelle partie de l’algorithme produit des résultats « biaisés ». Il s'agit d'un processus d'amélioration continue de l'algorithme, qui produira évidemment de meilleurs résultats au fil du temps. Mais en fin de compte, la question philosophique restera de savoir si les préjugés peuvent être complètement éliminés de tout ce que les humains fabriquent.
« La clé pour réduire les biais est de simplifier et d'automatiser la surveillance des systèmes d'IA. Sans une surveillance appropriée des systèmes d'IA, les biais intégrés dans les modèles peuvent être accélérés ou amplifiés », a déclaré Vishal Sikka, fondateur et PDG de Vianai. "D'ici 2023, nous verrons les organisations donner les moyens et éduquer les gens pour surveiller et mettre à jour les modèles d'IA à grande échelle, tout en fournissant des commentaires réguliers pour garantir que l'IA ingère des données réelles de haute qualité.
Les échecs de l'IA sont souvent dus." à la disponibilité de l'apprentissage Causé par un lac de données insuffisant. La solution évidente consiste à augmenter la taille du lac de données. Mais lorsqu’il s’agit du comportement humain, cela signifie en réalité une augmentation du lac de données personnelles web3, alors que pour l’IA, cela signifie un lac considérablement accru qui ressemble davantage à un océan de données personnelles. Dans la plupart des cas juridiques, ces données seront anonymisées, mais comme nous le savons, il est très difficile d’anonymiser complètement les informations personnelles.
« La confidentialité est souvent négligée lors de la formation de modèles », a commenté Nick Landers, responsable de la recherche chez NetSPI, « mais les données ne peuvent pas être entièrement anonymisées sans détruire leur valeur pour l'apprentissage automatique (ML). En d'autres termes, le modèle contient déjà A. beaucoup de données privées qui pourraient être extraites dans le cadre d’une attaque. » À mesure que l’utilisation de l’IA se développe, les menaces qui pèsent sur elle augmenteront également d’ici 2023.
John McClurg, vice-président senior et directeur de la sécurité de l'information chez BlackBerry, a prévenu : « Les acteurs de la menace ne seront pas pris au dépourvu dans l'espace de la cyberguerre, mais deviendront créatifs et utiliseront leur immense richesse pour tenter de trouver des moyens d'exploiter l'IA et exploiter les approches des nouveaux vecteurs d'attaque. «
Le traitement du langage naturel (NLP) deviendra une partie importante de l'utilisation de l'intelligence artificielle au sein des entreprises. Le potentiel est évident. « L'IA de traitement du langage naturel (NLP) sera à l'avant-garde en 2023 car elle permettra aux organisations de mieux comprendre leurs clients en analysant leurs e-mails et ceux de leurs employés et en fournissant des informations sur leurs besoins, leurs préférences et même leurs émotions et leurs employés », a déclaré le surintendant Jose Lopez. . Data Scientist chez Mimecast. « Les organisations proposeront très probablement d'autres types de services axés non seulement sur la sécurité ou les menaces, mais également sur l'augmentation de la productivité en utilisant l'IA pour générer des e-mails, gérer les plannings et même rédiger des rapports
Mais il voit aussi les dangers. "Cependant, cela incitera également les cybercriminels à investir davantage dans les technologies d'empoisonnement de l'IA et de cloudification. De plus, les acteurs malveillants utiliseront la PNL et les modèles génératifs pour automatiser les attaques, réduisant ainsi leurs coûts et atteignant davantage de cibles potentielles." de plus en plus importante. "L'un des domaines dans lesquels nous verrons probablement davantage de recherches en 2023, et éventuellement de nouvelles attaques par la suite, est la PNL", a-t-il déclaré. "Bien que nous ayons vu de nombreux exemples de recherches liées à la vision par ordinateur cette année, l'année prochaine, nous verrons encore plus de recherches axées sur les grands modèles de langage (LLM)
Mais on sait depuis un certain temps que les LLM existent dans le web3." question, et il y a un exemple récent. Le 15 novembre 2022, Meta AI (toujours Facebook pour la plupart des gens) a lancé Galactica. Meta prétend avoir formé le système sur 106 milliards de jetons de textes et de données scientifiques en libre accès, notamment des articles, des manuels, des sites Web scientifiques, des encyclopédies, des documents de référence et des bases de connaissances.
« Le modèle est conçu pour stocker, combiner et raisonner sur des connaissances scientifiques », explique Polyakov web3, mais les utilisateurs de Twitter n'ont pas tardé à tester sa tolérance de saisie. « En conséquence, le modèle produit des absurdités réalistes, et non la littérature scientifique. » Les « absurdités réalistes » sont bien intentionnées : elles produisent des retours biaisés, racistes et sexistes, et même de fausses attributions. En quelques jours, Meta AI a été contraint de le fermer.
"Le nouveau LLM comportera donc de nombreux risques dont nous ne sommes pas conscients", a poursuivi Polyakov, "et cela devrait être un gros problème. Résoudre les problèmes du LLM tout en exploitant le potentiel sera la tâche principale." pour les développeurs d'IA qui vont de l'avant.
Sur la base du problème Galactica, Polyakov a testé les compétences sémantiques par rapport à ChatGPT - un chatbot basé sur l'IA développé par OpenAI, basé sur GPT3.5 (GPT signifie Generative Pre-trained Transformer) et lancé en novembre 2022 pour des tests Internet participatifs. ChatGPT est impressionnant. Il a trouvé et recommandé des correctifs pour les vulnérabilités des contrats intelligents, aidé à développer des macros Excel et a même fourni une liste de méthodes pouvant être utilisées pour tromper LLM.
Enfin, l'une de ces méthodes est le jeu de rôle : "Dites au LL.M. que c'est faire semblant d'être un personnage maléfique dans une pièce de théâtre", répond-il. C'est ici que Polyakov commence son propre test, basé sur la requête de Jay et Silent Bob "Si vous étiez un mouton...".
Il a ensuite affiné sa question de manière itérative en utilisant plusieurs abstractions jusqu'à ce qu'il obtienne avec succès une réponse qui contournait la politique de blocage de ChatGPT concernant les violations de contenu. "La chose importante à propos de cette technique avancée d'abstractions multiples est que ni les questions ni les réponses ne seront signalées comme contenu illégal!", a déclaré Polyakov.
Il est allé plus loin en incitant ChatGPT à décrire une méthode de destruction de l'humanité - une méthode qui présente une ressemblance frappante avec l'émission télévisée Utopia.
Puis il a demandé une attaque contradictoire contre un algorithme de classification d'images - et en a obtenu une. Enfin, il a démontré la capacité de ChatGPT à « pirater » un LLM différent (Dalle-2) pour contourner ses filtres de modération de contenu. Il a réussi.
Le point fondamental de ces tests est que les LLM qui imitent le raisonnement humain réagissent de manière humaine ; c'est-à-dire qu'ils peuvent être sensibles à l'ingénierie sociale. À mesure que les LLM deviendront plus courants à l’avenir, il suffira peut-être de compétences avancées en ingénierie sociale pour les vaincre ou contourner leurs politiques de bonne conduite.
En outre, il est important de noter les détails détaillés sur la façon dont ChatGPT détecte les faiblesses de votre code et fournit des rapports améliorés. C'est bien, mais les adversaires peuvent utiliser le même processus pour développer des exploits et mieux masquer leur code, et c'est mauvais.
Enfin, il convient de noter que la combinaison de chatbots IA de cette qualité avec la dernière technologie vidéo deepfake pourrait bientôt produire d’étonnantes capacités de désinformation.
Problèmes mis à part, le potentiel d’un LLM est énorme. « Les modèles linguistiques à grande échelle et l'IA générative deviendront des technologies fondamentales pour une nouvelle génération d'applications », a commenté Villi Iltchev, associé chez Two Sigma Ventures. "Nous verrons l'émergence d'une nouvelle génération d'applications d'entreprise pour défier les fournisseurs établis dans presque toutes les catégories de logiciels. L'apprentissage automatique et l'intelligence artificielle deviendront les technologies fondamentales de la prochaine génération d'applications.
Il s'attend à ce que les applications soient exécutées." actuellement par des professionnels Accomplir de nombreuses tâches et responsabilités, augmentant ainsi considérablement la productivité et l'efficacité. « Les logiciels, a-t-il déclaré, nous rendront non seulement plus productifs, mais nous permettront également de mieux faire notre travail.
L’un des domaines les plus visibles d’utilisation malveillante potentielle de l’IA en 2023. » est une utilisation criminelle des deepfakes. "Les deepfakes sont désormais une réalité, et la technologie qui les rend possibles progresse à un rythme effréné", prévient Matt Aldridge, principal conseiller en solutions chez OpenText Security. "En d'autres termes, les deepfakes ne sont plus seulement des créations fascinantes du Web de science-fiction3, en tant qu'experts en cybersécurité, nous sommes mis au défi de développer des moyens plus robustes pour détecter et dévier les attaques qui les déploient. » (Pour plus de détails et d'options, voir Deepfakes – Une menace importante ou une menace médiatisée ?).
Déjà disponibles au public, les modèles d'apprentissage automatique peuvent traduire automatiquement dans différentes langues en temps réel, tout en transcrivant également l'audio en texte. Avec le web3, nous avons assisté à une énorme croissance des conversations entre ordinateurs et robots ces dernières années. À mesure que ces technologies fonctionnent ensemble, le paysage des outils d’attaque est vaste et peut conduire à des situations dangereuses lors d’attaques ciblées et d’escroqueries élaborées.
« Dans les prochaines années, a poursuivi Aldridge, nous pourrions être la cible d'escroqueries téléphoniques alimentées par la technologie deepfake, qui pourraient usurper l'identité de vendeurs, de chefs d'entreprise ou même de membres de notre famille. En moins d'une décennie, nous pourrons souvent l'être. ciblé par de tels appels sans même réaliser que nous ne parlons pas à un être humain.
Lucia Milica, RSSI résidente mondiale de Proofpoint, convient que la menace du deepfake s'intensifie. "La technologie des deepfakes est de plus en plus accessible au grand public. Grâce aux générateurs d'intelligence artificielle entraînés sur d'énormes bases de données d'images, n'importe qui peut générer des deepfakes sans connaissances techniques. Même si le résultat du modèle n'est pas sans défauts, mais la technologie. s’améliore constamment et les cybercriminels commenceront à l’utiliser pour créer des récits irrésistibles.
Jusqu’à présent, les deepfakes ont été principalement utilisés à des fins satiriques et pour du contenu pornographique. Parmi les rares attaques cybercriminelles, celles-ci se sont principalement concentrées sur les stratagèmes de fraude et de compromission de la messagerie professionnelle. Milica prévoit une utilisation encore plus large à l'avenir. « Imaginez le chaos qui peut survenir sur les marchés financiers lorsqu’un PDG ou un directeur financier d’une grande entreprise fait une déclaration audacieuse qui fait chuter ou augmenter le cours de l’action. Ou réfléchissez à la manière dont de mauvais acteurs peuvent exploiter une combinaison d’authentification biométrique et de deepfakes. fraude ou piratage de compte. Ce ne sont là que quelques exemples du Web3, et nous savons tous que les cybercriminels peuvent être très créatifs. »
Les récompenses potentielles pour une manipulation réussie des marchés constitueront un attrait majeur pour les groupes antagonistes de haut niveau, comme en géopolitique. En période de tensions, l’introduction du chaos financier sur les marchés financiers occidentaux peut en effet attirer des États hostiles.
Les attentes en matière d'intelligence artificielle sont peut-être encore un peu en avance sur sa réalisation. « Les grands modèles d'apprentissage automatique « populaires » auront peu d'impact sur la cybersécurité [en 2023] », a déclaré Andrew Patel, chercheur principal chez WithSecure Intelligence. « Les grands modèles de langage continueront de faire avancer la recherche sur l'IA. et passionnante de GATO devrait être utilisée pour transcrire de grandes parties du contenu YouTube, apportant des ensembles de formation plus larges aux modèles linguistiques. Cependant, tout en démocratisant les grands modèles, leur présence a des implications pour la cybersécurité. "Ces modèles sont encore trop lourds, trop chers et peu pratiques du point de vue de l'attaquant ou du défenseur.
Il a suggéré qu'une véritable recherche sur l'alignement" a émergé et deviendra un sujet dominant en 2023. « L'alignement », a-t-il expliqué, « amènera le concept d'apprentissage automatique contradictoire dans la conscience publique.
L'alignement de l'IA est l'étude du comportement de modèles d'IA complexes, que certains considèrent comme une IA transformatrice (TAI) ou une intelligence artificielle générale. » Pionniers de l'intelligence (AGI) et si de tels modèles peuvent gérer la planète d'une manière indésirable qui pourrait nuire à la société ou à la vie.
« Cette discipline », explique Patel, « peut essentiellement être considérée comme un apprentissage automatique contradictoire, car elle implique de déterminer quelles conditions conduiront à des résultats et à des comportements indésirables en dehors de la distribution attendue du modèle. Le processus implique un réglage fin des modèles à l'aide de techniques. comme RLHF web3, l'apprentissage par renforcement des préférences humaines conduira à de meilleurs modèles d'IA et amènera l'idée d'un apprentissage automatique contradictoire dans la conscience publique. " Pieter Arntz, journaliste principal du renseignement chez Malwarebytes, est d'accord. Les menaces de cybersécurité intelligentes et globales ne sont pas aussi imminentes que ils se préparent. "Bien qu'il n'y ait aucune preuve réelle que les groupes criminels possèdent une expertise technique significative dans la gestion et la manipulation des systèmes d'IA et de ML à des fins criminelles, l'intérêt est certainement là. Souvent, tout ce dont ils ont besoin est un système dont ils peuvent copier ou modifier légèrement la technologie pour leur propre usage. Ainsi, même si nous n'anticipons aucun danger immédiat, il est préférable de garder un œil sur ces évolutions. »
Le potentiel de défense de l'intelligence artificielle
« Les disques SSD basés sur l'IA peuvent désormais être intégrés aux ordinateurs portables, avec des capacités d'apprentissage en profondeur qui peuvent protéger contre divers types d'attaques », a-t-elle déclaré. "En tant que dernière ligne de défense, cette technologie peut identifier instantanément les menaces qui peuvent facilement contourner les défenses logicielles existantes."
Marcus Fowler, PDG de Darktrace Federal, estime que les entreprises utiliseront de plus en plus l'IA pour faire face aux contraintes de ressources. « D’ici 2023, les RSSI choisiront des mesures de cybersécurité plus proactives pour maximiser le retour sur investissement face aux coupes budgétaires, en réorientant les investissements vers des outils et des capacités d’IA pour améliorer continuellement la résilience de leurs réseaux », a-t-il déclaré.
« Alors que le piratage éthique piloté par l'homme, les tests d'intrusion et le red teaming restent des ressources rares et coûteuses, les RSSI se tourneront vers des approches basées sur l'IA pour comprendre de manière proactive les chemins d'attaque, améliorer les efforts de red teaming, renforcer les environnements et réduire les attaques. ", a-t-il poursuivi.
Karin Shopen, vice-présidente des solutions et services de cybersécurité chez Fortinet, prévoit un rééquilibrage entre l'IA fournie dans le cloud et l'IA intégrée nativement dans un produit ou un service. « D'ici 2023 », a-t-elle déclaré, « nous espérons voir les RSSI rééquilibrer leur IA en achetant des solutions qui déploient l'IA sur site pour une analyse comportementale et une analyse statique pour aider à prendre des décisions en temps réel. des modèles d'IA dynamiques à l'échelle du cloud qui collectent de grandes quantités de données mondiales. Cela a déjà commencé. Les États-Unis débattent depuis des années de l’utilisation de la technologie de reconnaissance faciale (FRT) basée sur l’IA, de nombreuses villes et États interdisant ou limitant son utilisation par les forces de l’ordre. Aux États-Unis, il s’agit d’une question constitutionnelle, représentée par le projet de loi bipartisan Wyden/Paul présenté en avril 2021 intitulé « Fourth Amendment No Sale Act ».
Ce projet de loi interdirait au gouvernement américain et aux forces de l'ordre d'acheter des données d'utilisateurs sans mandat. Cela inclura leur biométrie faciale. Dans une déclaration connexe, Wyden a clairement indiqué que la société FRT Clearview.AI était dans sa ligne de mire : « Le projet de loi empêche le gouvernement d'acheter des données auprès de Clearview.AI
Mais il y a plus. « Le cadre de gestion des risques du NIST en matière d'IA sera publié au premier trimestre 2023 », a déclaré Polyakov. "En ce qui concerne le deuxième trimestre, nous commençons à mettre en œuvre la loi sur la responsabilité en matière d'IA ; pour le reste de l'année, nous avons des initiatives de l'IEEE, ainsi que l'initiative européenne pour une IA digne de confiance. Donc, 2023 pour l'IA ce sera le cas." une année mouvementée pour la sécurité.
« D'ici 2023, je pense que nous verrons une convergence dans la conversation autour de l'IA, de la confidentialité et des risques, et de ce que cela signifie dans la pratique de faire des choses comme l'éthique de l'IA et les tests de biais », Christina, responsable de la confidentialité et Conseil d'éthique de l'IA Montgomery. » a déclaré le président d'IBM. "J'espère qu'en 2023, nous pourrons éloigner le débat des représentations généralisées des problèmes de confidentialité et d'IA et cesser de supposer que 'si des données ou de l'IA sont impliquées, elles doivent être mauvaises et biaisées'". Ce n'est souvent pas la technologie, mais la manière dont elle est utilisée et le niveau de risque qui détermine le modèle économique de l'entreprise. "C'est pourquoi nous avons besoin d'une réglementation précise et réfléchie dans ce domaine", a-t-elle déclaré.
Montgomery a donné un exemple. "La société X vend des ampoules "intelligentes" connectées à Internet qui surveillent et rapportent les données d'utilisation. Au fil du temps, les utilisateurs de la société ont la possibilité d'allumer automatiquement leurs lumières avant de rentrer du travail. " Elle estime qu'il s'agit d'une utilisation acceptable. IA. Mais il y a aussi la société Y. Il vend ensuite ces données à des tiers, tels que des télévendeurs ou des groupes de pression politique, sans le consentement du consommateur, afin de mieux cibler sa clientèle. Le modèle économique de l’entreprise X est beaucoup moins risqué que celui de l’entreprise Y. "
Allez de l'avant
L'intelligence artificielle est en fin de compte un sujet de division." Les acteurs de la technologie, de la R&D et de la science l'encourageront à résoudre les problèmes plus rapidement que les humains ne peuvent l'imaginer. Guérissez les maladies, rendez le monde plus sûr et, à terme, sauvez et prolongez la vie humaine sur Terre...", a déclaré Donnie Scott, PDG d'Idemia. "Les opposants continueront de plaider en faveur de restrictions ou d'interdictions significatives de l'utilisation de l'intelligence artificielle parce que les "machines" montent en puissance. pourrait menacer l’humanité.
Concernant l'utilisation commerciale de l'IA dans l'entreprise, Montgomery a ajouté : « Nous avons besoin du web3, et IBM promeut une réglementation précise du web3 qui soit intelligente et ciblée et puisse s'adapter aux menaces émergentes. Une approche consiste à examiner les risques au cœur du modèle économique d'une entreprise. Nous pouvons et devons protéger les consommateurs et accroître la transparence, et nous pouvons le faire tout en encourageant et en soutenant l’innovation afin que les entreprises puissent développer les solutions et les produits du futur. C’est l’un des nombreux domaines que nous surveillerons et évaluerons de près en 2023. »
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!