


À l'ère de l'IA, comment utiliser ChatGPT en toute sécurité a déclenché des discussions animées

Depuis son lancement officiel en novembre 2022, ChatGPT a connu un développement important. Il est devenu un outil indispensable pour de nombreuses entreprises et particuliers, mais comme ChatGPT est intégré dans notre vie quotidienne et fonctionne à grande échelle, les gens se demanderont naturellement : ChatGPT est-il sûr à utiliser ?
ChatGPT est généralement considéré comme sûr en raison des mesures de sécurité étendues, des méthodes de traitement des données et des politiques de confidentialité mises en œuvre par ses développeurs. Comme toute autre technologie, ChatGPT est soumise à des problèmes de sécurité et à des vulnérabilités.
Cet article vous aidera à mieux comprendre la sécurité des modèles de langage ChatGPT et AI. Nous examinerons des aspects tels que la confidentialité des données, la vie privée des utilisateurs, les risques potentiels, la réglementation de l'IA et les mesures de sécurité.
Au final, vous aurez une compréhension plus approfondie de la sécurité de ChatGPT et serez en mesure de prendre des décisions éclairées lors de l'utilisation de ce puissant modèle de langage à grande échelle.
Répertoire
1. ChatGPT est-il sûr à utiliser ?
2. ChatGPT est-il confidentiel ?
3. Étapes pour supprimer l'historique des discussions sur ChatGPT
4 Étapes pour empêcher ChatGPT de sauvegarder l'historique des discussions
5. Quels sont les risques potentiels liés à l'utilisation de ChatGPT ?
6. Existe-t-il des réglementations pour ChatGPT et autres systèmes d'intelligence artificielle ?
7. Mesures de sécurité et bonnes pratiques de ChatGPT
8. Réflexions finales sur l'utilisation de ChatGPT en toute sécurité
1.
Oui, ChatGPT est sûr à utiliser. Le chatbot AI et son architecture Generative Pretrained Transformer (GPT) ont été développés par Open AI pour générer en toute sécurité des réponses en langage naturel et du contenu de haute qualité d'une manière à consonance humaine.
OpenAI a mis en œuvre des mesures de sécurité et des méthodes de traitement des données strictes pour garantir la sécurité des utilisateurs. Décomposons-le :
1. Mesures de sécurité
Il est indéniable que la capacité de ChatGPT à générer des réponses en langage naturel est impressionnante, mais dans quelle mesure est-il sécurisé ? Voici quelques-unes des mesures présentées sur la page de sécurité d'Open AI :
Cryptage : les serveurs ChatGPT utilisent la technologie de cryptage au repos et en transit pour protéger les données des utilisateurs contre tout accès non autorisé. Vos données sont cryptées lorsqu'elles sont stockées et transférées entre les systèmes.
Contrôle d'accès : OpenAI a mis en place des mécanismes de contrôle d'accès stricts pour garantir que seul le personnel autorisé peut accéder aux données sensibles des utilisateurs. Cela inclut l'utilisation de protocoles d'authentification et d'autorisation, ainsi qu'un contrôle d'accès basé sur les rôles.
Audit de sécurité externe : L'API OpenAI est auditée chaque année par un tiers externe pour identifier et corriger les vulnérabilités potentielles du système. Cela permet de garantir que les mesures de sécurité restent actuelles et efficaces pour protéger les données des utilisateurs.
Bug Bounty Program : En plus des audits réguliers, OpenAI a créé un programme de bug bounty pour encourager les pirates informatiques éthiques, les chercheurs en sécurité et les passionnés de technologie à identifier et signaler les vulnérabilités de sécurité.
Plan de réponse aux incidents : OpenAI a établi un plan de réponse aux incidents pour gérer et communiquer efficacement lorsqu'une faille de sécurité se produit. Ces plans contribuent à minimiser l’impact de toute violation potentielle et garantissent que les problèmes sont résolus rapidement.
Bien que les détails techniques spécifiques des mesures de sécurité d'OpenAI ne soient pas divulgués publiquement afin de maintenir leur efficacité, ceux-ci démontrent l'engagement de l'entreprise en faveur de la protection des données des utilisateurs et de la sécurité de ChatGPT.
2. Transactions de traitement des données
Pour rendre ChatGPT plus puissant dans le traitement du langage naturel, OpenAI utilise vos données de conversation. Il suit des questions de gestion responsable des données pour maintenir la confiance des utilisateurs, telles que :
Objectif de la collecte de données : tout ce que vous saisissez dans ChatGPT est collecté et enregistré sur le serveur OpenAI pour améliorer le traitement du langage naturel du système. OpenAI est transparent sur ce qu'il collecte et pourquoi. Il utilise principalement les données utilisateur pour la formation et l'amélioration du modèle de langage, et améliore l'expérience utilisateur globale.
Stockage et conservation des données : OpenAI stocke les données des utilisateurs en toute sécurité et suit des politiques strictes de conservation des données. Les données ne sont conservées que le temps nécessaire pour atteindre la finalité prévue. Après la période de conservation, les données seront anonymisées ou supprimées pour protéger la vie privée des utilisateurs.
Partage de données et implication de tiers : Vos données ne seront partagées avec des tiers qu'avec votre consentement ou dans des circonstances spécifiques (telles que des obligations légales). OpenAI veillera à ce que les tiers impliqués dans le traitement des données se conforment à des pratiques de traitement des données et à des normes de confidentialité similaires.
Conformité à la réglementation : OpenAI se conforme aux réglementations régionales sur la protection des données dans l'Union européenne, en Californie et ailleurs. Cette conformité garantit que leurs pratiques de traitement des données sont conformes aux normes légales requises en matière de confidentialité des utilisateurs et de protection des données.
Droits et contrôles d'utilisateur : OpenAI respecte vos droits de traiter vos données. La société offre aux utilisateurs un moyen simple d'accéder, de modifier ou de supprimer leurs informations personnelles.
OpenAI semble déterminé à protéger les données des utilisateurs, mais même avec ces protections en place, vous ne devez pas partager d'informations sensibles avec ChatGPT car aucun système ne peut garantir une sécurité absolue.
Le manque de confidentialité est un gros problème lors de l'utilisation de ChatGPT, ce que nous aborderons en détail dans la section suivante.
2. ChatGPT est-il confidentiel ?
Non, ChatGPT n'est pas confidentiel. ChatGPT enregistrera un enregistrement de chaque conversation, y compris les données personnelles que vous avez partagées, et l'utilisera comme modèle de données de formation.
La politique de confidentialité d'Open AI stipule que la société collecte des informations personnelles contenues dans « les entrées, les téléchargements de fichiers ou les commentaires » que les utilisateurs fournissent à ChatGPT et à d'autres services.
La FAQ de l'entreprise indique clairement qu'elle utilisera vos conversations pour améliorer ses modèles de langage d'IA et que vos discussions pourront être examinées par un formateur en IA.
Il indique également qu'OpenAI ne peut pas supprimer des astuces spécifiques de votre historique, alors ne partagez pas d'informations personnelles ou sensibles avec ChatGPT.
Les conséquences d'un partage excessif ont été vérifiées en avril 2023. Selon les médias coréens : des employés de Samsung ont divulgué des informations sensibles à ChatGPT à au moins trois occasions différentes.
Selon la source, deux employés ont saisi le code du programme sensible dans ChatGPT pour l'optimisation de la solution et du code, et un employé a collé les procès-verbaux des réunions de l'entreprise.
En réponse à cet incident, Samsung a annoncé qu'il développait des mesures de sécurité pour empêcher de nouvelles fuites via ChatGPT, et si un incident similaire se reproduisait, il pourrait envisager de désactiver ChatGPT du réseau de l'entreprise.
La bonne nouvelle est que ChatGPT offre un moyen de supprimer l'historique des discussions et vous pouvez le configurer pour qu'il n'enregistre pas votre historique.
3. Étapes pour supprimer l'historique des discussions sur ChatGPT
Pour supprimer votre historique des discussions sur ChatGPT, veuillez suivre les étapes ci-dessous.
Étape 1, sélectionnez la conversation que vous souhaitez supprimer de l'historique des discussions et cliquez sur l'icône de la corbeille pour la supprimer.
Étape 2, pour supprimer des conversations en masse, cliquez sur les trois points à côté de votre adresse e-mail dans le coin inférieur gauche et sélectionnez « Effacer les conversations » dans le menu.
Regardez ! Votre chat n'est plus disponible ! ChatGPT les purgera de ses systèmes dans les 30 jours.
4. Étapes pour empêcher ChatGPT d'enregistrer les enregistrements de discussion
Si vous souhaitez empêcher ChatGPT d'enregistrer les enregistrements de discussion par défaut, veuillez suivre les étapes ci-dessous.
Étape 1. Ouvrez le menu des paramètres en cliquant sur les trois points à côté de votre adresse e-mail.
Étape 2, sous contrôle des données, désactivez le commutateur "Historique des discussions et formation".
Une fois décochée, ChatGPT n'enregistrera plus les enregistrements de discussion historiques ni ne les utilisera pour la formation des modèles. Les conversations non enregistrées seront supprimées du système dans un délai d'un mois.
Maintenant que vous savez comment supprimer des discussions et empêcher ChatGPT d'enregistrer l'historique des discussions par défaut, examinons les risques potentiels liés à l'utilisation de ChatGPT dans la section suivante.
5. Quels sont les risques potentiels liés à l'utilisation de ChatGPT ?
Lors de l'évaluation de la sécurité d'un chatbot formé à un modèle de langage, il est important de considérer les risques auxquels les entreprises et les particuliers peuvent être confrontés.
Certains problèmes de sécurité critiques peuvent inclure des violations de données, un accès non autorisé à des informations personnelles et des informations biaisées et inexactes.
1. Fuite de données
Lors de l'utilisation d'un service en ligne (y compris ChatGPT), la fuite de données constitue un risque potentiel.
Vous ne pouvez pas télécharger ChatGPT, vous devez donc y accéder via un navigateur Web. Si une personne non autorisée accède à votre historique de conversations, à vos informations utilisateur ou à d'autres données sensibles, cela peut entraîner une violation de données, dans ce cas.
Cela peut avoir plusieurs conséquences :
Violation de la vie privée : En cas de violation de données, vos conversations privées, vos informations personnelles ou vos données sensibles peuvent être exposées à des personnes ou entités non autorisées, compromettant votre vie privée.
Vol d'identité : Les cybercriminels peuvent utiliser les informations personnelles exposées pour usurper l'identité ou d'autres activités frauduleuses, causant des dommages financiers et à la réputation des utilisateurs concernés.
Abus de données : en cas de violation de données, les données des utilisateurs peuvent être vendues ou partagées avec des parties malveillantes qui peuvent utiliser les informations à des fins de publicité ciblée, de campagnes de désinformation ou à d'autres fins malveillantes.
OpenAI semble prendre la cybersécurité très au sérieux et a adopté diverses mesures de sécurité pour minimiser le risque de fuite de données.
Cependant, aucun système n'est complètement à l'abri des vulnérabilités, et la réalité est que la plupart des vulnérabilités sont causées par une erreur humaine plutôt que par des problèmes techniques.
2. Accès non autorisé aux informations confidentielles
Si des employés ou des individus saisissent des informations commerciales sensibles (y compris des mots de passe ou des secrets commerciaux) dans ChatGPT, ces données peuvent être interceptées ou exploitées par des criminels.
Pour vous protéger et protéger votre entreprise, envisagez de développer une stratégie à l'échelle de l'entreprise pour utiliser les technologies d'IA générative.
Certaines grandes entreprises ont déjà lancé des avertissements à leurs salariés. Walmart et Amazon, par exemple, demandent à leurs employés de ne pas partager d'informations confidentielles avec l'intelligence artificielle. D'autres, comme J.P. Morgan Chase et Verizon, interdisent entièrement ChatGPT.
3. Informations biaisées et inexactes
Un autre risque lié à l'utilisation de ChatGPT est la possibilité d'informations biaisées ou inexactes.
En raison du large éventail de données sur lesquelles il est formé, il est possible qu'un modèle d'IA génère par inadvertance des réponses contenant de fausses informations ou reflétant des biais existants dans les données.
Cela pourrait poser des problèmes aux entreprises qui s'appuient sur le contenu généré par l'IA pour prendre des décisions ou communiquer avec les clients.
Vous devez évaluer de manière critique les informations fournies par ChatGPT pour vous prémunir contre la désinformation et empêcher la propagation de contenus biaisés.
Comme vous pouvez le constater, il n'existe actuellement aucune réglementation réglementant directement l'impact négatif des outils d'IA générative tels que ChatGPT.
6. Existe-t-il des réglementations pour ChatGPT et autres systèmes d'intelligence artificielle ?
Il n'existe actuellement aucune réglementation spécifique régissant directement ChatGPT ou d'autres systèmes d'intelligence artificielle.
Les technologies d'intelligence artificielle, y compris ChatGPT, sont soumises aux réglementations en vigueur en matière de protection des données et de confidentialité dans diverses juridictions. Certaines de ces réglementations incluent :
Règlement général sur la protection des données (RGPD) : le RGPD est un règlement complet sur la protection des données qui s'applique aux organisations opérant au sein de l'Union européenne (UE) ou traitant les données personnelles des résidents de l'UE. Il traite de la protection des données, de la vie privée et des droits des individus concernant leurs données personnelles.
California Consumer Privacy Act (CCPA) : Le CCPA est une réglementation californienne sur la confidentialité des données qui accorde aux consommateurs des droits spécifiques concernant leurs informations personnelles. Il oblige les entreprises à divulguer leurs pratiques de collecte et de partage de données et permet aux consommateurs de refuser la vente de leurs informations personnelles.
Réglementations dans d'autres régions : Divers pays et régions ont promulgué des lois sur la protection des données et la confidentialité qui peuvent s'appliquer aux systèmes d'intelligence artificielle tels que ChatGPT. Par exemple, la loi sur la protection des données personnelles (PDPA) de Singapour et la Lei Geral de Proteção de Dados (LGPD) du Brésil. L'Italie a interdit ChatGPT en mars 2023 en raison de problèmes de confidentialité, mais a levé l'interdiction un mois après qu'OpenAI a ajouté de nouvelles fonctionnalités de sécurité.
Une réglementation spécifique sera prochainement adoptée pour les systèmes d'intelligence artificielle tels que ChatGPT. En avril 2023, les législateurs européens ont adopté un projet de loi sur l’intelligence artificielle, qui obligera les entreprises qui développent des technologies génératrices d’intelligence artificielle telles que ChatGPT à divulguer le contenu protégé par le droit d’auteur utilisé dans leur développement.
La législation proposée classerait les outils d'IA en fonction de leur niveau de risque, allant de minime à limité, élevé et inacceptable.
Les principales préoccupations incluent la surveillance biométrique, la diffusion de fausses informations et le langage discriminatoire. Même si les outils à haut risque ne seront pas interdits, leur utilisation nécessite un haut degré de transparence.
La première réglementation globale et globale sur l’intelligence artificielle au monde verra le jour si elle est adoptée. Jusqu'à ce que ces réglementations soient adoptées, vous êtes responsable de la protection de votre vie privée lorsque vous utilisez ChatGPT.
Dans la section suivante, nous examinerons quelques mesures de sécurité et les meilleures pratiques pour l'utilisation de ChatGPT.
7. Mesures de sécurité et bonnes pratiques de ChatGPT
OpenAI a mis en œuvre plusieurs mesures de sécurité pour protéger les données des utilisateurs et assurer la sécurité des systèmes d'intelligence artificielle, mais les utilisateurs doivent également adopter certaines bonnes pratiques pour travailler avec Minimiser les risques lors de l'interaction avec ChatGPT .
Cette section explorera quelques bonnes pratiques que vous devriez suivre.
Limiter les informations sensibles : évitez encore une fois de partager des informations personnelles ou sensibles dans les conversations avec ChatGPT.
Consultez la politique de confidentialité : avant d'utiliser une application basée sur ChatGPT ou tout service utilisant le modèle de langage OpenAI, veuillez lire attentivement la politique de confidentialité et les pratiques de gestion des données de la plateforme pour avoir un aperçu de la manière dont la plateforme stocke et utilise vos conversations.
Utilisez un compte anonyme ou pseudonyme : si possible, veuillez utiliser un compte anonyme ou pseudonyme lorsque vous interagissez avec ChatGPT ou des produits qui utilisent l'API ChatGPT. Cela permet de minimiser l’association des données de conversation avec votre véritable identité.
Surveiller la politique de conservation des données : Familiarisez-vous avec la politique de conservation des données de la plateforme ou du service que vous utilisez pour comprendre combien de temps les conversations sont stockées avant d'être anonymisées ou supprimées.
Restez informé : restez informé de toute modification apportée aux mesures de sécurité ou à la politique de confidentialité d'OpenAI, et ajustez vos pratiques en conséquence pour maintenir un niveau élevé de sécurité lors de l'utilisation de ChatGPT.
En comprenant les mesures de sécurité mises en œuvre par OpenAI et en suivant ces bonnes pratiques, vous pouvez minimiser les risques potentiels et profiter d'une expérience plus sûre lorsque vous interagissez avec ChatGPT.
8. Réflexions finales sur l'utilisation de ChatGPT en toute sécurité
L'utilisation de ChatGPT en toute sécurité est une responsabilité partagée entre les développeurs OpenAI et les utilisateurs qui interagissent avec les systèmes d'intelligence artificielle. Afin de garantir une expérience utilisateur sûre, OpenAI a mis en œuvre une variété de mesures de sécurité, de méthodes de traitement des données et de politiques de confidentialité strictes.
Cependant, les utilisateurs doivent également faire preuve de prudence lorsqu'ils traitent avec des modèles de langage et adopter les meilleures pratiques pour protéger leur vie privée et leurs informations personnelles.
En limitant le partage d'informations sensibles, en révisant les politiques de confidentialité, en utilisant des comptes anonymes, en surveillant les politiques de conservation des données et en restant informé de toute modification des mesures de sécurité, vous pouvez profiter des avantages de ChatGPT tout en minimisant les risques potentiels.
Il ne fait aucun doute que la technologie de l'IA sera de plus en plus intégrée dans notre vie quotidienne, votre sécurité et votre confidentialité devraient donc être une priorité lorsque vous interagissez avec ces outils puissants.
Lien original :
https://blog.enterprisedna.co/is-chat-gpt-safe/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Outils d'IA chauds

Undresser.AI Undress
Application basée sur l'IA pour créer des photos de nu réalistes

AI Clothes Remover
Outil d'IA en ligne pour supprimer les vêtements des photos.

Undress AI Tool
Images de déshabillage gratuites

Clothoff.io
Dissolvant de vêtements AI

AI Hentai Generator
Générez AI Hentai gratuitement.

Article chaud

Outils chauds

Bloc-notes++7.3.1
Éditeur de code facile à utiliser et gratuit

SublimeText3 version chinoise
Version chinoise, très simple à utiliser

Envoyer Studio 13.0.1
Puissant environnement de développement intégré PHP

Dreamweaver CS6
Outils de développement Web visuel

SublimeText3 version Mac
Logiciel d'édition de code au niveau de Dieu (SublimeText3)

« Même si je sais que les escroqueries sont courantes de nos jours, je n’arrive toujours pas à croire que j’en ai réellement rencontré une. » Le 23 mai, la lectrice Wu Jia (pseudonyme) était encore effrayée en évoquant la fraude télécom dont elle a été victime il y a quelques jours. Dans l'arnaque rencontrée par Wu Jia, l'escroc a utilisé l'IA pour changer son visage en quelqu'un qu'elle connaissait. Non seulement Wu Jia a été confrontée à une fraude à l'IA contre laquelle il était difficile de se prémunir dans sa vie quotidienne, mais un journaliste du Beijing Business Daily a remarqué que les nouveaux modèles de fraude dans les télécommunications utilisant la technologie de l'IA ont montré une incidence élevée ces derniers jours. est proche de 100 %. technologies. Fraude « qui change le visage de l'IA » L'intelligence artificielle est redevenue populaire, cette fois autour de la fraude dans les télécommunications. Wu Jia

Depuis son lancement public en novembre 2022, ChatGPT a connu une croissance importante. Il est devenu un outil indispensable pour de nombreuses entreprises et particuliers, mais comme ChatGPT est intégré dans notre vie quotidienne et fonctionne à grande échelle, les gens se demanderont naturellement : ChatGPT est-il sûr à utiliser ? ChatGPT est généralement considéré comme sûr en raison des mesures de sécurité étendues, des méthodes de traitement des données et des politiques de confidentialité mises en œuvre par ses développeurs. Cependant, comme toute technologie, ChatGPT n’est pas à l’abri des problèmes de sécurité et des vulnérabilités. Cet article vous aidera à mieux comprendre la sécurité des modèles de langage ChatGPT et AI. Nous explorerons des aspects tels que la confidentialité des données, la vie privée des utilisateurs, les risques potentiels, la réglementation de l'IA et les mesures de sécurité. Enfin, vous serez intéressé par le Chat

Points clés : 1. La question de la sécurité des grands modèles d'IA n'est jamais un problème unique. Tout comme la gestion de la santé humaine, il s'agit d'une ingénierie système complexe et systématique impliquant plusieurs sujets et l'ensemble de la chaîne industrielle. 2. La sécurité de l'IA est divisée en : la sécurité des grands modèles de langage (AISafety), la sécurité des modèles et des modèles d'utilisation (Security for AI) et l'impact du développement de grands modèles de langage sur la sécurité des réseaux existants, qui correspond aux besoins individuels. sécurité, sécurité environnementale et sécurité sociale. 3. L'IA, en tant que « nouvelle espèce », nécessite une surveillance de la sécurité pendant le processus de formation des grands modèles. Lorsque les grands modèles sont finalement introduits sur le marché, ils nécessitent également une « inspection de qualité ». et doivent être utilisés de manière contrôlée, ce sont toutes des macros pour résoudre les problèmes de sécurité.

De nombreux explorateurs et praticiens du domaine de l'IA se sont réunis pour partager les résultats de leurs recherches, échanger leurs expériences pratiques et parler de la beauté de la science et de la technologie. La Conférence sur les sources intelligentes de Pékin 2023 s'est tenue récemment avec succès en tant qu'événement complet d'experts dans le domaine. de l'intelligence artificielle, cette pensée rayonnante de sagesse Échangez et soyez témoin d'une évolution étonnante de l'intelligence avec des centaines de rapports et de discussions merveilleux. Lors du Forum sur la sécurité et l'alignement de l'IA, de nombreux experts et universitaires ont communiqué. À l'ère des grands modèles, comment garantir que les systèmes d'intelligence artificielle de plus en plus puissants et polyvalents soient sûrs, contrôlables et cohérents avec les intentions et les valeurs humaines est une question. question extrêmement importante. Ce problème de sécurité est également connu sous le nom de problème d’alignement homme-machine (IAalignment) et représente l’un des défis scientifiques les plus urgents et les plus significatifs auxquels la société humaine est confrontée ce siècle. Argument

Des pays comme le Royaume-Uni, les États-Unis et la Chine ont convenu d’un consensus sur les risques posés par l’intelligence artificielle avancée, s’engageant à garantir que la technologie soit développée et déployée en toute sécurité. Lors du « Sommet mondial sur la sécurité de l'intelligence artificielle » organisé cette semaine par le gouvernement britannique, 28 pays, dont le Brésil, l'Inde, le Nigeria et l'Arabie saoudite, ainsi que l'Union européenne, ont signé un accord sur l'IA appelé « Déclaration de Bletchley ». Le gouvernement britannique a déclaré que la déclaration atteint l’objectif principal du sommet, à savoir établir un accord commun et des responsabilités sur les risques, les opportunités et la coopération internationale pour progresser dans la sécurité et la recherche avancées en matière d’IA, en particulier grâce à une collaboration scientifique plus large. Les pays participants ont partagé le point de vue selon lequel une éventuelle utilisation abusive intentionnelle pourrait présenter de graves risques et ont souligné leurs préoccupations concernant la cybersécurité, la biotechnologie, la désinformation, les préjugés et les risques liés à la vie privée.

Dans l'après-midi du 7 septembre, lors du forum « Explorer la nouvelle génération de renseignements de sécurité » organisé lors de la conférence 2023Inclusion Bund, la Cloud Security Alliance (CSA) Grande Chine, l'organisation industrielle internationale faisant autorité au monde, a annoncé la création d'un « IA Groupe de travail sur la sécurité". Huayunan et Chine Plus de 30 institutions, dont l'Institut de recherche sur les télécommunications, Ant Group, Huawei, l'Université des sciences et technologies électroniques de Xi'an et le Centre national d'évaluation des technologies financières de Shenzhen, sont devenus le premier groupe de sponsors. Le « AI Security Working Group » s'engage à résoudre conjointement les problèmes de sécurité causés par le développement rapide de la technologie de l'IA. Le groupe de travail sur la sécurité de l'IA dans la Grande Chine de la Cloud Security Alliance sera co-dirigé par le China Telecom Research Institute et Ant Group. Le groupe de travail réunira des entreprises, des écoles, des instituts de recherche et des unités d'utilisateurs impliqués en amont et en aval de la chaîne industrielle de l'intelligence artificielle. au sein de l'alliance.

Selon les nouvelles de l'IT House du 27 octobre, sur la base de rapports de CNBC, Reuters et d'autres rapports, jeudi, heure locale, le Premier ministre britannique Sunak a annoncé son intention de créer le premier institut de recherche sur la sécurité de l'IA au monde et d'organiser une conférence sur la sécurité de l'IA les 1er et 2 novembre. Sommet sur la sécurité. Le sommet réunira des entreprises d'IA, des gouvernements, la société civile et des experts dans des domaines connexes du monde entier pour discuter de la manière de réduire les risques posés par l'IA grâce à une action internationale coordonnée. La source Pexels Sunak a déclaré dans son discours que cet institut qui sera bientôt créé favorisera la compréhension mondiale de la sécurité de l'IA et recherchera, évaluera et testera soigneusement les nouvelles technologies d'IA pour comprendre les capacités de chaque nouveau modèle et explorer les risques allant de des préjudices sociaux tels que « les préjugés et la désinformation » aux « risques les plus extrêmes ». Sunak a déclaré : « IA

Ne recherchez pas activement les extraterrestres ! Essayez de vous éloigner de la terre le plus rapidement possible ! Abandonnez le développement de l’intelligence artificielle, sinon cela entraînerait la destruction du monde. Voici les trois conseils laissés au monde par le regretté physicien Stephen Hawking. Peut-être penserez-vous que sa déclaration est forcément un peu exagérée, voire alarmiste. Mais avez-vous déjà pensé à ce que serait le monde si ses inquiétudes se réalisaient enfin ? Si vous êtes intéressé par la civilisation extraterrestre, vous devez avoir entendu parler du nom SETI. Il s'agit d'un projet expérimental qui utilise des ordinateurs en réseau partout dans le monde pour rechercher des civilisations extraterrestres. Depuis sa création en 1999, il recherche sans relâche des signaux suspects dans l'univers. Et j’ai hâte de rencontrer un jour une civilisation extraterrestre lointaine et inattendue. Mais Hawking pense que cela
