ChatGPT semble connaître un Waterloo.
Le 31 mars, un grand nombre d'utilisateurs se sont plaints sur les plateformes sociales de ne plus pouvoir se connecter au compte ChatGPT qu'ils avaient ouvert avec leur propre argent. Ce qui était encore plus embarrassant, c'est qu'ils ne pouvaient pas créer un nouveau compte. Comme de plus en plus d'utilisateurs l'ont révélé, il a été découvert que l'incident d'interdiction de compte avait commencé le 30 mars et se propageait rapidement.
Le 1er avril, de plus en plus de personnes ont déclaré que leurs comptes étaient bloqués, et les utilisateurs des principales plateformes et des discussions de groupe se sont précipités pour se dire des « notes » pour éviter d'être bloqués. A cette époque, les comptes Plus initialement utilisables n'ont pas été épargnés et sont devenus invalides les uns après les autres, et certains enregistrements n'ont pas pu être vérifiés dans la facture.
Bizarrement, depuis le 3 avril, les interdictions de comptes à grande échelle ne semblent pas s'être arrêtées. De nombreux internautes ont également posté sur les plateformes sociales en disant : « ChatGPT interdit les comptes à grande échelle ». Un grand nombre d'utilisateurs ont signalé que les interdictions silencieuses de comptes étaient cette fois principalement concentrées en Asie. Dans le même temps, OpenAI n'a émis aucun avertissement ni réponse à ce sujet.
En termes de conformité, ChatGPT a également fait l'objet d'un nouveau contrôle. Le site Web Record a révélé que l'agence italienne de protection des données a officiellement annoncé une interdiction temporaire de l'utilisation de ChatGPT et a strictement demandé à sa société mère OpenAI de cesser de traiter les informations des utilisateurs italiens. L'Italie a "tiré" le premier coup pour interdire ChatGPT !
Quant aux raisons de l'interdiction de ChatGPT, l'agence italienne de protection des données a déclaré qu'OpenAI a non seulement collecté illégalement une grande quantité de données personnelles d'utilisateurs italiens, mais ce qui est encore pire, c'est qu'OpenAI n'a pas mis en place de mécanisme pour vérifier l'âge. des utilisateurs de ChatGPT pour empêcher les mineurs d'accéder à du matériel illégal.
L'Agence italienne de protection des données a en outre souligné qu'OpenAI disposait de 20 jours pour défendre son vol d'informations, faute de quoi elle pourrait être condamnée à une amende pouvant aller jusqu'à 20 millions d'euros ou 4 % du chiffre d'affaires annuel de l'entreprise pour violation du règlement général sur la protection des données de l'UE. Non seulement en termes d'amendes, une fois qu'OpenAI ne peut pas expliquer en détail si elle a pris des mesures pour protéger les données des utilisateurs, cela augmentera inévitablement la probabilité que les pays de l'UE interdisent ChatGPT.
Après que l'Italie ait interdit ChatGPT, OpenAI a immédiatement mis ChatGPT hors ligne en Italie. Son PDG, Sam Altman, a immédiatement tweeté pour expliquer que le travail effectué par l'entreprise consistait à réduire les données personnelles lors de la formation de systèmes d'intelligence artificielle tels que ChatGPT. comprendra le monde plutôt que les individus. L'entreprise n'a enfreint aucune réglementation et attend avec impatience de coopérer avec l'autorité italienne de protection des données personnelles.
Il est indéniable que l'émergence de ChatGPT déclenchera un nouveau cycle de révolution de l'information et profitera davantage à l'humanité, mais tout a deux faces, et la société attend avec impatience le avantages que ChatGPT apportera à l’humanité Lorsqu’une opportunité sans précédent se présente, vous devez également réfléchir aux risques de sécurité que son émergence entraînera. Après tout, en seulement deux ou trois mois, les risques de sécurité liés à l’utilisation de ChatGPT se sont succédés.
ChatGPT montre une image « parfaite » depuis son lancement, mais à mesure que le nombre d'utilisateurs augmentait progressivement, certains risques de sécurité ont progressivement commencé à être exposés.
Début mars 2023, certains utilisateurs ont révélé que les enregistrements de discussion d'autres personnes étaient affichés dans leurs listes de discussion. Pendant un certain temps, ChatGPT a divulgué les données des utilisateurs et a finalement occupé les principales listes de médias sociaux. de publier en urgence un tweet pour expliquer aux utilisateurs que le BUG qui a provoqué la fuite de l'historique de discussion ChatGPT de l'utilisateur n'était qu'un bug dans la base de code open source.
Après la fuite des enregistrements de discussion des utilisateurs, bien qu'OpenAI ait facilement admis aux médias qu'il y avait une vulnérabilité de sécurité dans ChatGPT et immédiatement déconnecté la fonction d'historique de discussion, il a toujours souligné que seul le titre de l'historique de discussion était fuite. Les utilisateurs ne peuvent pas voir les discussions réelles des autres.
À en juger par les informations divulguées par OpenAI, le contenu des conversations des utilisateurs sera automatiquement enregistré dans le cloud et il existe une possibilité de vol par un tiers. Combiné à cette fuite d'enregistrements de discussion historiques, de plus en plus de chercheurs en sécurité ont commencé à le faire. Considérez sérieusement l'émergence de ChatGPT. Si les problèmes de sécurité des informations sont accidentels.
Une vague après l'autre. La semaine dernière, les médias sud-coréens ont révélé que le géant de la technologie Samsung Electronics avait été exposé à trois fuites de données internes confidentielles moins de 20 jours après l'introduction de ChatGPT. (2 cas étaient liés à des équipements semi-conducteurs et 1 cas était lié au contenu de réunions internes).
Il est rapporté que ces informations confidentielles de Samsung Electronics peuvent avoir été importées dans la base de données ChatGPT et risquent de fuir à tout moment.
Description détaillée des trois incidents :
Après la fuite de Samsung Electronics, ils ont immédiatement organisé le personnel de sécurité en interne pour formuler des mesures de protection pertinentes, et ont déclaré que si des incidents similaires se reproduisaient à l'avenir, Samsung pourrait couper le service ChatGPT en interne. En outre, les médias ont révélé que Samsung envisageait actuellement de développer des services d'IA spécifiques à Samsung via le DS Department Innovation Center.
Le 11 mars de cette année, Samsung Electronics a adopté une résolution autorisant les employés du département DS à utiliser ChatGPT, mais ChatGPT est toujours désactivé pour les employés du département Expérience des appareils DX. En conséquence, nous avons rencontré trois incidents de sécurité inattendus en seulement vingt jours. Cela montre que la sécurité de ChatGPT mérite effectivement d'être prise en considération.
Samsung n'est pas la seule entreprise où les employés téléchargent des données confidentielles d'entreprise sur ChatGPT. À en juger par les statistiques de Cyberhaven sur l'utilisation de ChatGPT par 1,6 million d'employés, environ 3,1 % des employés téléchargent directement des données internes de l'entreprise sur ChatGPT pour analyse afin d'améliorer l'efficacité du travail.
Comme le montre le contenu mentionné ci-dessus, ChatGPT est largement utilisé et comporte de sérieux risques de sécurité, donc en ce qui concerne l'avenir de ChatGPT. et l'intelligence artificielle , ont suscité des inquiétudes du public concernant la technologie de l'IA, et de nombreuses personnalités scientifiques bien connues ont déclaré conjointement qu'elles suspendraient le développement de systèmes d'IA plus puissants.
Le 29 mars, heure des États-Unis, parmi les participants, dont le père de l'intelligence artificielle, Jeffrey Hinton, le PDG de Tesla et Twitter, Elon Musk, le lauréat du Turing Award Joshua Bengio, etc. Des milliers d'experts en intelligence artificielle et de dirigeants de l'industrie ont signé une lettre ouverte intitulée " Pause Large Model Experiments in AI" publié par le Future of Life Institute, une organisation américaine à but non lucratif.
Dans la lettre, ces experts de haut niveau ont appelé tous les laboratoires d'intelligence artificielle à suspendre le développement et la formation de systèmes d'intelligence artificielle plus puissants pendant au moins six mois. Dans des circonstances particulières, les gouvernements devraient intervenir rapidement et suspendre immédiatement le système d'IA. recherche.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!