ChatGPT est un puissant chatbot d'intelligence artificielle qui a rapidement impressionné les gens après son lancement, mais de nombreuses personnes ont souligné qu'il présentait de sérieux défauts.
Des failles de sécurité aux problèmes de confidentialité en passant par les données de formation non divulguées, l'utilisation des chatbots à intelligence artificielle suscite de nombreuses inquiétudes, mais la technologie est déjà intégrée dans des applications et utilisée par un grand nombre d'utilisateurs, des étudiants aux employés des entreprises.
Le développement de l’intelligence artificielle ne montrant aucun signe de ralentissement, il est d’autant plus important de comprendre les enjeux de ChatGPT. Alors que ChatGPT va changer l’avenir des gens, voici quelques-uns des problèmes les plus importants liés à ChatGPT.
ChatGPT est un modèle de langage à grande échelle conçu pour générer un langage humain naturel. Tout comme parler à quelqu'un, les gens peuvent parler à ChatGPT et il se souviendra de ce que les gens ont dit dans le passé, tout en étant capable de se corriger en cas de défi.
Il est formé sur une variété de textes provenant d'Internet, tels que Wikipédia, des articles de blog, des livres et des articles académiques. En plus de réagir de manière humaine, il peut rappeler des informations sur le monde d'aujourd'hui et extraire des informations historiques du passé.
Apprendre à utiliser ChatGPT est simple, et il est facile de se laisser tromper en pensant que le système d'IA n'a aucun problème. Cependant, dans les mois qui ont suivi sa publication, des questions clés ont été soulevées concernant la vie privée, la sécurité et son impact plus large sur la vie des gens, du travail à l'éducation.
En mars 2023, une vulnérabilité de sécurité s'est produite dans ChatGPT et certains utilisateurs ont vu les titres de conversations d'autres personnes dans leur barre latérale. Le partage accidentel de l'historique des discussions d'un utilisateur est un problème sérieux pour toute entreprise technologique, et c'est particulièrement grave compte tenu du nombre de personnes qui utilisent ce chatbot populaire.
Selon Reuters, les utilisateurs actifs mensuels de ChatGPT ont atteint 100 millions rien qu'en janvier 2023. Bien que la vulnérabilité à l'origine de la fuite de données ait été rapidement corrigée, le régulateur italien des données a demandé à OpenAI d'arrêter toutes les opérations traitant les données des utilisateurs italiens.
L'agence soupçonne ChatGPT d'avoir violé la réglementation européenne en matière de confidentialité. Après avoir étudié le problème, il a été demandé à OpenAI de répondre à plusieurs exigences avant que le chatbot puisse être rétabli.
OpenAI a finalement résolu ce problème en apportant plusieurs changements majeurs. Premièrement, des restrictions d'âge ont été ajoutées afin que seules les personnes de plus de 18 ans ou de plus de 13 ans puissent utiliser l'application avec l'autorisation de leur tuteur. Il a également rendu sa politique de confidentialité plus visible et a donné aux utilisateurs un formulaire de désinscription pour exclure que leurs données soient utilisées pour entraîner ChatGPT, ou les supprimer complètement s'ils le souhaitent.
Ces changements sont un bon début, mais ces améliorations devraient être étendues à tous les utilisateurs de ChatGPT.
Ce n’est pas non plus la seule raison pour laquelle ChatGPT constitue une menace pour la sécurité. Tout comme les utilisateurs, il est facile pour les employés de partager accidentellement des informations confidentielles. Un bon exemple est que les employés de Samsung ont partagé plusieurs fois des informations sur l'entreprise avec ChatGPT.
Après la popularité de ChatGPT, de nombreuses personnes se sont demandées comment OpenAI avait initialement formé son modèle.
Même après la violation de données en Italie, la politique de confidentialité d'OpenAI s'est améliorée, mais elle a eu du mal à répondre aux exigences du Règlement général sur la protection des données, une loi sur la protection des données couvrant l'Europe. Comme le rapporte TechCrunch : « On ne sait pas si le modèle GPT a été formé sur les données personnelles des Italiens, c'est-à-dire si les données personnelles ont été traitées de manière efficace et licite lors de la suppression des données publiques sur Internet ou si les utilisateurs demandent maintenant leur suppression. les données précédemment utilisées pour entraîner le modèle seront supprimées ou pourront être supprimées. "
Il est très probable que la société OpenAI ait collecté des informations personnelles lors de la formation de ChatGPT. Même si la loi américaine est moins claire, les réglementations européennes en matière de données se concentrent toujours sur la protection des données personnelles, qu'elles divulguent ces informations publiquement ou en privé.
Un argument similaire contre l'utilisation de données d'entraînement a été avancé par des artistes, qui affirment n'avoir jamais consenti à ce que leur travail soit formé sur des modèles d'IA. Pendant ce temps, Getty Images a poursuivi la société Stability.AI pour avoir utilisé ses images protégées par le droit d'auteur pour entraîner son modèle d'intelligence artificielle.
À moins que la société OpenAI ne publie ses données de formation, il y a un manque de transparence et il est difficile de savoir si c'est légal. Par exemple, les gens ne connaissent tout simplement pas les détails de la formation ChatGPT, quelles données ont été utilisées, d’où proviennent les données ou à quoi ressemblent les détails de l’architecture du système.
ChatGPT n'est pas bon en mathématiques de base, semble incapable de répondre à des questions logiques simples et argumentera même sur des faits complètement faux. Comme peuvent en témoigner les internautes sur les réseaux sociaux, ChatGPT peut mal tourner à plusieurs reprises.
OpenAI comprend ces limitations. "ChatGPT écrit parfois des réponses qui semblent raisonnables mais qui sont incorrectes ou qui n'ont aucun sens", a déclaré la société. Cette illusion de faits et de fiction, comme le note la société, peut être utile pour des conseils médicaux ou des interprétations d'événements historiques clés. est particulièrement dangereux pour des questions telles que la compréhension correcte des faits.
Contrairement à d'autres assistants d'intelligence artificielle comme Siri ou Alexa, ChatGPT n'utilise pas Internet pour rechercher des réponses. Au lieu de cela, il construit des phrases mot pour mot, en sélectionnant les « jetons » les plus probables en fonction de l'entraînement. En d’autres termes, ChatGPT propose des réponses en faisant une série de suppositions, c’est pourquoi il peut argumenter les mauvaises réponses comme si elles étaient tout à fait correctes.
Bien qu'il soit excellent pour expliquer des concepts complexes, ce qui en fait un outil d'apprentissage puissant, il est important de ne pas croire tout ce qu'il dit. ChatGPT n'est pas toujours correct, du moins pas encore.
ChatGPT est formé sur la base des écrits passés et présents d'humains du monde entier. Malheureusement, cela signifie que les biais qui existent dans le monde réel peuvent également apparaître dans les modèles d’IA. Il a été démontré que
ChatGPT produit des réponses médiocres qui sont discriminatoires à l'égard du sexe, de la race et des minorités, et l'entreprise s'efforce de réduire ces problèmes.
Une façon d'expliquer cela est de désigner les données comme le problème, en accusant les humains de leurs préjugés sur et en dehors d'Internet. Mais une partie de la faute revient également à la société OpenAI, dont les chercheurs et développeurs ont sélectionné les données utilisées pour entraîner ChatGPT.
OpenAI est une fois de plus conscient qu'il s'agit d'un problème et affirme s'attaquer aux « comportements biaisés » en collectant les commentaires des utilisateurs et en les encourageant à signaler les résultats de ChatGPT qui sont mauvais, offensants ou simplement incorrects.
En raison du risque que ChatGPT puisse nuire aux personnes, on pourrait affirmer que ChatGPT ne devrait pas être rendu public tant que ces problèmes n'ont pas été étudiés et résolus. Mais la volonté d’être la première entreprise à créer le modèle d’intelligence artificielle le plus puissant a suffi à OpenAI pour mettre fin à toute prudence.
En revanche, la société mère de Google, Aalphabet, a lancé un chatbot d'intelligence artificielle similaire appelé « Sparrow » en septembre 2022. Cependant, le robot a été abandonné pour des raisons de sécurité similaires.
À peu près au même moment, Facebook a publié un modèle de langage d'intelligence artificielle appelé Galactica, conçu pour faciliter la recherche universitaire. Cependant, il a été rapidement rappelé après que de nombreuses personnes lui aient reproché de produire des résultats erronés et biaisés liés à la recherche scientifique.
Le développement et le déploiement rapides de ChatGPT ne sont pas encore réglés, mais cela n'a pas empêché la technologie sous-jacente d'être intégrée dans de nombreuses applications commerciales. Les applications qui ont intégré GPT-4 incluent Duolingo et Khan Academy.
La première est une application d'apprentissage des langues, tandis que la seconde est un outil d'apprentissage pédagogique diversifié. Les deux proposent essentiellement des tuteurs IA, ou sous la forme de personnages pilotés par l'IA avec lesquels les utilisateurs peuvent converser dans la langue qu'ils apprennent. Ou en tant que tuteur en IA qui peut fournir des commentaires personnalisés sur leur apprentissage.
Ce n’est peut-être que le début d’une intelligence artificielle remplaçant les emplois humains. Parmi les autres emplois du secteur confrontés à des perturbations figurent les parajuristes, les avocats, les rédacteurs, les journalistes et les programmeurs.
D'une part, l'intelligence artificielle peut changer la façon dont les gens apprennent. Elle peut faciliter l'obtention d'une éducation et d'une formation, et le processus d'apprentissage sera plus facile. Mais d’un autre côté, un grand nombre d’emplois humains disparaîtront également.
Selon le rapport britannique "Guardian", les établissements d'enseignement ont subi d'énormes pertes sur les bourses de Londres et de New York, soulignant les dommages causés par l'intelligence artificielle à certains marchés seulement 6 mois après le lancement de ChatGPT.
Le progrès technologique entraîne toujours la perte d'emploi de certaines personnes, mais la rapidité du développement de l'intelligence artificielle signifie que plusieurs secteurs industriels sont confrontés à des changements rapides en même temps. Il est indéniable que ChatGPT et sa technologie sous-jacente vont complètement remodeler le monde moderne des gens.
Les utilisateurs peuvent demander à ChatGPT de relire leurs articles ou d'indiquer comment améliorer les paragraphes. Les utilisateurs peuvent également se libérer complètement et laisser ChatGPT écrire à leur place.
De nombreux enseignants ont essayé de donner des devoirs sur ChatGPT et ont reçu de meilleures réponses que de nombreux étudiants. De la rédaction d'une lettre de motivation à la description des thèmes principaux d'œuvres littéraires célèbres, ChatGPT peut accomplir toutes les tâches sans aucune hésitation.
Cela soulève la question : si ChatGPT peut écrire pour les gens, les étudiants devront-ils apprendre à écrire à l'avenir ? Cela semble être une question existentielle, mais lorsque les étudiants commenceront à utiliser ChatGPT pour les aider à rédiger des articles, les écoles devront le fournir dès que possible. comme contre-mesures possibles.
Ce ne sont pas seulement les sujets basés sur l'anglais qui sont à risque, ChatGPT peut aider les gens dans toute tâche impliquant un brainstorming, une synthèse ou des conclusions intelligentes.
Sans surprise, certains étudiants expérimentent déjà l'intelligence artificielle. Selon le Stanford Daily, les premières enquêtes montrent que de nombreux étudiants utilisent l’intelligence artificielle pour terminer leurs devoirs et leurs examens. En réponse, certains enseignants réécrivent leurs cours pour faire en sorte que les étudiants utilisent l’intelligence artificielle pour naviguer dans les cours ou tricher aux tests.
Peu de temps après sa sortie, quelqu'un a tenté de pirater ChatGPT, ce qui a donné naissance à un modèle d'intelligence artificielle capable de contourner les garde-fous de sécurité d'OpenAI conçus pour l'empêcher de générer des textes offensants et dangereux.
ChatGPT Un groupe d'utilisateurs sur Reddit a nommé leur modèle d'IA sans restriction DAN, abréviation de « Do Anything Now ». Malheureusement, faire tout ce qui vous plaît a entraîné une augmentation des escroqueries en ligne de la part des pirates informatiques. Selon un rapport d'Ars Technica, les pirates vendent des services ChatGPT indisciplinés qui peuvent créer des logiciels malveillants et générer des e-mails de phishing.
Essayer de repérer les e-mails de phishing conçus pour extraire des informations sensibles des personnes est beaucoup plus difficile avec le texte généré par l'IA. Autrefois, les erreurs grammaticales étaient un signal d'alarme évident, mais elles ne le sont peut-être plus désormais, car ChatGPT peut écrire couramment une grande variété de textes, de la prose à la poésie en passant par les e-mails.
La diffusion de fausses informations constitue également un problème sérieux. L'ampleur du texte généré par ChatGPT, combinée à la capacité de rendre la désinformation convaincante, rend tout ce qui se trouve sur Internet suspect et exacerbe les dangers de la technologie deepfake.
La vitesse à laquelle ChatGPT génère des informations a posé des problèmes à Stack Exchange, un site Web dédié à fournir les bonnes réponses aux questions quotidiennes. Peu de temps après la sortie de ChatGPT, un grand nombre d'utilisateurs ont demandé à ChatGPT de générer des réponses.
Sans suffisamment de volontaires humains pour rassembler ces informations, il est impossible de fournir des réponses de haute qualité. Sans oublier que certaines réponses ne sont tout simplement pas correctes. Pour éviter de casser le site, Stack Exchange désactive l'utilisation de ChatGPT pour générer toutes les réponses.
Un plus grand pouvoir implique une plus grande responsabilité, et la société OpenAI a beaucoup de pouvoir. C'est l'un des premiers développeurs d'IA à générer des modèles d'IA avec plusieurs modèles, notamment Dall-E 2, GPT-3 et GPT-4.
En tant qu'entreprise privée, OpenAI choisit les données utilisées pour entraîner ChatGPT et choisit la vitesse à laquelle les nouveaux développements sont déployés. En conséquence, de nombreux experts mettent en garde contre les dangers posés par l’intelligence artificielle, mais peu de signes indiquent que ces dangers vont ralentir.
Au lieu de cela, la popularité de ChatGPT a stimulé la concurrence entre les grandes entreprises technologiques pour lancer le prochain grand modèle d'IA ; celles-ci incluent Bing AI de Microsoft et Bard de Google. Un certain nombre de leaders technologiques du monde entier ont signé une lettre appelant à un retard dans le développement de modèles d’intelligence artificielle, craignant qu’un développement rapide ne conduise à de graves problèmes de sécurité.
Bien qu'OpenAI estime que la sécurité est une priorité absolue, il reste encore beaucoup de choses que les gens ignorent, pour le meilleur ou pour le pire, sur le fonctionnement du modèle lui-même. En fin de compte, la plupart des gens peuvent aveuglément croire qu’OpenAI recherchera, développera et utilisera ChatGPT de manière responsable.
Que l'on soit d'accord ou non avec ses méthodes, il convient de rappeler qu'OpenAI est une entreprise privée et que l'entreprise continuera à développer ChatGPT selon ses propres objectifs et normes éthiques.
Il y a de quoi être enthousiasmé par ChatGPT, mais au-delà de son utilité immédiate, il existe de sérieux problèmes.
OpenAI reconnaît que ChatGPT peut produire des réponses préjudiciables et biaisées, et espère atténuer ce problème en collectant les commentaires des utilisateurs. Mais même si ce n’est pas le cas, cela peut produire un texte convaincant, qui pourrait facilement être exploité par de mauvais acteurs.
Des vulnérabilités en matière de confidentialité et de sécurité ont montré que les systèmes d’OpenAI peuvent être vulnérables, mettant en danger les données personnelles des utilisateurs. Pour rendre les choses encore plus troublantes, certaines personnes piratent ChatGPT et utilisent des versions sans restriction pour créer des logiciels malveillants et des escroqueries à une échelle sans précédent.
Les menaces sur l'emploi et les perturbations potentielles dans le secteur de l'éducation sont des problèmes croissants. Avec une toute nouvelle technologie, il est difficile de prédire quels problèmes surgiront à l'avenir, et malheureusement, ChatGPT a déjà présenté son lot de défis.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!