Nouvelles le 14 janvier, le magazine scientifique américain de vulgarisation "Scientific American" a publié aujourd'hui un article déclarant que les articles scientifiques rédigés par ChatGPT sont d'une telle qualité académique que les scientifiques seniors ne peuvent pas faire la différence. soit.
Dans un article préimprimé publié sur le serveur bioRxiv fin décembre, les chatbots d'intelligence artificielle (IA) sont devenus capables d'écrire de faux articles de recherche de manière si convaincante que les scientifiques peuvent le faire sans un examen minutieux.
Sandra Wachter, qui étudie la technologie et la réglementation à l'Université d'Oxford au Royaume-Uni, a déclaré : "Je suis très inquiète à ce sujet. Si même les experts ne peuvent pas distinguer si l'article est vrai ou faux, cela affectera la pierre angulaire de notre recherche. ".
IT Home Classroom : Chatbot ChatGPT crée un texte réaliste et intelligent basé sur les invites de l'utilisateur. Il s'agit d'un « grand modèle de langage », un système basé sur un réseau neuronal qui apprend à effectuer des tâches en digérant de grandes quantités de texte généré par l'homme. OpenAI, une société de logiciels basée à San Francisco, en Californie, a publié l'outil le 30 novembre et son utilisation est gratuite.
Une équipe dirigée par Catherine Gao de l'Université Northwestern de Chicago, dans l'Illinois, a utilisé ChatGPT pour générer des résumés artificiels de documents de recherche afin de tester si les scientifiques pouvaient les découvrir. Les chercheurs ont demandé au chatbot de mener des recherches basées sur des recherches publiées dans JAMA, The New England Journal of Medicine, The BMJ, The Lancet. Rédiger 50 résumés de recherche médicale pour des anthologies dans The Lancet et Nature Medicine.
Ils ont ensuite comparé ces résumés avec les résumés originaux grâce à un détecteur de plagiat et un détecteur de sortie d'IA, et ont demandé à une équipe de chercheurs médicaux de repérer les résumés fabriqués.
Les résumés générés par ChatGPT ont passé le contrôle du plagiat avec brio : le score médian d'originalité était de 100 %, indiquant qu'aucun plagiat n'a été détecté.
Le détecteur de sortie de l'IA a trouvé 66 % des résumés générés, tandis que l'examen humain n'a identifié correctement que 68 % des résumés générés et 86 % des résumés réels. Les experts ont identifié à tort 32 % des résumés générés comme des résumés réels et 14 % des résumés réels comme générés.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!