Marcus est là pour critiquer à nouveau ChatGPT !
Aujourd'hui, Marcus a écrit sur son blog personnel : Les choses deviennent de plus en plus scandaleuses.
La cause du problème provient d'un tweet de Fred Ehrsam.
Ehrsam a demandé à ChatGPT et à Google "Combien de temps faut-il pour 4 minutes et 21 kilomètres pour égaler 1 mile ?" Il a dit que ChatGPT avait donné une réponse précise et concise, mais Google n'a pas pu le faire.
En réponse à ce message, Marcus a déclaré : "C'est arrogant et arrogant, comme si c'était un symbole du monde futur. Mais au fait, sa réponse est fausse
ChatGPT n'a pas converti." les unités correctement, l'auteur a simplement supposé que la réponse donnée par ce nouvel outil génial serait exacte (même à la seconde près !) et il n'a pas vérifié du tout.
C'est ça le problème. La prédiction statistique de mots ne remplace pas les mathématiques réelles, mais beaucoup de gens pensent le contraire. (La vitesse de 4 minutes et 21 secondes par kilomètre est la vitesse de 7 minutes par mile. Si vous posez bien la question, elle vous donnera la bonne réponse.)
La réponse « bonne, mais pas tout à fait correcte » de ChatGPT Le pire, ce n’est pas que ce soit faux, mais qu’il semble fidèle à lui-même. C'était tellement convaincant que les utilisateurs de Twitter n'ont même pas pensé à en douter.
Voici la situation actuelle : ChatGPT est abusé, les gens lui font confiance, et même s'en vantent, même si c'est contraire à la bonne réponse.
Vous voulez savoir ce qui est pire que le battage médiatique ? Les gens ont commencé à considérer ChatGPT comme un collaborateur scientifique fiable et qualifié.
Marcus a déclaré qu'en ce qui concerne ChatGPT, les gros titres d'hier vantaient sa capacité à tyranniser Google. Aujourd'hui, l'opinion publique envisage de devenir co-auteur de ChatGPT.
Dans un article préimprimé publié en décembre de l'année dernière, ChatGPT est soudainement apparu dans la colonne des auteurs !
Par coïncidence, le nom de ChatGPT est fréquemment apparu dans certains articles à comité de lecture dans le domaine médical depuis décembre de l'année dernière :
Adresse papier : https://www.oncoscience . us/article/571/text/
Selon Semantic Scholar, ChatGPT, âgé de 6 semaines, compte déjà deux publications, 12 co-auteurs et une citation.
J’espère sincèrement que cette tendance ne se poursuivra pas.
Marcus a donné cinq raisons :
Il ne peut pas fournir de vraies idées, concevoir des expériences soigneusement contrôlées et ne peut pas s'inspirer de la littérature existante. Vous ne faites pas d’un correcteur orthographique ou d’une feuille de calcul un co-auteur.
Par exemple, vous citeriez certaines ressources dans les références, comme un progiciel d'analyse cérébrale comme SPM. Personne ne citerait SPM comme co-auteur même si cela était important pour l’effort de recherche.
ChatGPT ne peut tout simplement pas raisonner assez bien pour faire cela ; étant donné le niveau actuel de compréhension scientifique de ChatGPT, lui donner la paternité est irrespectueux du processus scientifique lui-même.
Marcus a écrit dans un article précédent que ChatGPT n'a aucune compréhension de la physique, de la biologie, de la psychologie, de la médecine et d'autres sujets, et a expliqué à tout le monde à quoi cela ressemble d'être "intelligent et stupide".
Dans cette réponse, ChatGPT a déclaré sérieusement que les scientifiques ont découvert que les churros espagnols sont le meilleur outil chirurgical à la maison.
Si vous ne le savez pas, vous ne comprenez pas la recherche sur l’IA ; si vous le savez et que vous ne vous en souciez pas, c’est encore pire. Si vous en faites un co-auteur, cela montre que vous essayez simplement de suivre la foule plutôt que de réellement faire des recherches.
Vous ne croiriez pas une calculatrice qui n’est correcte qu’à 75 %. Alors, si vous déclarez ouvertement que vous êtes enthousiasmé par « l’écriture » d’un article en utilisant un « mauvais » outil d’intelligence artificielle, pourquoi devrais-je le faire ? Vous faites confiance ?
Si vous considérez ChatGPT comme un être sensible, ce qui n'est clairement pas le cas, vous induisez le public en erreur en lui faisant ressentir la même chose, vous ne diffusez pas d'idées scientifiques, vous ne faites que dire des conneries. Veuillez arrêter ce comportement.
Finalement, Marcus a conclu : un véritable ami ne permettra pas à ChatGPT d'être co-auteur de votre article.
Si Marcus a eu un débat passionné avec LeCun et d'autres sur les perspectives de l'intelligence artificielle et la faisabilité de l'AGI, et a accusé LeCun de s'attribuer le mérite des autres pour sa "feuille de route de l'intelligence artificielle", c'était plus ou moins une rancune personnelle Si tel est le cas, alors cette fois, les inquiétudes et la vigilance exprimées à propos de ChatGPT sont très pertinentes.
En fait, ce que Marcus a mentionné ci-dessus à propos de ChatGPT, de la fraude papier et des litiges en matière de droits d'auteur est devenu une réalité quelques semaines seulement après le lancement de ChatGPT.
Récemment, Darren Schick, professeur de philosophie à l'Université Furman, a découvert qu'un article soumis par un étudiant était généré par l'intelligence artificielle.
Hick a déclaré qu'il était devenu méfiant lorsqu'il avait vu les informations apparemment soigneusement rédigées mais fausses dans le journal.
Il a soumis l'article au détecteur ChatGPT d'Open AI, et les résultats ont montré qu'il y avait 99 % de chances que cet article soit généré par l'intelligence artificielle.
Par coïncidence, Antony Aumann, professeur à la Northern Michigan University, a également déclaré qu'il avait également découvert que deux étudiants avaient soumis des articles écrits par ChatGPT.
Après avoir remarqué que quelque chose n'allait pas dans le style d'écriture des deux articles, Orman a soumis les articles au chatbot et a demandé quelle était la probabilité qu'ils aient été écrits par le programme. Lorsque le chatbot a déclaré qu'il était sûr à 99 % qu'il avait été écrit par ChatGPT, il a transmis le résultat à l'étudiant.
Schick et Orman ont déclaré qu'après avoir confronté les étudiants, tous ont finalement admis les violations. Les élèves de Hick ont échoué au cours et Ohman a demandé à ses élèves de réécrire le devoir à partir de zéro.
Les deux professeurs ont déclaré que des traces évidentes peuvent être vues dans certains points clés des deux articles générés par l'IA. Schick a déclaré que le document qu'il avait trouvé mentionnait plusieurs faits non mentionnés en classe et faisait une affirmation sans objet.
Il a déclaré : « Sur le papier, c'est un article bien écrit, mais à y regarder de plus près, une déclaration sur le prolifique philosophe David Hume n'a aucun sens, voire complètement fausse. »
Ce genre de parfaitement Une erreur de finition est le plus gros défaut de l'écriture fantôme de l'IA.
Pour Orman, le chatbot est tout simplement trop parfaitement écrit. "Je pense que cet outil de chat est mieux écrit que 95 % de mes étudiants."
"C'est juste que tout d'un coup, vous avez quelqu'un qui n'a pas montré ce niveau de réflexion ou de capacité d'écriture en écrivant quelque chose qui convient parfaitement à tous. Les exigences contenaient une grammaire complexe et des idées complexes, qui étaient directement liées aux invites de l'article, et cela semblait immédiatement faux », a-t-il déclaré.
Christopher Bartell, professeur de philosophie à l'Appalachian State University, a déclaré que si la grammaire des articles générés par l'IA est presque parfaite, le contenu de fond manque souvent de détails.
"Pas d'expérience, pas de profondeur, pas de perspicacité."
Mais cela dit, plusieurs étudiants de professeurs ont admis avoir recours à l'écriture fantôme par l'IA. En fait, les universitaires risquent d'être en difficulté si les étudiants refusent d'admettre qu'ils utilisent l'intelligence artificielle pour rédiger des articles.
Battle a déclaré que les règles actuelles de certains établissements universitaires n'ont pas été développées pour lutter contre ce type de tricherie. Si un étudiant fait tout son possible pour nier avoir recours à l’intelligence artificielle, il est en réalité difficile de prouver définitivement une telle tricherie.
Il a également déclaré que les outils de détection d'IA fournis par OpenAI sont bons, mais pas parfaits.
Cet outil effectue une analyse statistique sur la possibilité que le texte ait été généré par l'intelligence artificielle et donne une probabilité.
La politique actuelle est généralement qu'il doit y avoir des preuves claires et vérifiables pour prouver que le papier est faux avant de pouvoir être considéré comme un marteau, ce qui nous met dans une position très difficile. Si le résultat renvoyé est à 95 % susceptible d’être un article généré par l’intelligence artificielle, et à 5 % non.
Dans le cas de Hick, bien que le site Web de test ait déclaré qu'il était "certain à 99%" que le papier avait été généré par l'intelligence artificielle, en fait, la clé réside dans le fait que l'étudiant lui-même l'admet, sinon sur la base de ce seul résultat de probabilité. , ce n’est pas correct. La confirmation de la tricherie ne suffit pas en soi.
Hick a déclaré que les aveux sont importants, mais à part cela, tout le reste est une preuve circonstancielle. Pour le contenu généré par l'intelligence artificielle, il n'y a généralement aucune preuve matérielle, et les preuves matérielles ont plus de poids que les preuves indirectes. "
Oman a déclaré que même s'il pense que l'analyse du chatbot constitue une preuve suffisante pour agir, l'utilisation de l'intelligence artificielle pour plagier et tricher reste un nouveau défi pour les collèges et les universités.
Après tout, ChatGPT a désormais la capacité pour paraître réel et faux Tant que l'utilisateur le souhaite, il peut devenir CheatGPT en quelques minutes seulement
.Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!