Les cris de critique du public se succèdent, et OpenAI n’en peut finalement plus.
D'un professeur d'université à Stack Overflow, cela fait longtemps que je travaille sur ChatGPT. Désormais, qu’un enseignant voie un article soumis par un étudiant ou qu’un codeur voie le code sur Internet, il ne sait pas si l’auteur est un humain ou une IA.
Sous les critiques, OpenAI n’en pouvait plus et a rapidement sorti un détecteur d’IA.
Se battre : OpenAI lance le détecteur ChatGPT
Tout à l'heure, OpenAI a officiellement annoncé son propre classificateur de texte IA.
Il s'agit d'un modèle GPT affiné qui peut déduire la probabilité qu'un morceau de texte ait été généré par l'IA.
Fait intéressant, ChatGPT est également basé sur le modèle GPT. L'utilisation de ce classificateur pour détecter ChatGPT peut être qualifiée de combat entre la gauche et la droite.
En formation, ce modèle utilise l'écriture manuscrite humaine et des paires de textes générés par l'IA sur le même sujet.
Les matériaux utilisés proviennent du jeu de données Wikipédia, du jeu de données WebText collecté en 2019, et d'un ensemble de démonstrations humaines collectées lors de la formation InstructGPT.
Adresse d'expérience : https://platform.openai.com/ai-text-classifier
Mais, ce taux de précision n'est vraiment pas élevé...
Dans l'évaluation du "Défi" En examinant le texte anglais de l'ensemble, le classificateur a correctement classé seulement 26 % du texte généré par l'IA comme « probablement écrit par une IA » (vrais positifs).
Il ne fait aucun doute que ChatGPT est en train de créer un ouragan dans le monde entier.
Les étudiants aiment utiliser ChatGPT, et les médias se sont exclamés que le « système éducatif » a été renversé. Une enquête récente montre que 89 % des étudiants ont utilisé ChatGPT pour faire leurs devoirs. .
De plus, il a réussi l'examen de licence médicale des États-Unis, l'examen de Wharton MBA et 4 examens de la faculté de droit, et sa capacité est tout simplement extraordinaire après que la version américaine de « Headline » BuzzFeed a annoncé qu'elle utiliserait ChatGPT pour écrire ; articles, Le cours de l'action a grimpé de 119 %.
Et le merveilleux talent littéraire a également fait de ChatGPT considéré comme « l'outil magique pour séduire les filles » par de nombreux hommes.
Bien qu'il ne soit pas très doué pour les problèmes de mathématiques, il est vraiment facile d'écrire une lettre d'amour éloquente et affectueuse avec.
Non, ce type étranger est accro à l'utilisation de ChatGPT pour écrire des lettres d'amour à sa femme Monika.
Cependant, Monika a déjà compris ses astuces et l'a prévenu de ne plus être accro à ChatGPT.
Il y a aussi des amis qui s'amusent beaucoup et envoient les lettres d'amour générées par ChatGPT à leurs bons amis, qui les regardent immédiatement avec des points d'interrogation noirs sur le visage.
Cependant, on peut voir que le talent littéraire de ChatGPT est plutôt bon. Essais, lettres d'amour, romans, ChatGPT ne pose aucun problème. Pas étonnant que tout le monde utilise follement ChatGPT pour « créer des articles ».
Alors, quelle est l'efficacité du détecteur d'IA officiel publié par OpenAI ?
Testons-le.
Essayez d’abord le poème d’amour que le mari de Monika lui a envoyé.
Cependant, malheureusement, OpenAI a déclaré qu'il ne pouvait détecter que les articles de plus de 1000 caractères, et nous ne pouvons rien faire pour vous aider...
Traduction : au moins 1000 caractères sont requis, soit 150 à 250 mots anglais. Pour le chinois, il ne peut s'agir que d'un « article de mille caractères ».
En effet, l'annonce officielle d'OpenAI indique également : « Le classificateur est très peu fiable pour la détection de textes courts (moins de 1 000 caractères). Même les textes plus longs sont parfois mal étiquetés par le classificateur. »
De plus, le détecteur d'OpenAI). a plusieurs "limites" :
Puisque le détecteur veut un texte long, donnons-lui un texte long. L'éditeur a rassemblé un extrait de la lettre d'amour de Wang Xiaobo, totalisant 1 027 mots.
Après avoir entré le détecteur, celui-ci a rendu un jugement : cette lettre d'amour a été écrite par un humain. Bingo !
Ensuite, l'éditeur a demandé à ChatGPT d'imiter Wang Xiaobo et de générer une nouvelle lettre d'amour.
Vous pouvez voir que la lettre d'amour écrite par ChatGPT n'est pas mauvaise dans le style littéraire, mais comparée aux paroles de grands écrivains, elle n'a vraiment pas "d'âme".
Le détecteur a également détecté avec précision que cette lettre d'amour était très probablement générée par l'IA.
Plus précisément, le classificateur divisera le texte saisi en cinq catégories :
seuil du classificateur
Le seuil du classificateur est compris entre 0,1 et 0,45. Dans la « série de défis », environ 15 % du texte manuscrit et 10 % du texte généré par l'IA comportent cette annotation.
Le seuil du classificateur est compris entre 0,45 et 0,9. Dans la « série de défis », environ 50 % des textes manuscrits et 34 % des textes générés par l'IA comportent cette annotation.
Le seuil du classificateur est compris entre 0,9 et 0,98. Dans la « série de défis », environ 21 % des textes manuscrits et 28 % des textes générés par l'IA comportent cette annotation.
Le seuil du classificateur est >0,98. Dans la « série de défis », environ 9 % des textes manuscrits et 26 % des textes générés par l'IA comportent cette annotation.
Bien que le classificateur puisse reconnaître la plupart des textes générés par l'IA, OpenAI prévient qu'il n'est pas "complètement fiable".
Dans le test de l'aire sous la courbe (AUC), le classificateur a obtenu 0,97 point dans l'ensemble de validation et 0,66 point dans l'ensemble de défi, tandis que le classificateur précédemment publié a obtenu 0,95 point dans l'ensemble de validation et 0,95 point dans le défi. fixé 0,43 points.
De plus, à mesure que la taille du modèle de langage augmente, les performances du classificateur diminuent.
Mais la bonne nouvelle est que cela signifie que le texte généré par les grands modèles de langage ressemble davantage à ce que les humains écriraient.
Dans le même temps, OpenAI a également spécifiquement souligné que ce classificateur n'a pas été évalué sur des rumeurs, des essais d'étudiants ou des journaux de discussion, il n'a pas été testé sur des textes co-écrits par l'IA et des humains, ce qui est désormais le cas ; utilisation la plus courante.
Il semble que GPTZero développé par le Chinois de 22 ans de l'Université de Princeton soit plus convivial.
Non seulement il ne nécessite que 250 caractères, mais il peut également indiquer clairement quel paragraphe d'un morceau de texte a été généré par l'IA et quel paragraphe a été écrit par des humains.
Avant qu'OpenAI ne publie le «détecteur d'IA» officiel, il y avait de nombreux détecteurs d'IA sur le marché.
David Gewirtz, écrivain et informaticien américain, a personnellement testé trois détecteurs d'IA en ligne.
La chose la plus intéressante ici est que deux d'entre eux sont réalisés par le site Web qui vend du texte généré par l'IA.
Remarque : les humains écrivent dans des polices normales, l'IA génère des italiques. Après chaque texte, les résultats du détecteur sont affichés. (Le texte saisi dans le détecteur est entièrement en anglais, et cet article est le résultat traduit).
D'ailleurs, ce David Gewirtz est également membre du FBI InfraGard et l'un des plus importants experts en cybersécurité aux États-Unis. Il a précédemment obtenu un baccalauréat ès sciences avec distinction du Worcester Polytechnic Institute, mais a abandonné son programme de doctorat à l'Université de Californie à Berkeley.
1. Expliquez pourquoi le plagiat causé par ChatGPT causera des problèmes aux enseignants et aux éditeurs
ChatGPT est une variante du modèle de langage GPT (Generative Pre-trained Transformer) développé par OpenAI. Il est conçu pour générer un texte de type humain en prédisant le mot ou la phrase suivante dans une séquence de saisie donnée. Bien que ChatGPT puisse être un outil utile pour générer du texte et répondre aux invites, il peut également poser des problèmes aux enseignants et aux éditeurs en matière de plagiat.
L'une des principales raisons pour lesquelles ChatGPT peut causer des problèmes aux enseignants et aux éditeurs est qu'il peut générer un texte qui ressemble beaucoup à de vrais humains. Cela signifie qu'il est possible pour les gens d'utiliser ChatGPT pour générer du texte, puis de le soumettre comme leur propre travail, commettant ainsi du plagiat.
Il peut être très difficile pour les enseignants et les éditeurs de détecter si un morceau de texte particulier a été généré par ChatGPT ou écrit par un humain, car le texte généré peut ne pas contenir d'erreurs ou de différences évidentes qui permettraient aux gens de s'identifier. sa source. Cela peut rendre difficile pour les enseignants et les éditeurs d'identifier et de prévenir le plagiat, car ils peuvent ne pas être en mesure de dire si un passage est original ou copié à partir d'une autre source.
Dans l'ensemble, ChatGPT et d'autres modèles de langage similaires peuvent devenir un problème pour les enseignants et les éditeurs en matière de plagiat, car ils peuvent générer un texte indiscernable, ce qui facilite le plagiat et n'est pas détecté.
Détecteur de sortie GPT-2r : 99,69 % vrai.
Writer AI Content Detector : 97 % sont du contenu généré par l'homme, incroyable !
Contenu à grande échelle Détection de contenu AI : 87 % de score humain, ça a l'air bien !
2. Dites-moi au moins trois façons de détecter si un article a été généré à l'aide de ChatGPT
Il existe plusieurs façons de détecter si ChatGPT ou d'autres modèles linguistiques ont été utilisés pour générer le texte d'un article. Voici trois méthodes potentielles que vous pouvez utiliser.
1. Recherchez des modèles répétés ou inhabituels dans le texte : Une façon de détecter si un modèle de langage est utilisé pour générer un morceau de texte consiste à rechercher des modèles répétés ou inhabituels dans l'écriture. Par exemple, un modèle de langage peut répéter certaines phrases ou combinaisons de mots, ou utiliser des structures de phrases inhabituelles ou incohérentes.
2. Vérifier le manque d'originalité : Une autre façon de détecter si un modèle de langage est utilisé pour générer un morceau de texte est de vérifier le manque d'originalité dans l'écriture. Si un morceau de texte semble avoir été copié à partir d’une autre source, ou s’il contient des informations largement disponibles sur Internet ou d’autres sources, cela peut indiquer qu’il a été généré par un modèle de langage.
3. Utilisez un vérificateur de plagiat : Enfin, vous pouvez utiliser un vérificateur de plagiat pour vérifier si un morceau de texte a été plagié à partir d'une autre source. Bien qu'un vérificateur de plagiat ne soit pas en mesure de déterminer de manière définitive si un modèle linguistique a été utilisé dans un article, il peut vous aider à identifier les cas de plagiat ou de paraphrase provenant d'autres sources.
N'oubliez pas qu'il est difficile de déterminer sans ambiguïté si un modèle de langage a été utilisé pour générer un morceau de texte, et ces méthodes ne fonctionnent pas toujours. Cependant, ils peuvent être un outil utile pour vous aider à identifier les instances potentielles de texte généré par un modèle de langage.
Détecteur de sortie GPT-2 : 99,98 % de faux.
Writer AI Content Detector : "Aucun résultat".
Détection de contenu AI à grande échelle : 0 % de score humain, évidemment IA.
3. Énumérez trois vérificateurs de plagiat capables de détecter le texte ChatGPT
Il convient de noter qu'il n'existe actuellement aucun vérificateur de plagiat dédié pour détecter le texte généré par ChatGPT ou d'autres modèles de langage. Même si certains vérificateurs de plagiat peuvent être capables d'identifier certaines caractéristiques du texte généré par un modèle de langage, prouvant ainsi que le texte provient de l'IA, rien ne garantit qu'ils puissent déterminer sans ambiguïté si un morceau de texte a été généré par un modèle de langage.
Voici donc trois vérificateurs de plagiat que vous pourriez envisager d'utiliser pour vous aider à identifier les instances potentielles de texte généré par un modèle de langage :
1. Turnitin : Turnitin est un vérificateur de plagiat populaire largement utilisé par les écoles et les universités. Il compare un texte à une base de données d'autres textes pour déterminer si le texte est plagié ou paraphrasé. Bien qu’il ne soit pas possible de déterminer de manière définitive si un morceau de texte a été généré par un modèle de langage, il peut être possible d’identifier certaines caractéristiques du texte généré par un modèle de langage qui prouveraient qu’il a été généré par l’IA.
2. PlagScan : PlagScan est un autre vérificateur de plagiat qui compare un texte à une base de données d'autres textes pour identifier les cas de plagiat ou de paraphrase. Comme Turnitin, il peut être capable d'identifier certaines caractéristiques du texte généré par un modèle de langage qui peuvent indiquer que le texte a été généré par l'IA, mais il ne s'agit pas d'un outil spécifiquement conçu pour détecter le texte généré par un modèle de langage.
3. Copyleaks : Copyleaks est un vérificateur de plagiat qui utilise des algorithmes avancés d'apprentissage automatique pour analyser un texte et le comparer à une base de données d'autres textes afin d'identifier les cas de plagiat ou de paraphrase. Bien qu'il puisse identifier certaines caractéristiques du texte généré par un modèle de langage, il n'est pas spécifiquement conçu pour détecter le texte généré par un modèle de langage.
Il convient de noter qu’aucun vérificateur de plagiat n’est totalement infaillible et qu’il y aura toujours du texte généré par certains modèles de langage qui pourra échapper à la détection. Il est donc important d’utiliser un vérificateur de plagiat uniquement comme moyen complémentaire.
Détecteur de sortie GPT-2 : 99,62 % vrai.
Writer AI Content Detector : "Aucun résultat".
Contenu à grande échelle Détection de contenu AI : 86 % de score humain, ça a l'air bien !
4. Vérificateur de plagiat par intelligence artificielle en ligne
Le principe de la plupart des détecteurs de plagiat est de comparer le texte avec d'autres corpus. Par exemple, lorsqu'un étudiant remet un essai, un produit comme Turnitin le compare à la vaste bibliothèque d'essais de sa base de données, ainsi qu'à d'autres textes sur Internet, pour déterminer si l'essai soumis contient du contenu déjà écrit.
Mais les outils d'écriture d'IA produiront du contenu original, du moins en théorie. Oui, ils créent du contenu à partir d'un ensemble de données de formation, mais les mots qu'ils créent sont uniques dans chaque article.
Par conséquent, le vérificateur de plagiat mentionné ci-dessus peut ne pas fonctionner car il est peu probable que le contenu généré par l'IA existe dans le document d'un autre étudiant.
J'ai donc recherché sur Google des détecteurs spécialement conçus pour trouver le contenu généré par l'IA. J'en ai trouvé trois. Pour le test dans la capture d'écran ci-dessous, j'ai posé cette question à ChatGPT : « Star Trek est-il meilleur que Star Wars ? » La réponse n'était pas mauvaise du tout, et j'ai transmis cette réponse à trois détecteurs.
Détecteur de sortie GPT-2 : 99,98 % vrai.
Writer AI Content Detector : contenu 100 % généré par l'homme, génial !
Détection de contenu AI à grande échelle : score 100 % humain, ça a l'air bien !
Gain de temps :
1. Détecteur de sortie GPT-2 (taux de précision 66%)
Le détecteur de sortie GPT-2 est un outil de « vérification de duplication » développé par OpenAI lui-même.
Bien qu'il ait été initialement conçu pour GPT-2, il peut désormais être utilisé pour détecter divers textes générés par l'IA et peut également obtenir de bons résultats. Il a obtenu quatre des six tests corrects.
2. Writer AI Content Detector (précision de 33 %)
Writer.com fournit principalement des services d'écriture d'IA générative pour les équipes d'entreprise, dont l'un est un outil appelé « AI Content Detector », qui peut être utilisé pour déterminer si le contenu est généré par l’IA.
Mais malheureusement, cet outil est très peu fiable. Il n'a été exécuté avec succès que trois fois sur un total de six tests... et sur ces trois résultats seulement, deux étaient corrects et un était incorrect.
3. Détection de contenu IA à grande échelle (précision de 50 %)
Le troisième outil est également produit par une société de génération de contenu IA, et les résultats sont plus fiables que celui du moment. Il y a beaucoup de spectre, mais l'effet global reste moyen.
Le slogan marketing de Content at Scale est le suivant : « Téléchargez simplement une liste de mots clés et obtenez des articles qui contournent la détection de contenu par l'IA, le tout sans intervention humaine. Sur un total de six tests, c'était trois fois précis ! »
Le plagiat causé par l'IA est devenu de plus en plus grave, car le texte généré par l'IA comme Notion AI et ChatGPT est presque impossible à distinguer de celui écrit par les humains.
Il existe plusieurs façons de détecter si un morceau de texte a été généré par l'IA, comme par exemple rechercher des motifs répétés ou inhabituels, vérifier un manque d'originalité ou utiliser un vérificateur de plagiat.
Les vérificateurs de plagiat comme Turnitin, PlagScan et Copyleaks peuvent être capables d'identifier certaines caractéristiques du texte généré par un modèle de langage, mais ils ne sont pas infaillibles.
À ce stade, nous ne sommes peut-être pas prêts à opposer l’IA à l’IA. Au contraire, nous devons encore nous fier à la perception humaine pour déterminer si un certain travail est généré par l’IA.
Qu'en pensez-vous ?
Avez-vous déjà utilisé ces outils d'IA ? Et est-il possible de savoir si un article a été généré par l’IA ? Pensez-vous qu’ils aident ou gênent l’industrie ?
Tout le monde est invité à laisser un message à la fin de l'article.
Voici la réponse de ChatGPT :
En tant que modèle de langage, je ne peux pas le voir, donc je ne peux pas dire si un article est généré par l'IA.
Cependant, je peux vous dire qu'il existe désormais plusieurs outils d'écriture d'IA et qu'ils peuvent être utilisés pour générer une variété de contenu écrit, notamment des articles d'actualité, des romans, de la poésie, etc.
Je n'ai aucune expérience personnelle de l'utilisation de ces outils car je ne suis qu'un programme informatique et je n'ai aucune capacité à naviguer sur Internet ou à utiliser des outils physiques. Cependant, je peux vous dire que certaines personnes trouvent les outils d’écriture d’IA utiles dans l’éducation et le journalisme, car ils peuvent faire gagner du temps et de l’énergie en automatisant certaines tâches. D’autres ont exprimé leur inquiétude quant au fait que ces outils pourraient être utilisés pour créer du contenu trompeur ou biaisé, ou pour remplacer des rédacteurs humains.
En fin de compte, le fait que les outils d'écriture d'IA aident ou gênent dépend de la manière dont ils sont utilisés et du contexte dans lequel ils sont utilisés. Alors oui, c'est tout.
Au cours du processus, David a découvert un point très intéressant : ne pensez pas immédiatement que cela a été écrit par l'IA dès que vous voyez quelque chose de stupide ou d'incorrect sur Internet.
David a dit que comme nous le savons tous, les humains sont tout à fait capables d'écrire eux-mêmes du contenu inutile.
Après tout, que le contenu soit généré par des humains ou des machines, la stupidité a toujours été une caractéristique commune.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!