Depuis qu'OpenAI a lancé des modèles d'intelligence artificielle générative de contenu, les données sur Internet ont été largement utilisées pour former et améliorer ces modèles. Cependant, selon une enquête de l’Institut Reuters, de plus en plus de médias ont commencé à exprimer des doutes sur la collecte de données d’OpenAI, et même plus de 50 % des médias traditionnels s’y opposent. Cela démontre des préoccupations croissantes concernant la confidentialité et l’utilisation des données et rappelle la nécessité de plus de transparence et de conformité à mesure que l’IA se développe.
L'Institut Reuters a analysé de nombreux médias d'information grand public tels que le New York Times, le Wall Street Journal, le Washington Post, CNN et NPR, couvrant 10 pays, dont les États-Unis, le Royaume-Uni, l'Allemagne et l'Inde, et les a comparés. classés en trois catégories : les médias imprimés traditionnels (médias papier), les médias radiophoniques et télévisuels et les médias numériques. L'étude a révélé que 57 % des médias imprimés traditionnels bloquaient les robots d'exploration d'OpenAI, et que les proportions des médias audiovisuels et télévisés et des médias numériques étaient respectivement de 48 % et 31 %.
L'étude a également souligné qu'il existe des différences significatives dans la proportion de sites d'information qui bloquent OpenAI selon les pays et les régions. Aux États-Unis, cette proportion atteint 79 %, alors qu'au Mexique et en Pologne elle n'est que de 20 %.
La différence dans la proportion de médias d'information dans les 10 pays étudiés qui ont pris des mesures de blocage contre les robots d'exploration OpenAI
De plus, 97 % des médias d'information qui ont bloqué les robots d'exploration OpenAI ont également bloqué les robots d'exploration Google AI.
Certaines études révèlent que les médias d'information se méfient de l'utilisation de l'intelligence artificielle dans leurs contenus. Ils craignent que si les gens obtiennent des informations grâce à l’intelligence artificielle, cela pourrait conduire à la marginalisation ou au remplacement des médias. Andrew Frank, vice-président et analyste distingué chez Gartner, a déclaré : « Les recherches de Reuters mettent en évidence un défi majeur auquel est confrontée l'IA générative : son fonctionnement repose sur du contenu réel créé par de vraies personnes qui peuvent le considérer comme inapproprié. Une menace potentielle pour leurs moyens de subsistance. »
Récemment, une étude de l'Université Cornell a noté que « les modèles ont tendance à se développer lorsque les nouveaux modèles d'intelligence artificielle s'appuient principalement sur les données fournies par les modèles précédents plutôt que sur les humains lors d'un « effondrement » ou d'un état dégénéré. Cela conduit à davantage d’erreurs dans les informations générées par les systèmes d’IA. Ce phénomène met en évidence les risques et défis potentiels dans le domaine de l’intelligence artificielle, qui nécessitent des recherches et des discussions plus approfondies. Les résultats de cette étude nous rappellent qu'il faut être prudent quant aux sources de données et aux méthodes de formation lors du développement d'une technologie d'intelligence artificielle. Début août de l'année dernière, OpenAI a lancé un robot d'intelligence artificielle, et Google a ensuite lancé un produit similaire en septembre. L’étude note que si ces médias prennent la décision de bloquer, il pourrait être difficile de revenir sur cette position et de les débloquer.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!