Produit par Big Data Digest
Après avoir reçu une lettre ouverte signée par des centaines d'experts célèbres en intelligence artificielle, d'entrepreneurs technologiques et de scientifiques, ChatGPT est devenu une "cible" dans la communauté éthique de l'IA.
Le 30 mars, la Federal Trade Commission (FTC) des États-Unis a reçu un nouveau rapport du Center for Artificial Intelligence and Digital Policy (CAIDP), demandant une enquête sur OpenAI et son produit GPT-4.
Le rapport affirme que la FTC a stipulé que l'utilisation de l'intelligence artificielle doit être « transparente, explicable, juste et empiriquement raisonnable tout en promouvant la responsabilité », mais affirme que ChatGPT4 d'OpenAI « ne répond pas à ces exigences » et est « biaisé, trompeur ». , et posant un risque pour la vie privée et la sécurité publique.
CAIDP est une organisation de recherche indépendante à but non lucratif basée à Washington, D.C., spécialisée dans « l’évaluation des politiques et pratiques nationales en matière d’IA, la formation des dirigeants politiques en matière d’IA et la promotion des valeurs démocratiques dans l’IA
Premier examen gouvernemental de ChatGPT, ou ». viendra de la FTC
Les experts juridiques ont déclaré qu'avec la vitesse de croissance et de développement de l'intelligence artificielle, la FTC pourrait formuler des règles sur l'intelligence artificielle en 2023.
Un article de décembre 2022 a révélé que la Federal Trade Commission (FTC) des États-Unis pourrait introduire une réglementation fédérale sur l'IA, bien que les projets de loi axés sur l'IA déposés au Congrès n'aient pas encore obtenu un soutien significatif. ,
L'article déclarait : « Ces dernières années, la Federal Trade Commission a publié deux publications, indiquant que l'accent mis sur la réglementation de l'intelligence artificielle va encore augmenter. Dans le même temps, la Federal Trade Commission a développé une expertise en matière d'intelligence artificielle dans son application. » diverses réglementations Connaissance de lois telles que le Fair Credit Reporting Act, l'Equal Credit Opportunity Act et la FTC Act.
En plus des réglementations introduites et des règles à venir pour l'IA, les articles publiés par la FTC montrent également les tendances en matière de supervision de l'IA.
Il y a 10 jours, la Federal Trade Commission des États-Unis a publié un article de blog d'affaires intitulé "Chatbots, deepfakes et voice clones: AI deception for sale". L'auteur est Michael Atleson, avocat à la division publicité de la Federal Trade Commission.
L’interdiction de conduite trompeuse ou déloyale de la loi FTC peut s’appliquer à la fabrication, à la vente ou à l’utilisation d’un instrument effectivement conçu pour tromper, même si ce n’est pas son objectif initial ou unique », indique le billet de blog. Les entreprises devraient même se demander si elles doivent fabriquer ou vendre des outils d’IA et si elles réduisent efficacement les risques.
« Si vous décidez de fabriquer ou de proposer un tel produit, vous devez prendre toutes les précautions raisonnables avant de le mettre sur le marché », indique le billet de blog. "La Federal Trade Commission (FTC) poursuit les entreprises qui diffusent des technologies potentiellement dangereuses sans prendre de mesures raisonnables pour empêcher les consommateurs de nuire."
Dans un autre article de février, "Control Your Artificial Intelligence Claims", Atleson a également écrit que la FTC pourrait être " se demander si une entreprise faisant la publicité d'un produit d'IA est consciente des risques.
« Avant de le lancer sur le marché, vous devez comprendre les risques et les impacts raisonnablement prévisibles de votre produit d’IA. Si quelque chose ne va pas (potentiellement un échec ou des résultats biaisés), vous ne pouvez pas simplement blâmer la technologie. "Les développeurs du parti. Vous ne pouvez pas dire que vous n'avez aucune responsabilité car cette technologie est une "boîte noire" et vous ne pouvez pas la comprendre ou savoir la tester "
Plus d'une centaine d'experts en technologie "ont dénoncé" ChatGPT, OpenAI. : ChatGPT5 n'a pas encore été formé
L'examen fédéral n'arrivera peut-être pas bientôt, mais la communauté technologique a exprimé des inquiétudes concentrées concernant la croissance rapide de ChatGPT.
Récemment, une lettre ouverte signée par des centaines d'experts en intelligence artificielle, d'entrepreneurs technologiques et de scientifiques renommés appelle à un moratoire sur le développement et les tests de technologies d'intelligence artificielle plus puissantes que le modèle de langage OpenAI GPT-4 afin d'éviter le risques que cela peut poser. Mener des recherches appropriées.
Le rapport prévient que des modèles de langage comme GPT-4 peuvent déjà rivaliser avec les humains dans un nombre croissant de tâches, peuvent être utilisés pour automatiser le travail et diffuser de la désinformation, et suggèrent même que les systèmes d'intelligence artificielle peuvent remplacer les préoccupations concernant l'humanité et remodeler la civilisation.
« Nous appelons tous les laboratoires d'intelligence artificielle à suspendre immédiatement la formation des systèmes d'intelligence artificielle plus puissants que le GPT-4 (y compris le GPT-5 en cours de formation) pendant au moins 6 mois », peut-on lire dans la lettre.
Les signataires de la lettre comprennent Yoshua Bengio, professeur à l'Université de Montréal, l'un des fondateurs de l'IA moderne, Jaan Tallinn, historien et co-fondateur de Skype, et les célébrités Elon Musk.
La lettre a été rédigée par le Future of Life Institute, une organisation axée sur les risques technologiques auxquels l'humanité est confrontée. La lettre ajoute que la pause dans la recherche devrait être « publique et vérifiable » et devrait impliquer toutes les personnes travaillant sur des modèles d'IA avancés comme GPT-4.
Microsoft et Google n'ont pas répondu aux demandes de commentaires sur la lettre. Les signataires semblent inclure des employés d'un certain nombre d'entreprises technologiques créant des modèles linguistiques de haut niveau, notamment Microsoft et Google.
En réponse, la porte-parole d'OpenAI, Hannah Wong, a déclaré que l'entreprise avait passé plus de 6 mois à étudier la sécurité et l'étalonnage de GPT-4 après avoir entraîné le modèle.
Hannah Wong a ajouté qu'OpenAI ne forme pas encore GPT-5.
Rapports associés :
https://www.php.cn/link/9ad97add7f3d9f29cd262159d4540c96
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!