Maison > web3.0 > Comment savoir si cette « personne » qui partage des photos, raconte des histoires ou s'engage dans d'autres activités en ligne est réellement réelle et non un robot IA ?

Comment savoir si cette « personne » qui partage des photos, raconte des histoires ou s'engage dans d'autres activités en ligne est réellement réelle et non un robot IA ?

WBOY
Libérer: 2024-09-04 00:44:12
original
882 Les gens l'ont consulté

C'est une question à laquelle les chercheurs se sont penchés à mesure que l'IA parvient de mieux en mieux à imiter le comportement humain dans un monde en ligne où les gens interagissent souvent de manière anonyme.

Comment savoir si cette « personne » qui partage des photos, raconte des histoires ou s'engage dans d'autres activités en ligne est réellement réelle et non un robot IA ?

Les chercheurs proposent des « identifiants de personnalité » pour aider les fournisseurs de services en ligne à faire la distinction entre les personnes réelles et les robots IA, dans le but de contrer les mauvais acteurs et de préserver la confidentialité.

La proposition, présentée dans un nouvel article rédigé par 32 chercheurs d'OpenAI, Harvard, Microsoft, l'Université d'Oxford, le MIT, l'UC Berkeley et d'autres organisations, intervient alors que l'IA parvient de mieux en mieux à imiter le comportement humain dans un monde en ligne où les gens s’engagent souvent de manière anonyme.

Leur solution : demandez aux humains de s'inscrire pour obtenir des « identifiants de personnalité », une identification numérique ou un jeton qui permet aux services en ligne de savoir que vous êtes réel et non une IA. Ils affirment que les informations d’identification peuvent être délivrées par diverses « institutions de confiance », notamment des gouvernements et des fournisseurs de services (comme Google et Apple, qui vous demandent déjà de vous connecter avec un identifiant).

Pour que de tels systèmes fonctionnent, nous aurions besoin d’une large adoption à travers le monde. Les chercheurs encouragent donc les gouvernements, les technologues, les entreprises et les organismes de normalisation à se réunir pour créer une norme.

Cependant, tout le monde n’est pas fan. Certains chercheurs affirment qu’une meilleure approche serait de demander aux entreprises qui créent ces systèmes de résoudre les problèmes introduits par l’IA, plutôt que de confier aux gens ordinaires la responsabilité de détecter et de signaler les robots IA.

Voici les autres réalisations en IA qui méritent votre attention.

La Californie fait un pas en avant avec une réglementation historique sur l'IA  

Un projet de loi californien révolutionnaire qui obligera les sociétés d’IA à tester et à surveiller des systèmes dont le développement coûte plus de 100 millions de dollars s’est rapproché de sa réalité.

L'Assemblée de Californie a adopté le projet de loi le 28 août, après son approbation par le Sénat de l'État en mai. Le projet de loi, désormais soumis au gouverneur Gavin Newsom, sera la première loi aux États-Unis à imposer des mesures de sécurité sur les grands systèmes d'IA.

Intitulé Safe and Secure Innovation for Frontier Artificial Intelligence Models Act, le projet de loi 1047 du Sénat a été proposé par le sénateur d'État Scott Wiener, un démocrate qui représente San Francisco. Des entreprises technologiques, notamment OpenAI, Google et Meta, s’y opposent, ainsi qu’au moins huit politiciens d’État, qui estiment qu’elle pourrait étouffer l’innovation.

La Californie abrite 35 des 50 plus grandes entreprises mondiales d’IA, a noté The Guardian, dont Anthropic, Apple, Google, Meta et OpenAI.

Vous pouvez lire le texte du SB 1047 ici, l’objection d’OpenAI ici et la réponse de Wiener à ses progrès législatifs ici.

Ces derniers mois, des chercheurs et même des employés d'entreprises d'IA ont exprimé leur inquiétude quant au développement de systèmes d'IA puissants sans les garanties appropriées en matière de confidentialité et de sécurité. Dans une lettre ouverte du 4 juin, des employés et des personnalités de l'industrie, dont les inventeurs de l'IA Yoshua Bengio, Geoffrey Hinton et Stuart Russell, ont souligné la nécessité de protéger les lanceurs d'alerte pour les personnes qui signalent des problèmes dans leurs entreprises d'IA.

Pendant ce temps, OpenAI, qui crée ChatGPT, et Anthropic, créateur de Claude, sont devenus la semaine dernière les premiers à signer des accords avec le gouvernement américain qui permettent à l'US Intelligence Safety Institute de tester et d'évaluer leurs modèles d'IA et de collaborer à des recherches sur la sécurité, a déclaré l'institut. L’organisation a été créée en octobre dans le cadre du décret du président Joe Biden sur l’IA.

Le gouvernement « aura accès aux nouveaux modèles majeurs de chaque entreprise avant et après leur sortie publique », a déclaré l'institut, qui fait partie du ministère du Commerce de l'Institut national des normes et de la technologie, ou NIST.

Le moment, bien sûr, arrive au moment où Newsom de Californie décide s’il doit peser sur le projet de loi proposé par l’État sur l’IA ou laisser au gouvernement fédéral le soin de résoudre le problème.

Sam Altman d'OpenAI a partagé son point de vue dans un article de blog sur X après l'annonce de l'accord avec le gouvernement.

« Nous sommes heureux d'avoir conclu un accord avec l'AI Safety Institute des États-Unis pour les tests préliminaires de nos futurs modèles », a écrit Altman. « Pour de nombreuses raisons, nous pensons qu’il est important que cela se produise au niveau national. Les États-Unis doivent continuer à montrer la voie ! » 

Le générateur de texte-image Gemini de Google est prêt à réessayer 

Après avoir remis son générateur de texte en image à la planche à dessin parce que l'outil générait des images embarrassantes et offensantes de personnes, Google a déclaré la semaine dernière qu'il était prêt à publier une version mise à jour de l'outil dans le cadre de son chatbot Gemini.

La capacité du générateur d'images à représenter des personnes a été retirée en février après que les utilisateurs ont été confrontés à un comportement conduisant à des images bizarres, biaisées et racistes, notamment montrant des Noirs et des Asiatiques comme des soldats allemands de l'ère nazie (comme l'a noté Yahoo News) et « refusant de représenter des Blancs, ou insérer des photos de femmes ou de personnes de couleur lorsqu'on leur demande de créer des images de Vikings, de nazis et du Pape » (comme l'a rapporté Semafor).

Cette réaction négative, considérée comme le signe que l'entreprise précipitait la commercialisation de produits d'IA sans tests adéquats, a incité le PDG de Google, Sundar Pichai, à présenter des excuses. « Je sais que certaines de ses réponses ont

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

source:php.cn
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal