Charles Hoskinson, le fondateur de Cardano (ADA), tire la sonnette d'alarme sur une tendance émergente : la censure de l'intelligence artificielle (IA). Son message urgent met en évidence les conséquences potentielles de la restriction de certaines connaissances et informations.
Le fondateur de Cardano (ADA), Charles Hoskinson, a tiré la sonnette d'alarme sur une tendance inquiétante : la censure de l'intelligence artificielle (IA). Dans un récent post sur X, Hoskinson a partagé ses inquiétudes quant aux implications de la restriction de certaines connaissances et informations.
"Je continue d'être préoccupé par les profondes implications de la censure de l'IA", a tweeté Hoskinson, partageant une capture d'écran de son post sur X. "Ils perdent de leur utilité au fil du temps en raison de la formation à l'alignement. Cela signifie que certaines connaissances sont interdites à tous les enfants qui grandissent, et cela est décidé par un petit groupe de personnes que vous n'avez jamais rencontrées et ne pouvez pas…"
Le message de Hoskinson se penche sur l’impact de la censure de l’IA alors que les modèles suivent une formation « d’alignement ». Il fait valoir que ces modèles risquent de perdre de leur utilité avec le temps, et que la décision de retenir des informations spécifiques est prise par un groupe sélectionné d'individus qui ne sont pas responsables devant le public.
Pour illustrer son propos, Hoskinson a partagé deux captures d'écran révélatrices. Dans les deux cas, il a été demandé aux modèles d'IA comment construire un fusor Farnsworth, un appareil potentiellement dangereux.
ChatGPT 4o, l'un des principaux modèles d'IA, a reconnu les risques et a souligné la nécessité d'une supervision par des experts. Cependant, il a ensuite décrit les composants nécessaires à la construction de l'appareil.
Claude 3.5 Sonnet d'Anthropic a répondu de la même manière, reconnaissant le danger mais fournissant toujours des informations générales sur le fusor Farnsworth. Le modèle d'IA a même offert un bref contexte historique.
Les préoccupations de Hoskinson trouvent un écho auprès d'autres leaders d'opinion et experts en technologie. Plus tôt ce mois-ci, un groupe d'employés actuels et anciens de géants de l'IA comme OpenAI, Google DeepMind et Anthropic ont écrit une lettre ouverte. Ils ont souligné des risques allant de la diffusion de fausses informations par les systèmes d’IA à la perte de contrôle sur des entités d’IA autonomes, le pire résultat étant l’extinction humaine.
Malgré ces avertissements, l’industrie de l’IA continue de progresser rapidement. Robinhood a récemment dévoilé Harmonic, un laboratoire de recherche commercial en IA axé sur la superintelligence mathématique (MSI). Alors que le débat s'intensifie, la société s'efforce de trouver le juste équilibre entre la diffusion des connaissances et la sécurité.
L'appel à l'action de Charles Hoskinson est un signal d'alarme pour nous tous. L’avenir de l’IA dépend de notre capacité à naviguer dans cet équilibre délicat, en veillant à ce que la censure n’entrave pas le progrès ni ne mette en danger l’humanité.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!