Maison > Périphériques technologiques > IA > Expert en intelligence artificielle du MIT : Il y a 50 % de chances que l'IA anéantisse l'humanité

Expert en intelligence artificielle du MIT : Il y a 50 % de chances que l'IA anéantisse l'humanité

WBOY
Libérer: 2023-06-06 08:01:40
avant
1069 Les gens l'ont consulté

Max Tegmark, physicien et expert en intelligence artificielle au MIT, a récemment déclaré dans une interview accordée à la chaîne de télévision nationale suédoise SVT que l'intelligence artificielle a 50 % de chances d'anéantir l'humanité, et nous y parviendrons. On ne sait pas comment ni quand cela se produira car les machines sera « beaucoup plus intelligent que nous ».

Il semblerait que le professeur Tegmark soit l'un des signataires d'une déclaration d'une seule phrase de 22 mots publiée récemment, qui prévient que l'intelligence artificielle (IA) entraînera un risque d'extinction humaine.

La déclaration se lit comme suit : « Atténuer le risque d’extinction posé par l’intelligence artificielle devrait être une priorité mondiale, aux côtés d’autres risques à l’échelle de la société tels que les pandémies et la guerre nucléaire. 

Expert en intelligence artificielle du MIT : Il y a 50 % de chances que lIA anéantisse lhumanité

Max Tegmark, physicien et expert en intelligence artificielle au MIT.

Le professeur Tegmark a déclaré dans une interview accordée à la chaîne de télévision nationale suédoise SVT que l'histoire montre que les humains, l'espèce la plus intelligente sur terre, sont responsables de la mort d'espèces « plus petites », comme le dodo.

Il a prévenu que si l’intelligence artificielle devenait plus intelligente que les humains, le même sort pourrait facilement être notre tour.

Plus important encore, a-t-il déclaré, nous ne saurons pas quand nous mourrons aux mains de l’intelligence artificielle, car une espèce moins intelligente n’aurait aucun moyen de le savoir.

Expert en intelligence artificielle du MIT : Il y a 50 % de chances que lIA anéantisse lhumanité

L'intelligence artificielle peut être utilisée pour créer des armes ou des robots autonomes capables de tuer des personnes.

Il semblerait que certains des plus grands scientifiques du monde pensent que dans un avenir proche, l'intelligence artificielle pourrait être utilisée pour créer des armes ou des robots autonomes capables de tuer des personnes, avec ou sans intervention humaine.

Dans le même temps, même des logiciels d’intelligence artificielle apparemment inoffensifs peuvent prendre des décisions fatales pour les humains si la technologie n’est pas programmée avec suffisamment de soin.

En 2018, le professeur Tegmark a prévenu que les humains seraient un jour asservis par les machines intelligentes qu'ils créent.

Il affirmait même à l'époque que certains de ses collègues pourraient se réjouir de l'extinction d'espèces par l'intelligence artificielle, les considérant comme nos descendants naturels.

Une autre vision consiste à garder la forme de « superintelligence » sous contrôle humain, « comme un chien asservi ».

Mais le professeur Tegmark prévient qu’au-delà de tout scrupule moral possible à l’idée d’asservir les esprits avancés, ce dont nous devrions nous inquiéter davantage, c’est que peut-être les superintelligences seront plus intelligentes que nous – et qu’elles pourraient « éclater et prendre le relais ».

Selon certaines informations, le PDG de Tesla, Elon Musk, parle également franchement du pouvoir de l'intelligence artificielle.

En mars de cette année, Musk et 1 000 autres leaders technologiques ont appelé à un moratoire sur la « course dangereuse » au développement de l'intelligence artificielle, dont ils craignaient qu'elle « pose de profonds risques pour la société et l'humanité » et pourrait avoir des effets « catastrophiques ».

Texte/Reporter Nandu Chen Lin

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:sohu.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal