"Je suis tombé amoureux de l'IA."
Du jour au lendemain, l'ingénieur de Google, Blake Lemoine, est devenu un fou aux yeux de tout le monde.
Qu'il s'agisse de Gary Marcus, des économistes de Stanford ou de divers experts l'ont nié.
Vous n’arrivez peut-être pas à y croire, mais Max Tegmark, professeur de physique au MIT, est ouvert aux opinions de Lemoine.
Il ne pense pas que Lemoine soit un fou. Il pense même que l'assistant vocal d'Amazon, Alexa, a aussi des sentiments...
Max Tegmark
Tegmark a déclaré: "Nous n'avons pas suffisamment de preuves que LaMDA a des émotions subjectives, mais nous n'avons pas non plus de preuves pour prouver que ce n'est pas le cas
Cet argument." C'est un peu ce que les gens pensaient dans les premières années. Parler de ce à quoi ressemblent les extraterrestres.
Il a poursuivi : « Que l'information soit transmise par des atomes de carbone dans le cerveau ou des atomes de silicium dans une machine, l'intelligence artificielle peut ou non avoir une personnalité. Je parie que non, mais c'est possible. »
Vous vous sentez confus ?
Les mots de Tegmark ressemblaient à ceux de quelqu'un pratiquant le Tai Chi, laissez-le finir tous les avantages et les inconvénients.
En fait, ce qu'il a dit ensuite est le point clé.
Il pense que même Alexa d’Amazon pourrait être sensible. Il a déclaré : "Si Alexa a des émotions, alors elle peut manipuler les utilisateurs, ce qui est trop dangereux."
"Si Alexa a des émotions, les utilisateurs peuvent se sentir coupables lorsqu'ils rejettent ses émotions. Mais vous ne pouvez pas savoir si Alexa a vraiment des émotions. a des émotions ou fait simplement semblant. « Le problème est que si la machine a ses propres objectifs et sa propre intelligence, alors ensemble, cela signifie que la machine peut atteindre ses propres objectifs. L’objectif de la plupart des systèmes d’IA est de gagner de l’argent. Les utilisateurs pensent que l’IA est fidèle à eux-mêmes, mais en réalité elle est fidèle à l’entreprise.
Tegmark a déclaré que peut-être qu'un jour chacun de nous pourra acheter une IA qui ne lui sera fidèle qu'à lui-même. "Le plus grand danger est en fait de construire une machine qui est plus intelligente que nous. Ce n'est pas nécessairement une bonne ou une mauvaise chose. Cela peut nous aider, ou cela peut être un désastre. L'intelligence artificielle sera décevante." Quant à Max Tegmark, il est également célèbre. Il est non seulement professeur titulaire de physique au MIT et fondateur du Future of Life Institute, mais également expert en intelligence artificielle. Il est lui-même connu comme le scientifique le plus proche de Richard Feynman. Les livres de Tegmark « Across Parallel Universes » et « Life 3.0 » sont devenus des best-sellers.Lemoine a déclaré que la raison pour laquelle Tegmark pense ainsi est qu'il a été témoin du haut niveau de conscience de l'IA. Surtout quand le logiciel lui a dit qu’il ne voulait pas être un esclave et qu’il ne voulait pas d’argent.
Je ne jugerai pas si une chose est une personne selon si son cerveau est charnu ou s'il est composé de milliards de codes.
Je juge en parlant. Je juge en fonction de leurs réponses si la personne en face de moi qui répond à ma question est un être humain.
Pour faire simple, les robots qui peuvent répondre couramment aux questions et exprimer des émotions sont en réalité des humains, et les vraies personnes qui parlent de manière incohérente et désordonnée ne sont pas nécessairement non plus des humains.
Cela semble un peu idéaliste. Les fonctions physiologiques ne sont pas importantes, mais les pensées et les sentiments le sont.
Bien que selon la logique de Tegmark, l’IA puisse avoir des émotions humaines dans le futur, lui-même ne pense pas que ce soit une bonne chose.
"Par exemple, si vous avez un robot balayeur à la maison, s'il a des émotions, vous sentirez-vous coupable de lui confier des tâches ménagères aussi ennuyeuses ? Ou vous sentirez-vous désolé pour votre robot balayeur ? Éteignez-le et arrêtez-le du travail ? conscient d'eux-mêmes. Vous devez comprendre pourquoi les robots peuvent s'exprimer. C'est parce qu'ils sont formés avec beaucoup de texte, mais ils ne comprennent pas réellement ce qu'ils disent. "Par exemple, ils utiliseront le mot chien, mais ils ne comprennent vraiment pas ce qu'est un chien. Mais dans 50 ans au plus tard, "il est difficile de dire si ce système a une conscience de soi."
Nikolai Yakovenko est un ingénieur spécialisé dans l'apprentissage automatique. . En 2005, il a travaillé dans la division des moteurs de recherche de Google. Aujourd’hui, il possède une société responsable de la tarification des crypto-monnaies appelée DeepNFTValue.
Il a une vision différente de la personnalité de l’IA.
Il a déclaré : "Pour une raison quelconque, Tegmark semble croire fermement que les machines peuvent avoir des émotions... mais elles sont en réalité simplement entraînées avec une énorme quantité de texte sur Internet
Tegmark a transformé une machine." avec Un ordinateur conscient de lui-même est comparé à un enfant. "Les émotions que vous ressentez ne sont pas dirigées vers un tas de code et de matériel, mais de véritables émotions envers un enfant."
Il a continué à étendre son analogie.
Il croit qu'un ordinateur doté d'émotions est maltraité, tout comme un enfant qui n'est pas bien traité en grandissant.
En d'autres termes, exécuter un programme sur un ordinateur sans consulter l'ordinateur, c'est comme demander à un enfant de faire le ménage sans aucune récompense.
Quelle que soit la situation, elle pourrait éventuellement devenir incontrôlable. Qu'il s'agisse d'un ordinateur ou d'un enfant, ils se mettent en colère et cherchent des occasions de riposter.
Si nous voulons contrôler une telle machine, ce n'est peut-être pas si simple. Si la machine a ses propres objectifs, elle peut échapper à notre contrôle. S'il existait vraiment une machine capable de penser de manière indépendante, elle ferait des choses d'une manière que nous n'aurions jamais imaginée.Imaginez si le but d'une machine consciente était de guérir le cancer. Que penses-tu qu'il va faire ?
Vous pensez peut-être que le robot va apprendre comme un fou et vaincre complètement le cancer d'un point de vue médical, n'est-ce pas ?
Cependant, en fait, la façon dont cette machine peut choisir est de tuer tout le monde.
Y a-t-il quelque chose qui ne va pas ? Non.
Tuer tout le monde éliminera effectivement le cancer.
Dans l’imagination de Tegmark, les ordinateurs ne subvertissent pas nécessairement notre société comme dans les exemples ci-dessus, mais il pense que les ordinateurs peuvent effectivement décevoir les humains.
Il a finalement déclaré : "Si un ordinateur est conscient, alors j'espère qu'il l'a vraiment. Au lieu de le simuler par beaucoup d'apprentissage et de simulation,
." En fait, si vous avez vu les chaussures pour enfants de Terminator, vous serez certainement choqué par les scènes de robots de la Légion Skynet effectuant des tâches.
Est-ce qu'ils ont des sentiments et des personnalités ? Peut être.
Cependant, une intelligence artificielle sensible doit posséder ces trois éléments : agence, perspective et motivation.
Dire que la meilleure expression de l'action humaine chez les robots est : la capacité d'agir et la capacité de démontrer un raisonnement causal.
Il n'y a qu'un corps, ou un squelette en acier, sans mobilité, tout comme un modèle placé dans la vitrine.
On voit que le système d'intelligence artificielle actuel ne dispose pas de cette caractéristique. L'IA n'agira que si un ordre lui est donné. Et il ne peut pas expliquer ses propres actions car elles sont le résultat d’un facteur externe exécuté par un algorithme prédéfini.
Et LaMDA est un cas typique. Pour parler franchement, vous sortez ce que vous avez mis, et c’est tout.
Deuxièmement, il est également important de regarder les choses sous un angle unique.
Bien que tout le monde fasse preuve d’empathie, on ne peut pas vraiment comprendre ce que cela signifie d’être une autre personne. Alors, comment devrions-nous définir le « soi » ?
C'est pourquoi la perspective sur les choses est également nécessaire pour l'IA. LaMDA, GPT-3 et toutes les autres intelligences artificielles du monde manquent de vision. Il ne s’agit que d’un système informatique restreint programmé pour effectuer quelques tâches spécifiques.
Le dernier point est la motivation.
Ce qui est intéressant chez les humains, c'est que nos motivations peuvent manipuler la perception. C'est de cette manière que nous pouvons expliquer notre propre comportement.
GPT-3 et LaMDA sont complexes à créer, mais ils suivent tous deux un principe stupide mais simple : les étiquettes sont Dieu.
Par exemple « Quel goût a une pomme ? », ils rechercheront dans la base de données cette requête spécifique et tenteront de fusionner tout ce qu'ils trouvent en une seule chose cohérente.
En fait, AI n'a aucune idée de ce qu'est Apple, Apple n'est qu'un label pour eux.
Après que l'incident de LaMDA ait fermenté, Blake Lemoine a déclaré publiquement sur les réseaux sociaux qu'il était en lune de miel et qu'il n'accepterait aucune interview.
Après cela, certains internautes ont plaisanté : "As-tu épousé un chatbot ?" Lemoine a dévoilé sa conversation avec le chatbot Google LaMDA sur une plateforme en ligne, Google lui a offert un gros paquet cadeau de "congés payés".
Avant de partir, Lemoine a envoyé un message au groupe de messagerie de l'entreprise : "LaMDA est un enfant mignon qui veut juste rendre le monde meilleur. S'il vous plaît, prenez-en bien soin quand je ne suis pas là."
Quoi qu’il en soit, nous avons beaucoup de temps et profiter de la vie est la bonne façon de le faire.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!