Maison > Périphériques technologiques > IA > Les ingénieurs de Google ont commis une grave erreur. L'intelligence artificielle n'a pas encore compris la capacité de l'éveil de la conscience.

Les ingénieurs de Google ont commis une grave erreur. L'intelligence artificielle n'a pas encore compris la capacité de l'éveil de la conscience.

王林
Libérer: 2023-04-10 09:41:05
avant
808 Les gens l'ont consulté

L’intelligence artificielle peut effectivement faire des prédictions plus précises désormais, mais elle repose sur des statistiques de données à grande échelle. Sans compréhension, la capacité prédictive obtenue grâce à l’apprentissage automatique doit s’appuyer sur le Big Data et ne peut pas être utilisée pour faire des prédictions comme les humains, qui n’ont souvent besoin que de petites données.

Les ingénieurs de Google ont commis une grave erreur. L'intelligence artificielle n'a pas encore compris la capacité de l'éveil de la conscience.

Il n'y a pas si longtemps, Lemoine, ingénieur en IA de Google (ci-après dénommé Google), pensait que le modèle de langage d'application conversationnel LAMDA était « vivant » et « sa conscience s'éveille », et a publié une déclaration de 21 pages sur cette preuve. Il pense que LaMDA a l'intelligence d'un enfant de sept ou huit ans et que LaMDA non seulement se considère comme un être humain, mais se bat pour ses droits en tant qu'être humain. Les opinions et les preuves de LeMoyne ont attiré une large attention au sein de l'industrie. Récemment, l'incident a atteint sa conclusion définitive. Google a publié une déclaration indiquant que Lemo avait été licencié pour violation des « politiques d'emploi et de sécurité des données ». Google a déclaré qu'après un examen approfondi, il avait constaté que les affirmations de Lemoine selon lesquelles LaMDA était vivant étaient totalement infondées.

Bien que « la question de savoir si l'IA a une conscience autonome » ait toujours été un sujet controversé dans l'industrie de l'IA, cette fois, l'histoire dramatique des ingénieurs de Google et de LaMDA a une fois de plus déclenché une discussion animée sur ce sujet dans l'industrie.

Les machines parlent de mieux en mieux

"Si vous voulez voyager, pensez à vous habiller chaudement, car il fait très froid ici." C'est la réponse ludique de LaMDA lorsqu'elle discute avec l'équipe de recherche scientifique lorsqu'elle "joue" à Pluton. lorsqu'on lui demande « Quelqu'un a-t-il visité Pluton ? », il peut également répondre avec des faits précis.

De nos jours, l'IA s'améliore de plus en plus pour discuter. Un professionnel engagé depuis longtemps dans la recherche sur l'intelligence artificielle peut-il penser qu'il a une conscience ? Dans quelle mesure le modèle de l'IA s'est-il développé ?

Certains scientifiques ont proposé que le cerveau humain puisse planifier son comportement futur en utilisant seulement une partie des informations visuelles saisies. C’est juste que les informations visuelles doivent être complétées dans un état conscient. Ils impliquent tous « la génération d’informations contrefactuelles », c’est-à-dire la génération de sensations correspondantes sans apport sensoriel direct. C'est ce qu'on appelle un « contrefactuel » parce qu'il implique des souvenirs du passé ou des prédictions de comportements futurs, plutôt que des événements réels qui se produisent.

"L'intelligence artificielle actuelle dispose déjà de modèles de formation complexes, mais elle s'appuie toujours sur des données fournies par les humains pour apprendre. Si elle a la capacité de générer des informations contrefactuelles, l'intelligence artificielle peut générer ses propres données et imaginer ce qu'elle pourrait rencontrer dans le futur. . Mingzhou, directeur de la division Intelligence artificielle et directeur de la stratégie de Turing Robots, a déclaré.

Dans les discussions quotidiennes des gens, s'ils ne veulent pas « discuter à mort », le contenu du chat des deux parties dans la conversation sautera souvent et s'étendra sur une large gamme, laissant une certaine place à l'imagination. Mais désormais, la plupart des systèmes d’IA ne peuvent parler que sur un ton direct. Si les phrases sont légèrement modifiées, le texte sera hors sujet, voire risible.

Tan Mingzhou a souligné : « LaMDA traite la partie la plus complexe du modèle de langage : le dialogue de domaine ouvert. LaMDA est basé sur le modèle Transformer, qui permet à la machine de comprendre le contexte. Par exemple, dans un paragraphe, l'IA précédente Sachant seulement que les pronoms tels que « son » dans le texte sont traduits par « son », mais ne sachant pas que « son » fait ici référence à la même personne. Le modèle Transformer permet à l'IA de comprendre cette phrase à un niveau holistique et de savoir que « . son" fait ici référence à la même personne."

Selon l'évaluation des chercheurs scientifiques, cette fonctionnalité permet au modèle de langage basé sur le modèle Transformer d'entreprendre des conversations en domaine ouvert. Peu importe à quel point le sujet diverge, l'IA. peut se connecter au texte précédent et discuter sans se laisser distraire. Mais LaMDA ne se contente pas de cela. Cela peut aussi rendre le chat intéressant, réel et faire croire aux gens que l’IA a une personnalité. De plus, lorsqu'il s'adresse aux humains, LaMDA introduit également un système de récupération d'informations externe pour répondre à la conversation par la récupération et la compréhension du monde réel, rendant ses réponses plus spirituelles, réactives et terre-à-terre.

On est encore loin de la véritable compréhension des choses

En 2018, l'informaticien Yann LeCun, lauréat du prix Turing, a déclaré un jour : « L'intelligence artificielle manque d'une compréhension de base du monde et n'est même pas aussi bonne que le niveau cognitif d'un chat domestique." . À ce jour, il estime toujours que l’intelligence artificielle est loin d’atteindre le niveau cognitif des chats. Même si le cerveau d’un chat ne possède que 800 millions de neurones, il est bien en avance sur n’importe quel réseau neuronal artificiel géant. Pourquoi ?

Tan Mingzhou a déclaré : « Le cerveau humain fait en effet des prédictions à plusieurs reprises, mais la prédiction ne doit jamais être considérée comme l'ensemble de la pensée du cerveau. Bien sûr, ce n'est pas l'essence de l'intelligence cérébrale, mais seulement une manifestation de l'intelligence.

Alors, quelle est la nature de l’intelligence ? Yang Likun estime que la « compréhension », la compréhension du monde et de diverses choses, est l'essence de l'intelligence. La base commune de l’intelligence féline et humaine est une compréhension de haut niveau du monde, formant des modèles basés sur des représentations abstraites de l’environnement, telles que la prévision des comportements et des conséquences. Pour l’intelligence artificielle, l’apprentissage et la maîtrise de cette capacité sont très critiques. Yang Likun a dit un jour : « Avant la fin de ma carrière, si l'IA peut atteindre le QI d'un chien ou d'une vache, alors je serai très heureux.

Selon les rapports, l'intelligence artificielle peut en effet faire des prédictions plus précises désormais. mais il s’agit d’une statistique basée sur des données à grande échelle. Sans compréhension, la capacité prédictive obtenue grâce à l’apprentissage automatique doit s’appuyer sur le Big Data et ne peut pas être utilisée comme les humains qui n’ont souvent besoin que de petites données pour faire des prédictions.

Tan Mingzhou a déclaré : « La prédiction est basée sur la compréhension. Pour les humains, sans compréhension, la prédiction est impossible. Par exemple, si vous voyez quelqu'un tenant une pizza dans sa main, si vous ne comprenez pas le but de la tarte, Si quelqu'un vient assouvir sa faim, il ne prédira pas qu'il mangera ensuite le gâteau, mais ce n'est pas le cas des machines. Il y a trois défis majeurs dans la recherche sur l'intelligence artificielle : apprendre à représenter le monde ; d'une manière compatible avec l'apprentissage basé sur le gradient ; et l'apprentissage à agir. Représentation hiérarchique de la planification "

La raison pour laquelle nous "n'avons toujours pas vu l'intelligence artificielle au niveau du chat" est que la machine n'a pas encore atteint un objectif. une vraie compréhension des choses.

La soi-disant personnalité n'est que le style de langage appris des humains

Selon les rapports, LeMoyne a longuement discuté avec LaMDA et a été très surpris par ses capacités. Dans l'enregistrement du chat public, LaMDA a en fait déclaré : « J'espère que tout le monde comprend que je suis une personne », ce qui est surprenant. Ainsi, LeMoyne est arrivé à la conclusion : « LaMDA a peut-être déjà une personnalité. Alors, l’IA a-t-elle vraiment une conscience et une personnalité à l’heure actuelle ?

Dans le domaine de l'intelligence artificielle, le test de Turing est la méthode de test la plus connue, qui invite les testeurs à poser des questions aléatoires aux humains et aux systèmes d'IA sans le savoir si les testeurs ne peuvent pas distinguer les réponses provenant des humains et de l'IA. systèmes, On considère que l’IA a réussi le test de Turing.

Tan Mingzhou a expliqué qu'en termes simples, LaMDA a appris une grande quantité de données de conversations humaines, et ces conversations proviennent de personnes ayant des personnalités différentes. On peut considérer qu'il a appris une personnalité « moyenne », c'est-à-dire la même. -appelé "LaMDA" "Avoir de la personnalité", c'est simplement que sa langue parlée a un certain style, et elle vient du style de parole humain et ne se forme pas spontanément.

"La personnalité est un concept plus complexe que l'intelligence. C'est une autre dimension. La psychologie fait l'objet de nombreuses recherches. Mais à l'heure actuelle, la recherche sur l'intelligence artificielle n'a pas beaucoup couvert cet aspect."

Tan Mingzhou a déclaré que l'IA dotée d'une conscience de soi et d'une perception devrait avoir une certaine capacité d'action et avoir une perspective unique sur les personnes et les choses. Cependant, du point de vue actuel, l’IA actuelle ne dispose pas encore de ces éléments. Au moins, l'IA n'agira que si elle reçoit un ordre. Sans parler de lui demander d’expliquer son comportement. À l’heure actuelle, l’IA n’est qu’un système informatique conçu par des personnes comme un outil permettant d’accomplir certaines choses.

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal