Produit par Sohu Technology
Auteur|Zheng Songyi
Le 9 juin, la conférence Zhiyuan sur l'intelligence artificielle 2023 s'est tenue à Pékin. A quatre heures du matin, heure locale en France, Yann LeCun, connu comme l'un des « Trois géants du Deep Learning dans le monde », a prononcé un discours sur la liaison vidéo française à Pékin sur le thème « Vers un grand modèle ». Capable d'apprendre, de raisonner et de planifier" Le discours exprimait une réflexion approfondie sur l'intelligence artificielle.
Sohu Technology a regardé ce discours lors de la conférence Zhiyuan. D'après l'expression souriante de Yang Likun pendant le discours, nous pouvons ressentir l'attitude positive et optimiste de Yang Likun envers le développement de l'intelligence artificielle. Auparavant, lorsque Musk et d'autres avaient signé une lettre commune affirmant que le développement de l'intelligence artificielle entraînerait des risques pour la civilisation humaine, Yang Likun l'avait publiquement réfuté, estimant que l'intelligence artificielle ne s'était pas encore développée au point de constituer une menace sérieuse pour l'humanité. Dans son discours, Yang Likun a une fois de plus souligné que l'intelligence artificielle est contrôlable. Il a déclaré : « La peur est causée par l'attente de résultats négatifs potentiels, tandis que l'exaltation est causée par la prédiction de résultats positifs. Je l'appelle « IA axée sur les objectifs », elle sera contrôlable car nous pouvons lui fixer des objectifs via une fonction de coût, garantissant que ces systèmes ne veulent pas conquérir le monde, mais succombent plutôt à l'humanité et à la sécurité.
Yang Likun a déclaré que l'écart entre l'intelligence artificielle et les humains et les animaux réside dans le raisonnement logique et la planification, qui sont des caractéristiques importantes de l'intelligence. Les grands modèles d'aujourd'hui ne peuvent que « réagir instinctivement ».
"Si vous les entraînez avec un billion ou deux billions de jetons, les performances de la machine sont incroyables, mais finalement la machine fera des erreurs factuelles, des erreurs logiques et leurs capacités de raisonnement sont limitées
."Yang Likun a souligné que les modèles linguistiques basés sur l'auto-supervision ne peuvent pas acquérir de connaissances sur le monde réel. Il pense que les machines ne sont pas très douées pour apprendre par rapport aux humains et aux animaux. Pendant des décennies, la manière de développer des systèmes a été d'utiliser l'apprentissage supervisé, mais l'apprentissage supervisé nécessite trop d'étiquettes, tout apprendre nécessite beaucoup d'essais et les résultats de l'apprentissage par renforcement sont insatisfaisants et font des erreurs. mal, et pas vraiment capable de raisonner ou de planifier.
"Tout comme lorsque nous prononçons un discours, la façon dont nous exprimons un point à un autre et la façon dont nous expliquons les choses est planifiée dans notre cerveau au lieu d'improviser mot par mot. Peut-être qu'à un niveau bas, nous improvisons, mais à un niveau élevé, nous devons planifier, donc le besoin de planification est très évident. Ma prédiction est que dans un laps de temps relativement court, les personnes sensées n'utiliseront certainement pas d'éléments autorégressifs (l'un des modèles de ceux-ci). les systèmes seront bientôt abandonnés car irréparables. »
Il a déclaré que pour que le modèle de langage comprenne véritablement la connaissance du monde réel, une nouvelle architecture est nécessaire pour le remplacer, et cette architecture est l'architecture qu'il a proposée dans l'article qu'il a publié il y a un an, "Autonomous Intelligence". . Il s'agit d'une architecture dans laquelle un module de configuration contrôle l'ensemble du système et effectue des prédictions, un raisonnement et une prise de décision basés sur les informations d'entrée. Le « module mondial » a la capacité d’estimer les informations manquantes et de prédire les futures conditions extérieures.
Parlant des défis auxquels l'IA sera confrontée dans les prochaines années, Yang Likun a souligné trois aspects : le premier est d'apprendre le modèle de représentation et de prédiction du monde ; le second est d'apprendre à raisonner, c'est-à-dire d'apprendre à raisonner. utiliser la pensée consciemment et délibérément pour accomplir des tâches ; enfin, un défi consiste à planifier des séquences d'actions complexes en décomposant des tâches complexes en tâches plus simples, en les exécutant de manière hiérarchique.
En parlant de cela, Yang Likun a présenté un autre modèle qu'il a publié dans le journal "World Model", qui peut imaginer une scène et prédire les résultats des actions basées sur la scène. L’objectif est de trouver une séquence d’actions prédite par son propre modèle du monde et minimisant une série de coûts.
Lorsque Yang Likun a été interrogé lors de la séance de questions-réponses sur un débat à venir sur le statut et l'avenir de l'AGI, il a déclaré que le débat tournerait autour de la question de savoir si les systèmes d'intelligence artificielle présentent des risques existentiels pour les humains. Max Tegmark et Yoshua Bengio se rangeront du côté du « oui » en affirmant que les systèmes d’IA puissants peuvent présenter des risques existentiels pour les humains. Et Liqun Yang et Melanie Mitchell seront du côté du « non ».
« Notre argument n’est pas qu’il n’y a pas de risques, mais que ces risques, bien qu’ils existent, peuvent facilement être atténués ou supprimés grâce à une conception minutieuse. »
Yang Likun estime que le système super-intelligent n'a pas encore été développé. Une fois inventé, il sera trop tard pour discuter "si le système super-intelligent peut être rendu sûr pour les humains".
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!