Maison > Périphériques technologiques > IA > le corps du texte

16 grands universitaires débattent de l'AGI ! Marcus, le père du LSTM et le lauréat de la MacArthur Genius Grant se sont réunis

PHPz
Libérer: 2023-04-14 09:52:02
avant
817 Les gens l'ont consulté

Après une interruption d'un an, le débat annuel sur l'intelligence artificielle organisé par Montréal.AI et le professeur émérite Gary Marcus de l'Université de New York est revenu vendredi soir dernier et s'est à nouveau tenu sous forme de conférence en ligne comme en 2020.

Le débat de cette année – AI Debate 3 : The AGI Debate – se concentre sur le concept d’intelligence artificielle générale, c’est-à-dire des machines capables d’intégrer d’innombrables capacités de raisonnement proches de celles de l’humain.

16 grands universitaires débattent de lAGI ! Marcus, le père du LSTM et le lauréat de la MacArthur Genius Grant se sont réunis

Lien vidéo : https://www.youtube.com/watch?v=JGiLz_Jx9uI&t=7s

Cette discussion dure trois heures et demie et se concentre sur cinq sujets liés à l'artificiel Intelligence Expansion du sujet : Cognition et neurosciences, bon sens, architecture, éthique et moralité, et politique et contribution.

En plus de nombreux grands noms du domaine de l'informatique, 16 experts, dont le neuroscientifique computationnel Konrad Kording, ont également participé. ​​

Cet article résume brièvement les points de vue de cinq des grands lecteurs intéressés peuvent regarder la vidéo complète via le lien ci-dessus.

Modérateur : Marcus

En tant que critique bien connu, Marcus a cité son article dans le New Yorker "L'apprentissage profond est-il une révolution dans le développement de l'intelligence artificielle ?" 》, a encore une fois versé de l'eau froide sur le développement de l'IA.

Marcus a déclaré que contrairement à la vague d'enthousiasme pour l'intelligence artificielle qui a duré une décennie après que l'équipe de Li Feifei a publié avec succès ImageNet, les "souhaits" de construire des machines omnipotentes ne se sont pas réalisés.

16 grands universitaires débattent de lAGI ! Marcus, le père du LSTM et le lauréat de la MacArthur Genius Grant se sont réunis

Dileep George, neuroscientifique de DeepMind

Dileep George, neuroscientifique de Google DeepMind, a un jour proposé un concept appelé "innéité".

En termes simples, ce sont certaines idées qui sont « intégrées » dans l'esprit humain.

Alors pour l’intelligence artificielle, faut-il accorder plus d’attention à l’innéité ?

À cet égard, George a déclaré que tout type de croissance et de développement depuis un état initial jusqu'à un certain état stable implique trois facteurs.

Le premier est la structure interne dans l'état initial, le second est les données d'entrée et le troisième est la loi naturelle universelle.

"Il s'avère que les structures innées jouent un rôle remarquable dans chaque domaine que nous découvrons."

Pour ce qui est considéré comme des exemples classiques d'apprentissage, comme l'acquisition du langage, une fois que vous commencerez à le démonter, vous découvrirez que les données n’ont presque aucun impact sur celui-ci.

La langue n'a pas changé depuis l'aube de l'homme, comme en témoigne le fait que n'importe quel enfant, quelle que soit sa culture, peut la maîtriser.

George pense que le langage deviendra le cœur de l'intelligence artificielle, nous donnant l'opportunité de comprendre ce qui fait des humains une espèce si unique.

Professeur Yejin Choi de l'Université de Washington

Professeur d'informatique à l'Université de Washington Yejin Choi prédit que les performances de l'IA deviendront de plus en plus étonnantes au cours des prochaines années.

Mais comme on ne connaît pas la profondeur du réseau, ils continueront à faire des erreurs sur les cas contradictoires et corner.

16 grands universitaires débattent de lAGI ! Marcus, le père du LSTM et le lauréat de la MacArthur Genius Grant se sont réunis

"Pour les machines, la matière noire du langage et de l'intelligence peut relever du bon sens."

Bien sûr, la matière noire mentionnée ici est quelque chose de facile pour les humains mais difficile pour les machines.

Jürgen Schmidhuber, le père du LSTM

Marcus a déclaré que nous pouvons désormais obtenir une grande quantité de connaissances à partir de grands modèles de langage, mais qu'en fait ce paradigme doit être transformé. Parce que le modèle de langage est en réalité « privé » de plusieurs types d’entrée.

Jürgen Schmidhuber, directeur du laboratoire suisse d'intelligence artificielle IDSIA et père du LSTM, a répondu : "La plupart de ce dont nous avons discuté aujourd'hui, du moins en principe, a été résolu il y a de nombreuses années grâce aux 'réseaux de neurones universels'." Le système est « moins qu’humain ».

16 grands universitaires débattent de lAGI ! Marcus, le père du LSTM et le lauréat de la MacArthur Genius Grant se sont réunis

Schmidhuber a déclaré qu'à mesure que la puissance de calcul devient moins chère toutes les quelques années, la « vieille théorie » revient. "Nous pouvons faire beaucoup de choses avec ces anciens algorithmes que nous ne pouvions pas faire à l'époque."

Ensuite, Francesca Rossi, chercheuse chez IBM, a posé une question à Schmidhuber : "Comment voyons-nous les systèmes qui n'ont toujours pas la fonctionnalité que nous voulons ? Qu'en pensez-vous ? Ces technologies définies ne sont toujours pas entrées dans le système actuel ? »

À cet égard, Schmidhuber estime que le principal problème est le coût de calcul :

Premièrement, il peut également apprendre des algorithmes d’apprentissage. La grande question est de savoir quels algorithmes peut-il apprendre ? Nous aurons peut-être besoin de meilleurs algorithmes. Options pour améliorer les algorithmes d'apprentissage.

Le premier système de ce type est apparu en 1992. J'ai écrit mon premier article en 1992. Nous ne pouvions pas faire grand-chose à ce moment-là. Aujourd'hui, nous pouvons avoir des millions et des milliards de poids.

Des travaux récents avec mes étudiants ont montré que ces anciens concepts, avec quelques améliorations ici et là, fonctionnent soudainement très bien et que l'on peut apprendre de nouveaux algorithmes d'apprentissage qui sont meilleurs que la rétropropagation.

Jeff Clune, professeur agrégé d'informatique à l'Université de la Colombie-Britannique

Jeff Clune, professeur agrégé d'informatique à l'Université de la Colombie-Britannique, a discuté du sujet "Algorithmes générateurs d'IA : le chemin le plus rapide vers l'AGI".

Clune a déclaré que l'intelligence artificielle d'aujourd'hui suit un « chemin artificiel », ce qui signifie que diverses règles d'apprentissage, fonctions objectives, etc. doivent être complétées manuellement par les humains.

À cet égard, il estime que dans la pratique future, les méthodes de conception manuelles finiront par céder la place à la génération automatique.

16 grands universitaires débattent de lAGI ! Marcus, le père du LSTM et le lauréat de la MacArthur Genius Grant se sont réunis

Par la suite, Clune a proposé les « trois piliers » pour promouvoir le développement de l'IA : l'architecture de méta-apprentissage, les algorithmes de méta-apprentissage et la génération automatique d'environnements et de données d'apprentissage efficaces.

Ici, Clune suggère d'ajouter un « quatrième pilier », qui consiste à « utiliser les données humaines ». Par exemple, les modèles exécutés dans l'environnement Minecraft peuvent réaliser des « énormes améliorations » en apprenant à partir de vidéos d'humains jouant au jeu.

Enfin, Clune prédit que nous avons 30 % de chances d’atteindre l’AGI d’ici 2030, et cela ne nécessite pas de nouveau paradigme.

Il convient de noter que l'AGI est ici définie comme « la capacité d'accomplir plus de 50 % du travail humain ayant une valeur économique ».

Pour résumer

À la fin de la discussion, Marcus a demandé à tous les participants de répondre à une question dans les 30 secondes : "Si vous pouvez donner un conseil aux étudiants, par exemple, quel problème d'intelligence artificielle nous devons étudier le plus maintenant, Ou comment se préparer à un monde où l'intelligence artificielle devient de plus en plus courante et centrale ? des véritables défis clés auxquels nous sommes confrontés, en abordant des défis tels que la robustesse, la généralisation et l'interprétabilité de manière plus large. » George a donné des conseils du point de vue de l'orientation de la recherche : « Déterminez d'abord l'échelle dans laquelle vous souhaitez vous engager. La recherche chimique ou la recherche fondamentale, car elles ont des trajectoires différentes. »

Clune : "L'AGI arrive. Ainsi, pour les chercheurs développant l'IA, je vous encourage à vous engager dans des technologies basées sur l'ingénierie, les algorithmes, le méta-apprentissage, l'apprentissage de bout en bout, etc., car ce sont les plus susceptibles de être absorbé dans l'AGI que nous créons. Pour les chercheurs non-IA, la question la plus importante est peut-être la gouvernance. Par exemple, quelles sont les règles lors du développement de l'AGI et comment amener les chercheurs du monde entier à suivre cet ensemble de règles ?

Marcus a conclu la soirée en rappelant ce qu'il avait dit lors du débat précédent : "Il faut tout un village pour construire l'intelligence artificielle."

"Je pense que c'est encore plus vrai maintenant", a-t-il déclaré. "Avant, AI était un enfant, mais maintenant c'est un peu comme un adolescent turbulent qui n'a pas encore complètement développé son jugement mature."

Il a conclu : "Ce moment est à la fois excitant et dangereux."

Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!

Étiquettes associées:
source:51cto.com
Déclaration de ce site Web
Le contenu de cet article est volontairement contribué par les internautes et les droits d'auteur appartiennent à l'auteur original. Ce site n'assume aucune responsabilité légale correspondante. Si vous trouvez un contenu suspecté de plagiat ou de contrefaçon, veuillez contacter admin@php.cn
Tutoriels populaires
Plus>
Derniers téléchargements
Plus>
effets Web
Code source du site Web
Matériel du site Web
Modèle frontal