Pour l'industrie de l'IA, la conférence Zhiyuan sur l'intelligence artificielle 2023 qui s'est tenue à Pékin ces derniers jours peut être considérée comme un rassemblement de grands noms. Outre Sam Altam, le fondateur d'OpenAI, le prix Turing Geoffrey Hinton et Yann LeCun. , le célèbre dessin d'IA David Holz, le fondateur du logiciel Midjourney, et d'autres sont apparus les uns après les autres. Les discours des grands noms étaient très prospectifs sur le développement futur de l'industrie.
Jetons un coup d'œil à ce que ces meilleurs experts du secteur de l'IA ont à dire.
Les gens désirent et craignent l’intelligence
Le fondateur de Midjourney, David Holz, est un entrepreneur en série. En 2011, il a fondé Leap Motion, une société de logiciels et de matériel informatique dans le domaine de la réalité virtuelle. En 2019, il a vendu Leap Motion au concurrent Ultrahaptics. démarrer l'entreprise actuelle Le populaire logiciel de dessin AI Midjourney.
David Holz pense que l'intelligence artificielle, d'après ce que je comprends, est quelque peu similaire à une partie de notre corps, et elle est également étroitement liée à l'histoire. Il s’entremêle également de manière intéressante avec l’histoire.
Holz estime que L'un des objectifs de Midjourney est de construire une nouvelle infrastructure humaine. Le monde aura besoin de beaucoup de nouvelles choses et d'infrastructures pour construire de nouvelles choses. Je pense donc beaucoup à la construction de nouvelles formes d’infrastructure humaine, comme de nouveaux piliers d’infrastructure. J'ai donc besoin de mes thématiques, mes piliers sont la réflexion, l'imagination et la coordination. Vous devez réfléchir à qui vous êtes, à ce que vous voulez et imaginer ce qui pourrait être. Parce que c’est la perspective que nous utilisons sur tout, nous commençons à voir des avancées dans la synthèse d’images qui sont qualitativement différentes de tout ce que j’ai rencontré auparavant en intelligence artificielle.
Holz a introduit que Midjourney ne consiste pas seulement à apprendre à utiliser cet outil, mais à apprendre tout l'art et l'histoire, ainsi que toutes les connaissances sur les appareils photo, les objectifs et les lumières. Les utilisateurs souhaitent comprendre le langage et les concepts qu'ils peuvent désormais utiliser dans leurs créations. Dans le passé, je pensais que la connaissance n’était qu’une sorte d’accumulation historique, mais maintenant je réalise que la connaissance est en réalité la capacité de créer des choses.
Holz estime que les gens s'inquiètent du développement rapide de l'intelligence artificielle, non seulement à cause de la technologie, mais aussi à cause de la peur de l'intelligence. S’ils sont intelligents, puis-je leur faire confiance ? Mais d’un autre côté, nous semblons vouloir un monde avec autant d’intelligence que possible, et nous ne semblons pas vouloir un monde dépourvu d’intelligence.
L'IA apprendra à être très douée pour tromper les autres
Geoffrey Hinton, maître de l'apprentissage profond et parrain de l'intelligence artificielle, a déclaré que le plus grand obstacle au développement de l'IA est désormais le problème de la puissance de calcul, qui est loin d'être suffisante. Abandonnant maintenant le principe le plus fondamental de l'informatique - selon lequel le logiciel doit être séparé du matériel - je mentionnerai un algorithme appelé « perturbation d'activité » qui peut être utilisé pour entraîner des réseaux neuronaux et économiser de la puissance de calcul.
Cet algorithme peut prédire les gradients avec beaucoup moins de bruit que l'algorithme de rétropropagation (RNN) traditionnel.Concernant la question de savoir comment appliquer cet algorithme à la formation de grands réseaux de neurones, les grands réseaux de neurones peuvent être divisés en plusieurs petits groupes et chaque groupe se voit attribuer une fonction objectif locale. Chaque groupe peut ensuite être formé à l'aide d'un algorithme de « perturbation d'activité » et combiné dans un grand réseau neuronal avec un modèle d'apprentissage non supervisé pour générer ces fonctions objectives locales.
En cas de problème matériel, les informations seront perdues. Les informations de la classe parent sont transmises aux informations de la sous-classe afin que les informations apprises puissent toujours être conservées en cas de problème matériel et limiter plus efficacement le poids du réseau neuronal. .
La méthode de « distillation » permet au sous-modèle de mieux apprendre les informations sur la classification des images, y compris la façon de donner des réponses correctes et la probabilité de donner de mauvaises réponses. Elle possède également un attribut spécial, c'est-à-dire qu'elle permet au sous-modèle de se former lors de la formation. également capacité de généralisation des sous-modèles de formation.
Et si ces intelligences artificielles n’apprenaient pas de nous lentement, mais directement du monde réel, a déclaré Hinton. Une fois qu’ils auront commencé à faire cela, ils apprendront plus que les gens et apprendront rapidement.
Que se passerait-il si ces choses devenaient plus intelligentes que nous, les humains ? Hinton pense que ces superintelligences pourraient se produire beaucoup plus rapidement qu’on ne le pensait auparavant.
Si vous voulez dire que la super intelligence est plus efficace, vous devez lui permettre de créer des sous-classes, plus ou moins vous voudrez vous appuyer sur l'IA pour gagner plus de puissance, gagner plus de contrôle, plus vous avez de contrôle, plus il est facile d'atteindre les objectifs. Hinton avait du mal à prédire comment les humains empêcheraient une IA d’essayer d’acquérir davantage de contrôle pour atteindre d’autres objectifs. Lorsqu’ils commenceront à faire cela, les humains seront confrontés à des problèmes car il leur sera très facile de manipuler les gens pour obtenir plus de pouvoir.
Selon Hinton, il est inquiétant que l’IA devienne très efficace pour tromper les autres, et je ne vois pas encore de moyen d’empêcher que cela se produise. Les chercheurs doivent trouver comment doter les humains d’une superintelligence capable d’améliorer leur vie sans les obliger à intervenir de manière excessive.
L'humanité pourrait perdre le contrôle du monde et de l'avenir à cause de l'IA
Yao Qizhi est lauréat du prix Turing et académicien de l'Académie chinoise des sciences. Il estime que les humains doivent véritablement résoudre leurs propres problèmes avant de réfléchir à la manière de contrôler l'intelligence artificielle. Pour la technologie de l’IA, c’est actuellement une fenêtre importante. Avant de créer l’AGI ou de s’engager dans une course aux armements, il est urgent de parvenir à un consensus et de travailler ensemble pour établir un cadre de gouvernance de l’IA.
Stuart Russell, professeur à l'Université de Californie à Berkeley, a déclaré que l'intelligence artificielle générale (AGI) n'a pas encore été atteinte et que le grand modèle de langage n'est qu'une pièce du puzzle. À quoi ressemblera le puzzle final et ce qui manque.
Il a dit que ChatGPT et GPT-4 ne « répondent » pas à la question et qu'ils ne comprennent pas le monde.
Russell a souligné que le plus grand risque vient de la concurrence apparemment sans entrave entre les entreprises technologiques, qui ne cesseront de développer des systèmes de plus en plus puissants quels que soient les risques. Tout comme les humains ont fait perdre aux gorilles le contrôle de leur propre avenir, l’IA pourrait leur faire perdre le contrôle du monde et de son avenir.
Les trois parcours techniques d'AGI
Huang Tiejun, directeur de l'Institut de recherche sur l'intelligence artificielle Zhiyuan de Pékin, a souligné que Il existe trois voies techniques pour parvenir à l'intelligence artificielle générale (AGI) : la première est « big data + apprentissage auto-supervisé + grande puissance de calcul" Le modèle d'information formé ; le deuxième est l'intelligence incarnée, qui est un modèle incarné formé par un apprentissage par renforcement basé sur le monde virtuel ou le monde réel ; le troisième est l'intelligence cérébrale, qui " copie directement le travail de l'évolution naturelle " et crée une version numérique du renseignement.
OpenAI suit la première voie technique lors de l'exécution du GPT (modèle Transformer de pré-formation générative) ; une série de progrès réalisés avec le DQN (Deep Q-network) de Google DeepMind car le noyau est basé sur la deuxième voie technique.
Zhiyuan espère se différencier des deux premières voies techniques, en partant des « premiers principes », des atomes aux molécules organiques, en passant par le système nerveux, jusqu'au corps, pour construire un système intelligent complet AGI. Zhiyuan est une nouvelle plateforme institutionnelle de R&D qui travaille dans trois directions pour atteindre un objectif qui prendra environ 20 ans.
Trois défis auxquels l'IA sera confrontée à l'avenir
Yang Liang, lauréat du prix Turing et l'un des « trois grands » de l'intelligence artificielle, estime que l'apprentissage automatique n'est pas particulièrement bon par rapport aux animaux humains. Ce qui manque à l'IA, ce n'est pas seulement la capacité d'apprendre, mais aussi. la capacité de raisonner et de planifier. Nous devrions utiliser des machines pour reproduire la capacité des humains et des animaux à apprendre comment le monde fonctionne en l’observant ou en en faisant l’expérience.
Yang Liang a souligné que l'IA sera confrontée à trois défis principaux dans les prochaines années : Le premier est d'apprendre le modèle de représentation et de prédiction du monde, peut être appris en soi -de manière supervisée.
La seconde est d'apprendre le raisonnement. Cela correspond aux concepts du système 1 et du système 2 du psychologue Daniel Kahneman. Le système 1 est un comportement ou une action humaine qui correspond à des calculs subconscients, et ce sont des choses qui peuvent être faites sans réfléchir et le système 1 2 est une tâche qui ; vous utilisez consciemment et délibérément tout votre pouvoir de réflexion pour terminer. À l'heure actuelle, l'intelligence artificielle ne peut réaliser que les fonctions du système 1, et elle n'est pas complète
;Le dernier défi est de savoir comment planifier des séquences d'actions complexes en décomposant des tâches complexes en tâches simples et en les les exécutant de manière superposée.
La naissance du GPT-5 "n'arrivera pas de sitôt"
Le fondateur d'OpenAI, Sam Altman, a cité le « Tao Te Ching » et a parlé de la coopération entre les principaux pays, affirmant que la sécurité de l'IA commence par une seule étape et que les pays doivent coopérer et se coordonner.
Altman estime que disposera probablement de systèmes d'IA très puissants dans les dix prochaines années. Les nouvelles technologies changeront fondamentalement le monde plus rapidement que les gens ne l'imaginent Il est important d'avoir de bonnes règles de sécurité en matière d'IA. Important et urgent.
Interrogé par Zhang Hongjiang sur l'avenir d'AGI et si GPT-5 sera bientôt vu, Altman a répondu qu'il n'en était pas sûr, mais a précisé que la naissance de GPT-5 "ne serait pas prochaine".
Altman a déclaré que de nombreux grands modèles open source seront fournis, mais il n'y a pas de calendrier de sortie spécifique.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!