Récemment, Sam Altman, responsable du développement du produit ChatGPT chez OpenAI, voyage à travers le monde. Altman, qui a toujours été connu comme un « geek de la technologie », a rencontré des hommes politiques et des dirigeants de l'industrie en Asie, en Europe et aux États-Unis, appelant à la création d'une agence mondiale unifiée de réglementation de l'IA, semblable aux Nations Unies.
Le 6 juin, Altman a déclaré aux médias qu'OpenAI n'avait pas l'intention de devenir public. À mesure que la technologie de l’IA devient plus puissante, le risque devient de plus en plus élevé. Il souhaite conserver le contrôle total de l’entreprise pour éviter de dangereuses retombées.
↑Altman, fondateur d'OpenAI
Altmann :
La société a une structure étrange et n'a pas l'intention de devenir publique
Le « Tour Show » d'Altman aura lieu le 6 juin à Abu Dhabi, aux Émirats arabes unis. Andrew, représentant du département de gestion de l'IA aux Émirats arabes unis, a déclaré que le pays était prêt à se montrer "un pays puissant" et à contribuer au processus mondial de formulation de règles réglementaires en matière d'IA.
Récemment, le géant des puces NVIDIA a surfé sur la vague de l'IA et sa valeur marchande a dépassé la barre des mille milliards de dollars. L’introduction en bourse d’OpenAI avec les grands modèles d’IA sous-jacents stimulerait grandement l’imagination des investisseurs mondiaux. Cependant, lorsqu'on lui a demandé s'il laisserait OpenAI entrer en bourse, Altman a donné une réponse ferme : « Je ne veux pas être poursuivi en justice par les actionnaires publics et par Wall Street, donc la réponse est « non », je ne suis pas intéressé à entrer en bourse. .."
OpenAI a été fondée en 2015 en tant qu'organisation à but non lucratif, et la société s'est transformée en startup à but lucratif en 2019 et a reçu un investissement d'un milliard de dollars de Microsoft.
Lorsqu'OpenAI a levé des fonds auprès de Microsoft, elle a annoncé qu'elle se définirait comme une entreprise à but lucratif limité, ce qui lui permet de lever des fonds externes, mais en même temps, les opérations de l'entreprise ne visent pas à maximiser le rendement pour les actionnaires comme les entreprises ordinaires. On dit que Microsoft a de nouveau investi dans OpenAI en janvier de cette année, pour un montant pouvant atteindre 10 milliards de dollars. La valorisation actuelle d'OpenAI serait proche de 30 milliards de dollars.
Altmann a déclaré : "Nous avons une structure très étrange. Nous nous sommes fixés un plafond de bénéfices, nous pouvons donc prendre des décisions que la plupart des investisseurs trouvent très étranges
."Il a également déclaré que la vitesse de développement de la technologie de l'IA est très rapide, dépassant l'imagination des gens ordinaires. Dans quelques années, GPT-4 pourrait paraître relativement simple et ne plus être aussi impressionnant qu’il ne l’est aujourd’hui. »
Concernant le phénomène de l'intelligence artificielle remplaçant rapidement les humains dans de nombreux emplois, Altman a déclaré que les emplois du futur seront très différents de nombreux emplois d'aujourd'hui. Il ne croit pas que le développement de l'IA entraînera la perte d'emploi des humains.
Parlez de la supervision de l'IA :
L'Agence internationale de l'énergie atomique en est un bon exemple
Altmann s'est toujours préoccupé de la sécurité de la technologie de l'IA et a appelé les agences gouvernementales à assumer leurs responsabilités réglementaires et à agir en tant que « gardiens » pour la survie et la sécurité de toute l'humanité. Il a déclaré : « Nous sommes confrontés à des risques sérieux, voire existentiels. Le défi que nous devons relever est de savoir comment gérer et éviter efficacement les risques induits par l’IA, tout en garantissant que nous pouvons toujours profiter pleinement des énormes avantages qu’elle apporte. veut détruire le monde. »
En mai de cette année, des centaines de dirigeants de l'industrie, dont Altman, ont signé une lettre ouverte avertissant que "l'atténuation du risque d'extinction de l'IA devrait devenir une priorité mondiale aux côtés d'autres risques sociaux tels que les épidémies et la guerre nucléaire".
Lors de son témoignage aux États-Unis en mai, Altman a souligné que l'intervention gouvernementale joue un rôle crucial dans la gestion des risques posés par l'intelligence artificielle. Fin mai, il s'est également rendu en Europe et a rencontré des dirigeants politiques d'Espagne, de France, de Pologne, d'Allemagne et du Royaume-Uni pour discuter de l'avenir de l'intelligence artificielle et des progrès de ChatGPT. Selon les médias américains, l'Union européenne envisage de lancer le premier projet de loi réglementaire dans le domaine de l'intelligence artificielle, qui pourrait devenir une norme pour la réglementation mondiale de l'IA.
Altman a une fois de plus proposé la création d'une agence mondiale de réglementation de l'IA similaire aux Nations Unies lors d'une réunion à Abu Dhabi hier (6). Entre-temps, il a pris comme exemple l'Agence internationale de l'énergie atomique (AIEA) pour illustrer son point de vue personnel - cette dernière est une agence qui établit des relations avec les Nations Unies et mène une coopération scientifique et technique dans le domaine de l'énergie atomique en gouvernements du monde entier.
Suivons l'exemple de l'Agence internationale de l'énergie atomique et mettons en place des "mesures de protection", a déclaré Altman. Je pense que nous pouvons également parvenir à ces consensus face au développement de l’IA. Bien que l’IA ne soit pas si dangereuse pour le moment, elle pourrait bientôt devenir risquée. Avant que cela ne se produise, les humains ont la possibilité d’unir leurs forces et d’établir des mécanismes de prévention. »
Zheng Zhi, journaliste de Red Star News
Rédacteur Peng Jiang Rédacteur en chef Li Binbin
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!