La dernière fois, c'était Zhou Shouzi. Cette fois, c'est au tour de Sam Altman.
Mais cette fois, les membres du Congrès ont eu une attitude complètement différente à son égard : amicaux, patients, ont fait suffisamment de devoirs et ont humblement demandé conseil.
Hier soir, heure de Pékin, Sam Altman, PDG d'OpenAI, a témoigné devant le Sénat américain sur les dangers potentiels de la technologie de l'IA et a exhorté les législateurs à mettre en œuvre des exigences de licence et d'autres réglementations pour les organisations qui fabriquent de l'IA avancée.
Sam Altman n'a pas eu à accepter de questions délicates. Il s'est assis à son siège et a parlé avec aisance, prouvant une fois de plus au monde : en tant que PDG de startup le plus en vue au monde, il écrit. sur la technologie. Les règles et l’avenir du monde.
Face au Congrès américain, Sam Altman l'a encore une fois catégoriquement garanti : OpenAI n'entraînera certainement pas GPT-5 dans les six prochains mois.
Dans le même temps, il a également averti le monde : l'IA peut être nuisible au monde. Afin de faire face aux risques de plus en plus puissants de l'IA, nous devons renforcer la surveillance et la législation, et l'intervention du gouvernement est extrêmement importante.
Pourquoi Altman est-il si actif dans la réglementation gouvernementale ?
Évidemment, tant que vous devenez le faiseur de règles, vous pouvez gagner la compétition où le gagnant remporte tout.
Pour Altman, qui s'est fait un nom dans la Silicon Valley en s'appuyant sur ses attributs de « vache sociale », traiter avec le gouvernement est aussi simple que de sortir quelque chose d'un sac.
En tant que nouvelle force apparue soudainement dans le monde de la technologie, OpenAI a remué le monde à une vitesse fulgurante cette année, 8 ans après sa création, obligeant toutes les entreprises technologiques à participer. involution globale à partir de ChatGPT.
Cette course mondiale aux armements en matière d’IA a alarmé de nombreux experts.
Cependant, lors de cette audience, les membres du Sénat n'ont pas critiqué le chaos provoqué par la technologie OpenAI, mais ont humblement sollicité l'avis de témoins sur les règles potentielles de ChatGPT. Leur attitude envers Sam Atlman est visible aux yeux du public. à l’œil nu. Soyez amical et respectueux.
Au début de l'audience, le sénateur Richard Blumenthal a utilisé un logiciel de clonage vocal pour copier son propre timbre, a demandé à ChatGPT d'écrire une déclaration d'ouverture et a formé un générateur de synthèse vocale en utilisant des heures de parole.
Cette décision prouve que le Congrès a une attitude claire envers "l'adoption de l'IA".
Lors de cette audience, les législateurs étaient visiblement très enthousiastes, ce qui contrastait fortement avec leurs doutes précédents à propos de Xiao Zha et Zhou Shouzi.
Plutôt que de ressasser les erreurs du passé, les sénateurs sont impatients de profiter des avantages que l’IA peut apporter.
Et Altman a dit au Sénat droit au but : la technologie de l'IA peut mal tourner.
Il a déclaré qu'il était très inquiet du fait que l'industrie de l'intelligence artificielle causerait un préjudice important au monde.
"Si la technologie de l'IA tourne mal, les conséquences seront désastreuses. Nous devons en parler : nous voulons travailler avec le gouvernement pour empêcher que cela ne se produise
"Nous pensons qu'une intervention réglementaire du gouvernement est nécessaire." est de plus en plus puissant pour atténuer le risque des modèles d'IA. Par exemple, le gouvernement américain pourrait envisager de combiner les exigences en matière de licences et de tests pour développer et publier des modèles d'IA qui dépassent les seuils de capacité. Altman a déclaré qu'il était très inquiet que l'élection soit affectée par le contenu généré par l'IA, il doit donc y avoir une supervision adéquate à cet égard. En réponse, le sénateur Dick Durbin a déclaré qu'il était remarquable que de grandes entreprises viennent au Sénat pour « faire plaisir à notre réglementation ». Comment réguler ? Altman a déjà pensé au gouvernement. A l'audience, il a proposé un plan systématique. 1. Créer une nouvelle agence gouvernementale chargée de délivrer des licences pour les grands modèles d'IA et révoquer les licences pour les modèles qui ne répondent pas aux normes. Il estime qu'il n'est pas nécessaire de mettre en œuvre ce système de réglementation des licences pour les technologies qui ne peuvent pas atteindre le niveau des modèles à grande échelle de pointe. Pour encourager l’innovation, le Congrès pourrait fixer des seuils de compétence pour protéger les petites entreprises et les chercheurs des contraintes réglementaires. 2. Créer un ensemble de normes de sécurité pour les modèles d'IA, y compris une évaluation de leurs capacités dangereuses. Par exemple, les modèles doivent passer des tests de sécurité, comme s'ils peuvent « s'auto-répliquer » et « circuler en dehors de la supervision ». 3. Exiger que des experts indépendants réalisent un audit indépendant de la performance du modèle sur divers indicateurs. Lorsque le sénateur lui a demandé s'il serait prêt à assumer ce rôle, Altman a déclaré : "Je suis satisfait du travail actuel, mais il serait heureux de fournir une liste parmi laquelle le Congrès pourra choisir." Altman a déclaré que parce que les modèles d'IA peuvent « persuader, manipuler, influencer le comportement et les croyances d'une personne » et même « créer de nouveaux agents biologiques », les licences sont indispensables. Il serait plus simple d'accorder une licence à tous les systèmes au-dessus d'un certain seuil de puissance de calcul, mais Altman a déclaré qu'il préférerait tracer des lignes réglementaires basées sur des capacités spécifiques. Altman a proposé trois solutions :
Alors, le modèle d'OpenAI est-il sûr ?
Altman a déclaré à plusieurs reprises que tout le monde peut être rassuré.
Il a déclaré que le modèle GPT-4 répondrait de manière plus intentionnelle et authentique que tout autre modèle similaire, et rejetterait définitivement les demandes nuisibles car GPT-4 a subi de nombreux tests et audits préalables à la publication.
"Avant de publier un nouveau système, OpenAI effectue des tests approfondis, engage des experts externes pour effectuer des examens détaillés et des audits indépendants, améliore le comportement du modèle et met en œuvre des systèmes de sécurité et de surveillance solides
"Dans Avant de publier GPT." -4, nous avons passé plus de six mois à mener une évaluation approfondie, une équipe rouge externe et des tests de capacités dangereux
Et le mois dernier, les utilisateurs de ChatGPT ont pu désactiver l'historique des discussions pour éviter que leurs données personnelles ne soient utilisées pour s'entraîner. Modèles d'IA.
Cependant, il y a aussi des gens aux yeux perçants qui ont découvert le "point hua". La proposition d'Altman n'implique pas deux points qui sont vivement débattus par le public -
1 Exiger que les modèles d'IA divulguent la source de. leurs données de formation.
2. Il est interdit aux modèles d'IA d'utiliser des œuvres protégées par des droits de propriété intellectuelle à des fins de formation.
Eh bien, c'est-à-dire qu'Altman a évité très intelligemment ces deux points controversés.
Les propositions d'Altman concernant les règles de sécurité de l'IA ont été saluées par les législateurs, qui ont parfois exprimé leur gratitude pour son témoignage. Le sénateur Altman, R-LA, a même contacté Altman pour lui demander s'il serait intéressé à travailler au sein de l'agence de régulation créée par le Congrès.
Le Congrès est déterminé à réglementer l’intelligence artificielle, et il y a des premiers signes. Plus tôt ce mois-ci, Altman, ainsi que les PDG de Google, Microsoft et Nvidia, ont rencontré la vice-présidente Kamala Harris à la Maison Blanche pour discuter du développement d'une IA responsable.
Dès l'année dernière, la Maison Blanche a proposé la « Déclaration des droits de l'intelligence artificielle » pour proposer diverses exigences à l'industrie, comme la prévention de la discrimination.
Le sénateur a proposé de comparer l'IA à la bombe atomique.
Altman, faisant référence aux pratiques des gouvernements du monde entier en matière de réglementation des armes nucléaires, a proposé l'idée de créer une agence similaire à l'Agence internationale de l'énergie atomique pour formuler des règles mondiales pour l'industrie.
Dans la deuxième interview avec Lex Fridman en avril, Sam Altman a déclaré de manière concluante : "Nous n'entraînons pas GPT-5 maintenant, à l'heure actuelle, nous sommes je fais juste plus de travail sur la base de GPT-4 "
Au cours de cette audience, Altman a directement admis qu'il n'y avait aucune possibilité de formation OpenAI dans les 6 prochains mois. Prévoyez de devenir un nouveau modèle de. GPT-5.
Et cela devrait signifier que plus tard cette année, Google disposera de son système d'intelligence artificielle le plus puissant à ce jour : le projet Gemini.
On dit que Gemini est conçu pour les innovations futures telles que le stockage et la planification. Il est non seulement multimodal dès le départ, mais également très efficace dans l'intégration d'outils et d'API. Il est actuellement développé par la nouvelle équipe Google Deepmind.
Gary Marcus, professeur de psychologie et de neurosciences à l'Université de New York, est également apparu à la barre des témoins.
Il est encore plus agressif que les membres du Congrès.
Sa question à Sam Altman peut être qualifiée de « mortelle ».
Le but de la création d’OpenAI n’est-il pas de bénéficier à toute l’humanité ? Pourquoi tente-t-il maintenant de former une alliance avec Microsoft ?
OpenAI n'est pas ouvert et les données d'entraînement de GPT-4 ne sont pas transparentes. Qu'est-ce que cela signifie ?
Marcus conclut : Nous avons des opportunités sans précédent, mais nous sommes également confrontés à de terribles risques d'irresponsabilité des entreprises, de déploiement généralisé, de manque de réglementation appropriée et de manque de fiabilité
Pour Marcus In Si, il y a quelque chose de très mal avec ce que font Open et Microsoft.
Bing AI Sydney de Microsoft a montré un jour une série de comportements choquants.
"Sydney a un gros problème. Si c'était moi, je le retirerais immédiatement du marché, mais Microsoft ne l'a pas fait."
Marcus a déclaré que cet incident lui avait sonné un signal d'alarme - — Même une organisation à but non lucratif comme OpenAI peut être rachetée par une grande entreprise et faire ce qu’elle veut.
Mais désormais, les opinions et la vie des gens sont subtilement façonnées et modifiées par l’IA. Et si quelqu’un utilisait délibérément la technologie de l’IA à de mauvaises fins ?
Marcus était très inquiet à ce sujet.
"Il y a un risque réel à permettre une combinaison de technocratie et d'oligarchie où quelques entreprises peuvent influencer les croyances des gens... laisser une poignée d'acteurs utiliser ce que nous fondamentalement. Cela me fait peur de ne pas connaître les données pour ce faire »
En ce qui concerne certaines questions juridiques et réglementaires courantes, on peut voir qu'Altman a déjà eu un plan en tête, Les dispositions sont clairement prises pour tous les sénateurs.
Le sénateur a déclaré que l'une de ses « plus grandes préoccupations » concernant l'intelligence artificielle est « ce monopole massif des entreprises ».
Il a cité comme exemple la coopération d’OpenAI avec le géant de la technologie Microsoft.
Altman a déclaré qu'il pensait que le nombre d'entreprises capables de fabriquer de grands modèles est relativement faible, ce qui pourrait faciliter la réglementation.
Par exemple, seules quelques entreprises peuvent fabriquer une IA générative à grande échelle, mais la concurrence a toujours existé.
L'essor des médias sociaux a été facilité par l'adoption de l'article 230 par le Congrès américain en 1996, qui protégeait les sites Web de toute responsabilité pour les publications des utilisateurs.
Altman estime : Il n'existe actuellement aucun moyen pour les grands modèles d'être protégés par l'article 230. De nouvelles lois devraient être promulguées pour protéger les grands modèles de toute responsabilité légale pour le contenu qu'ils produisent.
Ultraman a initialement évité la suggestion du sénateur selon laquelle "l'IA pourrait avoir les conséquences les plus graves".
Mais après que Marcus ait rappelé amicalement qu'Altman n'avait pas répondu à la question, le sénateur a répété sa question.
Altman n'a finalement pas répondu directement à cette question.
OpenAI a tenté d'être très clair sur les risques de l'intelligence artificielle, qui pourrait causer "un préjudice important au monde" de "de nombreuses manières différentes".
Il l'a encore clarifié. C’est pour résoudre ce problème qu’OpenAI a été fondé. "Si quelque chose ne va pas avec cette technologie, cela pourrait tourner terriblement mal."
En fait, dans une interview avec "StrictlyVC" plus tôt cette année, Altman a qualifié l'extinction humaine de pire scénario.
Finalement, même Marcus a semblé s'adoucir envers Ultraman.
Vers la fin de l'audience, Marcus, qui était assis à côté d'Altman, a déclaré : "La sincérité lorsqu'il parle de peur est si évidente qu'on ne peut pas la ressentir à travers un écran de télévision." leader technologique
Et comparé à Xiao Zha, qui avait déjà « rencontré beaucoup de problèmes » en raison de la confidentialité des données et de la monnaie avant de se rendre à l'audience, OpenAI derrière Altman n'a non seulement reçu presque aucune critique du public, mais c'est aussi le courant Situation « tout arrive » dans le domaine de l'IA Le fondateur le plus important.
Face à Altman, qui a fait preuve de bonne volonté dès le début et a appelé à une régulation de l'IA, ces législateurs, qui sont presque tous des "amateurs techniques", apparaîtront naturellement beaucoup plus doux et bienveillants face à cette "autorité".
Donc dans la même situation, la pression sur Altman n'est pas du même ordre de grandeur que celle sur Zha.
Grand modèle économique
Altman a déclaré qu'il « aime beaucoup » le modèle d'abonnement.
Mais OpenAI a envisagé la possibilité de diffuser des publicités dans la version gratuite de ChatGPT pour gagner de l'argent auprès de ses utilisateurs gratuits.
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!