Soudain ! OpenAI a licencié des gens, la raison : une fuite d'informations suspectée.
L'un d'entre eux est Léopold Aschenbrenner, un allié du scientifique en chef disparu Ilya et un membre principal de l'équipe Superalignment.
L'autre personne n'est pas simple non plus. Il s'agit de Pavel Izmailov, chercheur dans l'équipe d'inférence du LLM, qui a également travaillé dans l'équipe de super alignement.
On ne sait actuellement pas quelles informations ces deux personnes ont divulguées.
Après la révélation de la nouvelle, de nombreux internautes se sont dits "assez choqués" :
J'ai vu le message d'Aschenbrenner il n'y a pas longtemps et j'ai senti qu'il était en pleine ascension dans sa carrière. Je ne m'attendais pas à un tel changement.
Photos
Certains internautes pensent :
OpenAI a perdu Aschenbrenner, Ilya Sutskever a également été marginalisé, et l'engagement de l'entreprise à construire une IA sûre semble encore plus indigne de confiance.
Pictures
Le flux de talents d'OpenAI et le braconnage mutuel avec Google Meta ne sont plus surprenants, mais il s'agit du premier transfert de personnel sous forme d'expulsions depuis la rébellion du conseil d'administration en novembre de l'année dernière.
Il est entendu que Leopold Aschenbrenner a rejoint OpenAI il y a un an. Il avait auparavant travaillé au Future Fund. En remontant plus loin, il est diplômé de l'Université de Columbia à l'âge de 19 ans et a également mené des recherches sur la croissance économique à l'Université d'Oxford.
Pavel Izmailov est également membre de l'équipe CILVR à l'Université de New York. Il a révélé qu'il rejoindrait NYU Tandon CSE et Courant CS à l'automne 2025 en tant que professeur adjoint.
Actuellement, leurs deux pages d'accueil X notent leur relation avec OpenAI.
Pictures
Pictures
Tous deux n'ont pas publié de nouveaux tweets au cours du mois dernier, mais les messages épinglés sont très accrocheurs.
Oui, tous deux sont les premiers articles de l'équipe Super Alignment, et tous deux sont les auteurs de cet article.
Il faut dire cela à propos de cette équipe, qui a été créée en juillet de l'année dernière. C'est l'une des trois principales équipes de sécurité établies par OpenAI pour traiter les problèmes de sécurité pouvant survenir à partir de grands modèles à différentes échelles de temps.
Photos
La Super Alignment Team est chargée de jeter les bases de la sécurité du super-renseignement dans un avenir lointain, dirigée par Ilya Sutskever et Jan Leike.
Bien qu'OpenAI semble prendre la sécurité au sérieux, ce n'est un secret pour personne qu'il existe de grandes différences en son sein concernant le développement sûr de l'IA.
Ce désaccord est même considéré comme la principale raison des conflits internes au conseil d'administration d'OpenAI en novembre de l'année dernière :
Photos
On dit en ligne qu'Ilya Sutskever est devenu le leader du "coup d'État" parce qu'il a vu quelque chose qui l'a mis mal à l'aise.
Quant à l'équipe super-alignée dirigée par Ilya, de nombreux membres ont également soutenu Ilya. Lors de l'événement Solitaire qui a suivi en soutien à Ultraman, les membres de cette équipe super-alignée sont restés pratiquement silencieux.
Photos
Alors que les conflits internes à OpenAI s'apaisaient, Ultraman est devenu le vainqueur, Ilya Sutskever a quitté le conseil d'administration et n'est presque plus jamais apparu en public. Nous ne savons pas quelle est la situation de l'équipe Super Alignment maintenant. .
À cette époque, deux chercheurs ont été licenciés.
Tous deux étaient autrefois des subordonnés d'Ilya. L'information indiquait également qu'Aschenbrenner est un allié d'Ilya et est lié au mouvement qui donne la priorité à la résolution des dangers de l'IA.
Par conséquent, certains internautes ont émis l’hypothèse que ce licenciement était le « règlement de comptes » d’Ultraman.
De plus, les internautes sont plus préoccupés par le contenu divulgué.
La spéculation actuelle se concentre toujours sur Q*, qui est l'un des déclencheurs de la rébellion des conseils d'administration.
Selon les commentaires des internautes, Jimmy Apples semblait avoir publié des tweets liés, mais peu de temps après, nous avons vu que le tweet avait été supprimé lorsque le lien a été ouvert...
Photos
À en juger par les indices laissés derrière , il semble que cela puisse encore être lié à Q*.
Photos
Actuellement, Q* est passé de rumeurs à une existence officiellement confirmée, mais Ultraman lui-même est actuellement discret sur tout ce qui s'y rapporte.
Photos
En bref, depuis Q*, il y a eu des divergences idéologiques au sein d'OpenAI.
Après une série de troubles, 93 % des employés ont signé une lettre commune pour vivre et mourir avec Ultraman. Après l'annonce des résultats de l'enquête, Ultraman est revenu au conseil d'administration sans inculpation.
Tout semble calme, mais dans les coulisses, tout le monde s'engage à réaliser l'AGI, mais des fissures existent encore.
Lien de référence :
[1]https://www.theinformation.com/articles/openai-researchers-inclure-ally-of-sutskever-fired-for-alleged-leaking
[2]https://x. com/BenjaminDEKR/status/1778536771837694353
[3]https://twitter.com/leopoldasch
[4]https://twitter.com/Pavel_Izmailov
[5]https://www.reddit.com/r/singularity /comments/1c1qo04/openai_superalignment_researcher_fired_for/
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!