OpenAI, une entreprise qui a connu des hauts et des bas en raison de conflits internes au cours des six derniers mois, a de nouveau entendu parler de changements de personnel.
The Information rapporte qu'OpenAI a licencié deux employés soupçonnés d'avoir divulgué des informations, selon des personnes proches du dossier.
L'un d'entre eux est Leopold Aschenbrenner, chercheur au sein de l'équipe OpenAI Super Alignment.
Il est un allié du scientifique en chef d'OpenAI, Ilya Sutskever, qui a été impliqué dans l'effort raté visant à évincer le PDG d'OpenAI, Sam Altman, l'automne dernier.
Un autre employé licencié, Pavel Izmailov, était engagé dans des recherches liées à l'inférence chez OpenAI et a également travaillé dans l'équipe Super Alignment pendant un certain temps.
Les deux ont collaboré à de nombreux travaux de l'équipe, y compris celui-ci très regardé "Généralisation de faible à fort" (https://arxiv.org/abs/2312.09390).
Ce qui reste flou, ce sont les informations divulguées par les deux employés licenciés.
Ces deux départs sont les premiers changements de personnel public depuis le retour de Sam Altman au conseil d'administration en mars de cette année. Cela survient après que le conseil d'administration à but non lucratif d'OpenAI a mené une enquête pour disculper Altman de ses actes avant qu'il ne soit brièvement licencié en novembre dernier.
En repensant aux détails de l'incident du "Gong Fight", nous pourrons peut-être trouver quelques indices. Avant son éviction, les employés d’OpenAI étaient divisés sur la question de savoir si l’entreprise développait l’intelligence artificielle de manière suffisamment sûre.
Le co-fondateur Ilya Sutskever était l'un des membres du conseil d'administration qui ont licencié Altman, invoquant un manque de franchise. Sutskever a quitté le conseil d'administration après le retour d'Altman en tant que PDG. Depuis cet incident, il n’est pratiquement plus apparu sur la scène OpenAI.
Mais après l'incident de la bagarre au palais, Sam Altman n'a pas hésité à faire l'éloge d'Ilya, affirmant qu'il respectait et admirait beaucoup Ilya et qu'il espérait coopérer avec lui dans sa future vie professionnelle : « Ilya n'a pas vu l'intelligence artificielle générale, mais Ilya C'est un héros de l'humanité. Ilya pense beaucoup aux questions de sécurité et s'inquiète beaucoup. "Certaines personnes disent qu'Ilya a vu quelque chose, peut-être AGI, qui l'a mis mal à l'aise. Alors, qu'a vu Ilya ?" Altman : "Ce qu'Ilya a vu n'était pas AGI, personne n'a vu AGI, nous n'avons pas construit AGI. Je pense que l'une des nombreuses raisons pour lesquelles j'admire Ilya est qu'il prend l'AGI et la sécurité très au sérieux. D'une manière générale, cela inclut le L'impact qu'AGI aura sur la société, et Ilya est l'une des personnes avec qui j'ai été le plus longtemps au cours des dernières années pour parler de ce que cela signifie alors qu'OpenAI continue de faire des progrès significatifs. faire ce qu'il faut et veiller à ce que nous accomplissions avec succès notre mission ? Donc Ilya ne voit pas l'intelligence artificielle générale, mais Ilya est un héros de l'humanité. Il réfléchit beaucoup et s'inquiète beaucoup."
Plusieurs des membres du conseil d'administration qui ont licencié Altman étaient également liés à un altruisme efficace. Par exemple, Tasha McCauley est membre du conseil d'administration d'Effective Ventures, l'association caritative financée par FTX et société mère du Center for Effective Altruism, et Helen Toner a travaillé sur des projets philanthropiques axés sur l'altruisme efficace. Les deux hommes ont quitté le conseil d’administration lorsque Altman est revenu en tant que PDG fin novembre. Quant à Pavel Izmailov, il a déjà dévoilé ses projets d'avenir sur sa page d'accueil personnelle : rejoindre l'Université de New York en tant que professeur adjoint à l'automne 2025.De toute évidence, Aschenbrenner préfère la position de « l'altruisme efficace », qui place la résolution des dangers de l'intelligence artificielle au-dessus des profits à court terme ou des gains de productivité. Aschenbrenner a rejoint OpenAI il y a tout juste un an. Au sein de l'entreprise, Aschenbrenner. est également l'un des dirigeants de l'équipe OpenAI Super Alignment. L’équipe a été formée l’été dernier par Ilya Sutskever pour développer une technologie permettant de contrôler et de guider une intelligence artificielle avancée, connue sous le nom de superintelligence, qui pourrait potentiellement résoudre des problèmes de fusion nucléaire ou coloniser d’autres planètes.
Aschenbrenner est diplômé de l'Université de Columbia à l'âge de 19 ans et a travaillé auparavant au Future Fund, une fondation caritative fondée par l'ancien PDG de FTX, Sam Bankman-Fried, pour financer des projets qui "améliorent les perspectives à long terme de l'humanité".
Ni les partis ni Ilya n'ont officiellement répondu à cette nouvelle. Peut-être que ce qui préoccupe le plus tout le monde est de savoir si Ilya quittera OpenAI par la suite ? On peut seulement dire que c'est difficile à prévoir.
Lien de référence : https://www.theinformation.com/articles/openai-researchers-inclure-ally-of-sutskever-fired-for-alleged-leaking
Ce qui précède est le contenu détaillé de. pour plus d'informations, suivez d'autres articles connexes sur le site Web de PHP en chinois!