OpenAI の研究安全性担当副社長であるリリアン・ウェン氏は、最近 7 年間勤務した同社を退職する決断を発表しました。
OpenAI 研究安全担当副社長 (VP) のリリアン・ウェン氏は、同社の AI 安全担当者の相次ぐ退職を受けて、金曜日に辞任を発表しました。
ウェン氏は、以前は Twitter だった X への投稿で、7 年後に OpenAI を離れると述べました。 2018 年に入社した彼女は、OpenAI の責任ある AI 戦略の重要な側面である安全システムの確立において重要な役割を果たしました。
「2018 年に OpenAI に入社したとき、ロボット工学に取り組むことに興奮していました。私たちには小さいながらも強力なチームがありました」と Weng 氏は書いています。 「私たちはロボットハンドをプログラムしてルービックキューブを解き、ドローンの群れが森の中を飛ぶようにプログラムしました。」
彼女の辞任は、Superalignment チームの共同リーダーである Jan Leike 氏と Ilya Sutskever 氏を含む、OpenAI の AI 安全性チームの数人のメンバーの最近の辞任に続くものです。このチームは超インテリジェント AI を管理する任務を負っていましたが、彼らの退職により、AI の安全性に対する同社の取り組みに対する懸念が生じています。
ウェン氏は投稿の中で、OpenAI での勤務に感謝の意を表し、安全システム チームの成長と成果に対する誇りを表明しました。
「セーフティ システム チームが一緒に達成してきたすべてのことをとても誇りに思います。そして、彼らはこれからも素晴らしいことを成し遂げていくでしょう。」と彼女は付け加えました。
以上がOpenAIの安全担当副社長リリアン・ウェン氏が新たな挑戦の必要性を理由に辞任の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。