MicrosoftがAIリスク評価チーム全体を解散したことが明らかになった

王林
リリース: 2023-04-19 12:40:03
転載
1369 人が閲覧しました

MicrosoftがAIリスク評価チーム全体を解散したことが明らかになった

米国現地時間 3 月 14 日月曜日のニュースで、Microsoft が AI リスク評価チーム全体を解散したことが明らかになりました。このチームは正式にはAI倫理および社会チームと呼ばれており、その主な役割はマイクロソフトのAI技術革新が倫理的で責任ある持続可能な結果を​​生み出すよう導くことであると報じられている。最近、チームは Microsoft が OpenAI テクノロジーを自社製品に統合することで起こり得るリスクを評価するために熱心に取り組んでいます。

多くの元および現在の Microsoft 従業員は、この動きの結果、Microsoft には AI 原則が製品設計と密接に統合されていることを確認するための専任チームがなくなるだろうと述べています。 AI ツールを主流にするために熱心に取り組んでいます。しかし、Microsoft は依然として Office of Responsible AI (ORA) と呼ばれるチームを維持しており、同社の AI への取り組みを管理するルールを設定する任務を負っています。 Microsoftは、最近の人員削減にもかかわらず、責任ある仕事への全体的な投資は増加していると述べた。

Microsoft は声明で次のように述べています。「Microsoft は AI 製品と AI エクスペリエンスを安全かつ責任を持って開発し、これらの要素を優先する人材、プロセス、パートナーに投資することでその目標を達成することに取り組んでいます。過去 6 年間にわたって、マイクロソフトの全員とともに、当社の AI 原則を確実に実践する責任を負う製品チームと ORA の人数を増やしてきました。倫理と社会チームの画期的な取り組みに感謝します。今後の継続にご協力ください。

マイクロソフトの従業員は、同社の製品とサービスが責任ある AI の原則に準拠していることを確認する上で、倫理およびソーシャル チームが重要な役割を果たしていると明らかにしました。元従業員は、「人々は ORA が提案する原則を理解していますが、それをどのように適用するかは知りません。私たちの仕事は、それを示し、ルールのない分野でルールを作ることです。」と述べました。 「ジャッジメント コール」と呼ばれるロールプレイング ゲームは、デザイナーが AI がもたらす可能性のある潜在的な害を想像し、製品開発プロセス中にそれについて話し合うのに役立つように設計されました。倫理と社会チームは 2020 年に最大規模に達し、エンジニア、デザイナー、哲学者を含む約 30 人の従業員を抱えていました。しかし、昨年の組織再編でチームはわずか7人にまで削減された。

マイクロソフトの AI ビジネス担当バイスプレジデントであるジョン モンゴメリー氏は、組織再編後のチーム会議で、会社経営陣から迅速に行動するよう指示されたと述べました。モンゴメリー氏は当時、「OpenAIモデルの統合を加速し、その後モデルが顧客の手に渡るよう、CTOのKevin Scott氏とCEOのSatya Nadella氏から多大なプレッシャーを受けている」と述べたと伝えられている。 ## プレッシャーの結果、倫理および社会チームの多くの人々が社内の他の部門に異動することになるだろうとモンゴメリー氏は語った。当時、モンゴメリー氏は、チームは排除されず、「サービスとソフトウェアを構築する個々の製品チーム」にもっと集中する必要があると述べた。その後、チームのほとんどのメンバーが他の部門に異動し、残りの人員は人員不足のため、多くの野心的な計画を実行することができなくなりました。

約 5 か月後、残りの従業員はチーム全体が最終的に解散されることを知らされました。ある従業員は、この動きはユーザーエクスペリエンスとAI製品の全体的な設計に大きな穴を残した、と語った。 「最悪の点は、これを行うことで企業と人々を危険にさらすことです」と彼らは説明し、倫理・社会チームのメンバーは通常、製品開発をサポートするために働いていると述べた。しかし、Microsoft が競合他社よりも早く AI ツールを展開することに注力し始めると、会社経営陣はチームが焦点を当てていた長期的な考え方にあまり関心を持たなくなりました。

Ethics and Society チームが解散される一方で、Microsoft が OpenAI を活用した AI ツールを世界中のユーザーにリリースしたときにどのような影響を与えるかを予測することに他のチームが注目を集めています。昨年のメモの中で、倫理と社会チームは、OpenAI の Dall-E システムを使用してテキスト プロンプトに基づいて画像を作成するツールである Bing の Image Creator に関連するリスクについて詳しく説明しました。このイメージング ツールは 10 月にいくつかの国で発売され、Microsoft と OpenAI の最初の公開コラボレーションの 1 つとなりました。

テキストから画像へのテクノロジは非常に普及していることが証明されていますが、マイクロソフトの研究者は、アーティストの創造的なスタイルを誰でも簡単にコピーできるため、アーティストの生活を脅かす可能性もあると正確に予測しました。さらに、OpenAI は利用規約を更新し、ユーザーに「Dall-E で作成されたイメージの完全な所有権」を与えたが、これは Microsoft の倫理および社会チームを懸念させている。 (シャオシャオ)

以上がMicrosoftがAIリスク評価チーム全体を解散したことが明らかになったの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート