自動化および機械テクノロジー (人工知能や機械学習など) の大幅な成長により、組織に新たな規模とサービス レベルがもたらされたことは間違いありません。
私たち全員が AI に期待する利点の 1 つは、人間主導の偏見を排除し、少数派に対する差別を改善できることです。ただし、適切に管理しない場合、AI はアルゴリズムにバイアスを埋め込むことで差別をさらに強化する可能性があります。
今日では、私たちが住宅ローンの対象となるかどうか、あるいは詐欺と闘う法執行機関や保険会社によって監視されているかどうかを機械が判断することがよくあります。彼らの影響力は、高収入の仕事の求人広告など、オンラインで表示される広告の決定にまで及びます。
自動化システムにおける人工知能が十分に文書化されておらず、理解されていない組織も数多くあります。自動化された意思決定が影から現れて責任を負う時代が来ています。
自動化された意思決定が人々の生活に直接的または間接的に影響を及ぼし、機械が有害な方法で差別する可能性がある場合、組織は立ち上がり、注意を払い、AI が可能な限り倫理的に実装されるように行動を起こさなければなりません。
企業も政府機関も同様に、導入するあらゆるマシン テクノロジーから最高レベルの保護を獲得するよう努める必要があります。自動化プロジェクトの開始時に、組織は法的、プライバシー、倫理的な影響評価を実施して、リスクが完全に理解され、十分に軽減できることを確認する必要があります。これにより、価値を提供しながら許容可能なレベルのリスクを確立するために最も適切なソリューションが選択されることも保証されます。
これらの評価の承認は、展開方法、自動化のレベル、救済の機会など、プロジェクトの問題のある側面に対して拒否権を持つ学際的な客観的なレビュー チームによって実行される必要があります。導入は、データと分析におけるベスト プラクティス倫理を実装するために、データ/テクノロジー チームとビジネス リーダーシップ チームの間で協力するプロセスである必要があります。
オンブズマンのレポートでは、機械テクノロジーの設計と実装における優れた実践に関するいくつかの強力な推奨事項が概説されています。それにも関わらず、私たちはすべての組織が少なくとも次のベスト プラクティスを考慮する義務があると信じています:
あらゆる機械テクノロジーの開発と導入は、サンプル母集団全体で一貫したパフォーマンスを確保するために、履歴データに基づく精度の倫理的レビューから始めて反復的に行う必要があります。一部のグループのパフォーマンスが著しく悪い場合は、すべてのグループを適切に表現するために、より多くのデータを探す必要があります。
有害な結果のリスクが特定された場合は、モデルやシステムのパフォーマンスに自信を持ちながら人間による監視を確実にするための人間参加型ソリューションから始めて、展開も同様に反復的かつ慎重に行う必要があります。
これは、人間の意思決定プロセスが絶対確実であると言っているわけではありません。これは、展開前に出力を理解し、調査する機会を提供するだけです。このプロセスは、人間のバイアスがプロセスに再導入される可能性を減らすために、最も信頼できるオペレーターによって実行される必要があります。さらに、プロセスに関わる全員がアンコンシャス・バイアスのトレーニングを受ける必要があります。
生産開始後は、あらゆる機械テクノロジーの継続的な精度とパフォーマンスを継続的に測定および監視する必要があります。既存の KPI とともに、このパフォーマンスは報告可能であり、組織全体で可視化される必要があります。
アルゴリズムによる意思決定を導入する組織には、定量的および定性的考慮事項の両方を含む客観的な倫理レビュー プロセスが必要です。少数派グループのパフォーマンスの異常や時間の経過に伴うパフォーマンスの変化を理解するために、モデルのパフォーマンスをこれらの倫理的指標に照らして監視する必要があります。その後、運用プロセスの一部として、モデルを継続的に適応させて適応させることができます。
実装は困難に思えるかもしれませんが、組織は人工知能および機械学習プロジェクトにおける倫理的考慮事項の理解と実装を改善する必要があります。企業は、倫理的な結果を確保するために、自動化された意思決定のパフォーマンスと影響を管理するために「問題 - レビュー - 対策 - 改善」アプローチを採用する必要があります。
以上がAI 実装の倫理的な展開を確保するにはどうすればよいでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。