専門家の意見: 監視のない AI は倫理的偏見を生み出す

WBOY
リリース: 2023-04-09 14:21:12
転載
929 人が閲覧しました

ビジネスの倫理的ジレンマでは、透明性が重要な役割を果たすことがよくあります。情報が多ければ多いほど、何が許容可能な結果であり、何が許容不可能な結果であるかを判断することが容易になります。財務が正しくない場合、会計上の間違いを犯したのは誰でしょうか?データが侵害された場合、誰がデータを保護する責任を負いますか? 彼らは正しく行動しますか?

専門家の意見: 監視のない AI は倫理的偏見を生み出す

しかし、バグや問題の明確な原因を探しても誰も見つからない場合はどうなるでしょうか?ここで、人工知能は独自の倫理的考慮事項を提起します。

人工知能は組織において大きな可能性を示していますが、依然として問題を探索するための解決策としての役割を果たしています。これは誤解された概念であり、実際のアプリケーションはまだ企業内で完全に実現されていません。多くの企業には真に革新的な方法で AI を適用するための予算、人材、ビジョンが欠けているという事実と相まって、AI は依然としてクリティカルマスに達しておらず、悪用される傾向があります。

しかし、AI が日常のビジネスであまり目に見えないからといって、組織内のどこかで AI が果たすべき役割がないわけではありません。ビジネスにおける他の多くの倫理的ジレンマと同様、人工知能における倫理的欠陥は影で発生することがよくあります。意図的かどうかに関係なく、AI プロジェクトやアプリケーションが倫理的な限界を押し広げた場合、悪夢のような結果が生じる可能性があります。 AI における倫理的欠陥を回避する鍵は、プロジェクトの最初からコーポレート ガバナンスを導入することです。

透明性と信頼性を備えた AI の構築

今では、AI が失敗したよくある例を私たちはよく知っています。肌の色が黒い顧客には適切に機能しない石鹸ディスペンサー、白人にとってはより正確なパルスオキシメーター、さらには犯罪者が刑務所に戻るかどうかを予測するアルゴリズムさえも、すべて人工知能です(おそらく意図的ではありません)。

こうした状況は、悪い見出しやソーシャルメディアの反発を生むだけでなく、テクノロジーが不信の目で見られ続ければ不可能となる、より正当な AI のユースケースを損なうことにもなります。たとえば、ヘルスケアに限っても、AI はがん診断を改善し、再入院のリスクが高い患者にフラグを立てて追加のサポートを求める可能性を秘めています。 AI に対する人々の信頼を築く方法を学ばない限り、これらの強力なソリューションの利点を最大限に活用することはできません。

同僚やビジネス リーダーと AI について話すとき、私は当初から AI の取り組みにおける透明性とガバナンスの考え方を支持してきました。より具体的には、私の提案は次のとおりです:

1. 倫理的な AI は孤立した状態では実現できません

AI アプリケーションが適切に実装されていない場合、重大な波及効果が生じる可能性があります。これは、単一の部門または IT チームが監督なしで AI 主導のプロセスの実験を開始したときによく発生します。チームは、実験が失敗した場合に生じる可能性のある倫理的影響を認識していますか?導入は会社の既存のデータ保持およびアクセス ポリシーに準拠していますか?監督なしでは、これらの質問に答えるのは困難です。

そして、ガバナンスがなければ、倫理上の誤りが発生した場合にそれを正すために必要な関係者を集めることがより困難になる可能性があります。監視はイノベーションに対する障壁ではなく、AI が特定の倫理的境界内で動作することを確認するために必要なチェックであると見なされるべきです。監視は最終的には、CDO を所有する組織の最高データ責任者、または CDO の役割が存在しない場合は最高情報責任者が担当する必要があります。

2. 常に計画を立てる

AI プロジェクトの失敗に関する最悪の見出しには、多くの場合 1 つの共通点があります。質問をしたり、決定について説明したりする。監視することでこの問題を解決できます。 AI に対する理解と健全な哲学が組織の最高レベルにあれば、問題に盲目になる可能性は低くなります。

3. デューデリジェンスとテストは必須です

忍耐強くテストを重ねることで、AI バイアスの多くの古典的な例を軽減できます。手指消毒剤ディスペンサーの例と同様に、企業が自社の新技術を誇示しようとする興奮は、最終的には裏目に出ます。製品が一般にリリースされる前に、さらなるテストによってこの偏りが明らかになる可能性があります。さらに、AI アプリケーションは最初から厳しく審査される必要があります。 AI は複雑で潜在力が不確実であるため、戦略的かつ慎重に使用する必要があります。

4. 人工知能による監視機能を検討する

顧客のプライバシーを保護するために、金融機関は機密ファイルへのアクセスの管理に多大なリソースを投資しています。同社の記録チームは資産を慎重に分類し、適切な職務と部門のみが各資産を閲覧できるようにインフラストラクチャを構築します。この構造は、組織の AI ガバナンス機能を構築するためのテンプレートとして機能します。専任チームは、AI アプリケーションの潜在的なプラスまたはマイナスの影響を推定し、その結果をどのくらいの頻度で誰がレビューする必要があるかを決定できます。

デジタル破壊を求める企業にとって、人工知能の実験は重要な次のステップです。これにより、人間の作業者が日常的な作業から解放され、画像分析などの特定のアクティビティを、これまで経済的に慎重ではなかった方法で拡張できるようになります。しかし、これは軽視できることではありません。 AI アプリケーションは、偏見、倫理的に問題のある決定、悪いビジネス結果を避けるために、慎重に適切な監督のもとに開発する必要があります。組織内で AI の取り組みに関する適切なトレーニングを受けていることを確認してください。最も深刻な道徳的過失は、暗い場所で発生することがよくあります。

以上が専門家の意見: 監視のない AI は倫理的偏見を生み出すの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート