人工知能 (AI) はあらゆる業界を変革しており、現在、組織の 3 分の 1 以上が大規模または限定的に AI を生産しています。しかし、他のテクノロジーと同様に、AI には非倫理的な偏見の蔓延、説明責任の希薄化、データ プライバシーの侵害など、重大な経済的および社会的リスクが伴います。
これらのリスクを回避し、責任を持って AI を導入するために、規制政策と業界の両方が、テクノロジーに取り組む実務者とユーザーのためのプロセスと標準を開発する責任があります。この目的を達成するために、Ethical AI and ML Institute のチームは責任ある AI 原則をまとめ、実践者がこれらの原則が実稼働 AI および機械学習システムを取り巻くインフラストラクチャとプロセスに確実に設計によって組み込まれるように支援しました。
この記事では、8 つの原則のうち、バイアス評価、説明可能性、人為的強化、再現性の 4 つを詳しく説明します。
ある意味では、AI モデルは関連する回答を異なる方法で扱うように設計されているため、本質的にバイアスがかかっています。なぜなら、知能の核心は、世界で見られるパターンを認識し、それに基づいて行動する能力だからです。 AI モデルを開発するとき、私たちはこの正確な能力を再現するよう努め、AI が入力されたデータ内のパターンを発見し、それに応じてバイアスを開発するよう促します。たとえば、タンパク質の化学データを研究するモデルには本質的に、構造が特定の方法で折りたたまれるタンパク質に対して関連するバイアスがあり、それによってどのタンパク質が医療における関連するユースケースで有用であるかを発見します。
したがって、AI の偏見に対して声を上げるときは注意が必要です。 AI におけるバイアスの話題になると、一般に、人種、性別、国籍などの保護された特性に基づくバイアスなど、実際には望ましくない、または不合理なバイアスを指します。
しかし、なぜ人工知能モデルは非倫理的なバイアスを生み出すのでしょうか?答えは、入力されるデータによって異なります。モデルは最終的には、デプロイメント前に使用されたトレーニング データに存在するバイアスを反映するため、トレーニング データが代表的でない場合、または既存のバイアスが組み込まれている場合、結果として得られるモデルは最終的にそれらを反映します。コンピューターサイエンスでよく言われるように、「ゴミが入ったらゴミが出てくる」。
チームは、AI トレーニング データの有効性、モデル自体のトレーニングと評価、モデル自体の運用ライフサイクルに関する望ましくないバイアスを適切に特定するための一連のプロセスと手順も作成する必要があります。 。 AI を導入している場合は、次に詳しく説明する Ethical AI and Machine Learning Institute の eXplainable AI フレームワークが参考になる良い例です。
AI モデルが目的に適合していることを確認するには、関連分野の専門家の参加も重要です。これらの人々は、統計や精度主導のパフォーマンス指標だけでなく、AI モデルが適切なパフォーマンス指標を使用していることをチームが確認できるように支援できます。ドメインの専門家には技術的な専門家だけでなく、ユースケースに関連する社会科学や人文科学の専門家も含まれることを強調する価値があります。
ただし、これを効果的にするには、モデルの予測が関連分野の専門家によって確実に解釈できるようにすることも重要です。ただし、高度な AI モデルでは最先端の深層学習技術が使用されることが多く、特定の予測が行われる理由を単純に説明できない場合があります。
この困難を克服するために、組織は AI モデルの予測を解読するために使用できるさまざまな技術やツールを活用して、機械学習の説明可能性を達成する傾向があります。
説明可能性の次には、人工知能モデルの運用化が続きます。今は関係者による調査と監視の時期です。このような AI モデルのライフサイクルは、本番環境に適切にデプロイされた後にのみ始まります。モデルが起動して実行されると、概念的なドリフトやモデルが実行される環境の変化など、外部からの圧力によってモデルのパフォーマンスが低下するだけです。
AI を導入する場合、悪影響のリスクの概要を含め、元の自動化されていないプロセスの現在のニーズを最初に評価することが重要です。これにより、プロセスをより深く理解できるようになり、リスクを軽減するために人間の介入が必要な領域を特定するのに役立ちます。
たとえば、プロのスポーツ選手に食事プランを推奨する AI には、銀行のバックエンドの融資承認プロセスを自動化する AI モデルよりも影響の大きいリスク要因がはるかに少ないため、人間の介入が必要であることがわかります。前者は後者よりも小さくなります。チームが AI ワークフロー内の潜在的なリスク ポイントを特定したら、「ヒューマン マシン ループ」レビュー プロセス (HITL) の実装を検討できます。
HITL は、プロセスを自動化した後も、結果を確認するために人間の介入が必要なさまざまなタッチ ポイントが存在することを保証し、必要に応じて修正を加えたり、決定を覆したりすることを容易にします。このプロセスには、AI モデルによって行われた決定を評価し、ベスト プラクティスに準拠していることを確認するために、技術専門家や業界専門家 (銀行ローンの引受会社や食事計画の栄養士など) のチームが含まれる場合があります。
再現性とは、データ ポイントに対してアルゴリズムを繰り返し実行し、毎回同じ結果を得るチームの能力を指します。これは責任ある AI の中核コンポーネントであり、後の段階で再実行するときにモデルの以前の予測が確実に再公開されるようにするために重要です。
当然のことながら、主に人工知能システムに固有の困難があるため、再現性を達成することは困難です。これは、AI モデルの出力が、次のようなさまざまな背景状況によって異なる可能性があるためです。
これは、特に AI When モデルがデプロイされている場合には複雑な問題です大規模な場合には、他の無数のツールやフレームワークを考慮する必要があります。これを行うには、チームは上記の状況を制御し、再現性を向上させるツールを実装するための堅牢なプラクティスを開発する必要があります。
上記の大まかな原則により、業界は AI を責任を持って使用するためのベスト プラクティスに確実に従うことができます。このような原則を採用することは、AI がその経済的潜在力を最大限に発揮し、脆弱なグループの権利を剥奪したり、非倫理的な偏見を強化したり、説明責任を損なったりしないようにするために重要です。むしろ、それは、成長、生産性、効率、イノベーション、そしてすべての人にとってより大きな利益を促進するために使用できるテクノロジーになる可能性があります。
以上が責任ある AI 導入の実践: 4 つの原則の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。