「私たちは物事をありのままに見るのではなく、自分が見たとおりに物事を見ているだけです。」彼女は、私たちの脳に伴うさまざまな不幸な偏見について非常に簡潔に説明しています。
ビジネスの場面では、親和性バイアス、確証バイアス、帰属バイアス、ハロー効果など、よく知られているこれらの推論エラーのいくつかは、実際には表面上に現れるだけです。の。集合的に、彼らは違反と間違いの痕跡を残します。
もちろん、最も有害な人間の偏見は、年齢、人種、性別、宗教、または外見に基づいて、仲間の人間や私たちに対して偏見を抱くものです。これらの歪みから私たち自身、職場環境、社会を浄化しようと努めているにもかかわらず、それらは依然として私たちの思考や行動に浸透しており、これには人工知能などの現代テクノロジーも含まれています。
AI が採用、ローン承認、保険料モデリング、顔認識、法執行機関、その他の多数のアプリケーションに初めて導入されて以来、批評家たちはテクノロジーの偏った傾向を(かなりの正当性をもって)指摘した。
たとえば、Google の新しい言語モデル BERT (Bidirectional Encoder Representations from Transformers) は、開発者が独自の AI を構築するために使用できる主要な自然言語処理 (NLP) モデルです。 BERT は元々、Wikipedia のテキストを主なソースとして使用して構築されました。これには何か問題がありますか? Wikipedia の寄稿者は圧倒的にヨーロッパと北アメリカの白人男性です。その結果、言語ベースの AI の最も重要な情報源の 1 つは、その開始時に偏った視点を持っていました。
同様の問題は、人工知能開発のもう 1 つの重要な分野であるコンピューター ビジョンでも見つかりました。顔認識データセットには、何十万もの注釈付きの顔が含まれており、サイバーセキュリティ、法執行機関、さらには顧客サービスのための顔認識アプリケーションを開発するのに不可欠です。しかし、開発者 (おそらくほとんどが白人の中年男性) は、そのような人々に対して、無意識のうちに精度を達成するのが得意であることが判明しました。女性、子供、高齢者、有色人種は中年の白人男性よりも誤り率がはるかに高かった。その結果、IBM、アマゾン、マイクロソフトは、バイアスが容疑者の誤認につながる可能性があるとの懸念から、2020年に法執行機関への顔認識技術の販売を中止せざるを得なくなった。
さらに詳しく知りたい場合は、重要で、時にはゾッとするドキュメンタリー「Coded Bias」をご覧ください。
ただし、AI におけるバイアス現象をよりよく理解すると、AI は単に既存のものを暴露し、増幅しているだけであることがわかります。無視されたり、暗黙の偏見に対する誤解が生じたりします。 AI 自体は、肌の色、性別、年齢、その他の偏見の影響を受けません。人間を悩ませる論理的誤りや認知バイアスの影響を受けにくくなります。 AI にバイアスが見られる唯一の理由は、人間がヒューリスティック エラーや偏ったデータを使用して AI をトレーニングすることがあるためです。
上記のバイアスが発見されて以来、すべての大手テクノロジー企業はデータセットを改善し、バイアスを排除するために懸命に取り組んできました。 AI の偏見を排除する 1 つの方法は? — 人工知能を使用することです! それが可能性が低いと思われる場合は、引き続き探索してみましょう。
典型的な例は、求人案件に見られます。女性と有色人種は、最も切望される雇用の機会において過小評価されていることで知られています。この現象は、新入社員が採用担当の上級リーダーになるにつれて永続的に発生します。親和性バイアスは「私のような人」が雇用され続けることを保証しますが、帰属バイアスは過去の従業員のパフォーマンスに基づいてそれらの選択を正当化します。
しかし、採用において人工知能がより大きな役割を果たすようになれば、状況は変わるかもしれません。 Textio、Gender Decoder、Ongig などのツールは、人工知能を使用して性別やその他の特性に関する隠れた偏見を精査します。 Knockri、Ceridian、Gapjumpers は人工知能を使用して、性別、出身国、肌の色、年齢などの識別特性を削除または無視するため、採用担当者は候補者の資格と経験のみに集中できます。これらのソリューションの中には、候補者のソフトスキルを客観的に評価したり、候補者の電話の声を変更して性別を隠すことにより、面接プロセスにおける最新性バイアス、親和性バイアス、性別バイアスを軽減するものもあります。
同様のアプローチはベンチャー キャピタルの世界でも採用できます。ベンチャーキャピタルの世界では、男性はパートナーの80%を占め、女性は新規スタートアップの40%の創業者であるにもかかわらず、投資のわずか2.2%しか受け取っていない。たとえば、英国のスタートアップ アクセラレーターである Founders Factory は、スタートアップの成功の特定可能な特徴に基づいてプログラム候補を選別するソフトウェアを作成しました。同様に、女性が経営する非営利団体 F4capital は、リスク意思決定プロセスにおけるバイアスを排除するために、スタートアップの成熟度、機会、リスクを評価するために、スタートアップ向けの FICO スコアを開発しました。このアプローチは広く採用されるべきです。倫理的な行為であるだけでなく、AI の助けを借りずに投資するよりも 184% 高い収益が得られるからでもあります。
人工知能は、医療分野でより適切な意思決定を行うのにも役立ちます。たとえば、医療診断会社 Flow Health は、医師が患者を診断するためによく使用する認知バイアスを克服するために人工知能を使用することに取り組んでいます。たとえば、「可用性ヒューリスティック」は医師に一般的ではあるが時には誤った診断を下すよう奨励する一方、「アンカーヒューリスティック」は、新しい情報が医師と矛盾する場合でも、医師が誤った初期診断に固執するようにします。人工知能は、急速に進化するデータ主導の個別化医療の世界において重要な部分を占めると私は信じています。
人工知能は、悪性度は低いものの、ビジネス上の判断を曇らせる非常に強力なバイアスを軽減するのにも役立ちます。英語で公開されている情報に対する(英語圏の)偏見、知識や経験が豊富であるにもかかわらず高齢者に対する新興企業の偏見、製造業界では、新しい、おそらくより良いアプローチを試すのではなく、同じサプライヤーと同じ方法を使用する傾向について考えてください。 。経済的に厳しい時期には、サプライチェーンの幹部やウォール街の投資家は感情に基づいて短期的な意思決定を下すことを忘れないでください。
これらすべての分野で AI を活用すると、意思決定における認識されていないバイアスを効果的にチェックできます。
間違いを犯すのが人間の本性である場合、隠れた偏見の結果を回避するために人工知能が必要な解決策になる可能性がありますコストがかかり、非倫理的結果。しかし、これらのバイアスが AI 自体に及ぼす干渉はどうなるのでしょうか? AI がバイアスのあるデータを誤読し、バイアスのある人間のヒューリスティックを増幅させるとしたら、AI はどのようにして有用なソリューションになり得るでしょうか?
現在、忍び寄る暗黙の人間バイアスとデータ バイアスを排除するように設計されたツールが存在します。 AIに。 Google の People and AI Research チーム (PAIR) によって開発された What-If ツールを使用すると、開発者は「公平性メトリクス」の広範なライブラリを使用して AI のパフォーマンスを調査できます。一方、PWC の Bias Analyzer ツール、IBM Research の AI Fairness 360 ツール、およびO'Reilly の LIME ツールはそれぞれ、AI コードにバイアスが存在するかどうかを特定するのに役立ちます。
もしあなたが、人工知能が組織内の偏見を減らす方法を検討している上級経営者や取締役会のメンバーであるなら、人工知能を自分の兵器庫の有望な新しい武器として検討することをお勧めします。それは問題を完全に解決する万能薬です。全体的かつ実践的な観点から、偏見を軽減するためのベースラインを確立し、隠れた偏見を認識して回避できるように従業員を訓練し、顧客、サプライヤー、コンサルタントから外部のフィードバックを収集する必要があります。偏ったレビューは良い考えであるだけでなく、場合によっては法律にさえなりかねません。
以上が人工知能は偏見をなくすのに役立つでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。