人工知能 (AI) には、従来のエンジニアリング システムから医療、芸術やエンターテイメントの創造的なプロセスに至るまで、社会のあらゆる側面を改善する革新をもたらす大きな可能性があります。たとえば、ハリウッドでは、スタジオは人工知能を使用して脚本のバイアスを明らかにし、測定しています。プロデューサーや脚本家がより公平でより包括的なメディアを作成するために必要なツールです。
ただし、AI の賢さはトレーニングに使用されたデータに依存し、そのデータには現実のバイアスが反映されます。固定観念と独占性の永続を避けるために、技術者は現実の生活とイノベーションにおける公平性と包括性の問題に取り組んでいます。
技術者が AI を使用して業界の慣行や日常生活を最適化する人間中心のソリューションを見つけようとしているとき、意図しない結果をもたらす可能性がある人間の生得的なバイアスに留意することが重要です。重要な。
「人間として、私たちは非常に偏見を持っています」と、デロイト AI インスティテュートのグローバル リーダーであり、デロイトのテクノロジーおよび AI 倫理のリーダーであるアマナス氏は述べています。 「これらの偏見がシステムに組み込まれているため、過小評価されている少数派や特定のツールを利用できない人々など、社会の一部が取り残される可能性があり、それが世界の不平等の拡大につながる可能性があります。」
システムが偏ったデータでトレーニングされていた場合、または研究者が自分たちの視点が研究の方向性にどのような影響を与えるかを考慮できなかった場合、出発点は良いプロジェクトであり、公平な成果を生み出したり、過去の不平等を緩和したりすることになる可能性があります。偏った。
アマナス氏は、これまでのところ、AIのバイアスに対する調整は通常、偏ったアルゴリズムの発見や過小評価されている人口統計の出現に事後的に対応するものであると述べた。しかし、企業は今後、先を見越してこれらの問題を早期に軽減し、AI への取り組みにおける失敗の責任を負う方法を学ばなければなりません。
人工知能では、バイアスはアルゴリズム バイアスの形で現れます。 「アルゴリズムのバイアスは、AI モデルの構築における一連の課題です」と、HP Labs のチーフ アーキテクトであり、Hewlett Packard Enterprise (HPE) の副社長である Kirk Bresniker 氏は説明します。 「私たちのアルゴリズムがさまざまな入力を処理できないため、またはモデルのトレーニングに組み込むのに十分な広範なデータセットを収集していないため、課題に直面する可能性があります。いずれの場合も、十分なデータがありません。」
アルゴリズムバイアスは、不正確な処理、データの変更、または誰かが誤った信号を注入することによっても発生する可能性があります。意図的かどうかにかかわらず、この偏りは、あるグループを優遇したり、別のグループを完全に排除したりする不公平な結果につながる可能性があります。
たとえば、Ammanath 氏は、ビーチサンダル、サンダル、ドレスシューズ、スニーカーなど、さまざまな種類の靴を識別するように設計されたアルゴリズムについて説明しました。しかし、このアルゴリズムがリリースされたとき、このアルゴリズムはハイヒールの女性靴を認識できませんでした。開発チームは最近大学を卒業したばかりのメンバーで構成されており、全員が男性でしたが、女性の立場で開発するなど考えたこともありませんでした。
「これは些細な例ですが、データセットが限られていることがわかりますね」とアマナス氏は言いました。 「ここで、過去のデータを使用して疾病を診断する同様のアルゴリズムについて考えてみましょう。特定の体型、特定の性別、特定の人種向けにトレーニングされていなかったらどうなるでしょうか? その影響は非常に大きいです。」
「Crucially に対して、彼女はこう言いました。その多様性がなければ、特定のシナリオを逃すことになるでしょう。」
シンプル 大規模 (そしてより多様な) データ セットにアクセスすることは、特にデータが集中するにつれて困難な課題になります。データ共有は多くの問題を引き起こしますが、その中で最も重要なのはセキュリティとプライバシーです。
コロラド大学ボルダー校のメディア研究助教授ネイサン・シュナイダー氏は、「現在、個人ユーザーの権限が、データを収集して処理する大企業に比べてはるかに小さい状況に直面している」と述べた。
法律や規制の拡大により、最終的にはデータがいつどのように共有および使用されるかが規定されることになるでしょう。しかし、イノベーションは議員を待ってくれません。現在、AI 開発組織には、データを適切に管理し、個人のプライバシーを保護しながら、アルゴリズムのバイアスを軽減する責任があります。デロイトのアマナス氏は、テクノロジーは急速に成熟するため、考えられるあらゆるシナリオを規制に依存することは不可能だと述べた。 「私たちは、既存の規制への準拠と自主規制のバランスを取る時代に突入します。」
この自主規制とは、データからトレーニング、必要なインフラストラクチャに至るまで、AI ソリューションを構築するテクノロジー サプライ チェーン全体の基準を高めることを意味します。これらのソリューションを可能にするために。さらに、組織は部門を超えて個人が偏見に関する懸念を表明できる手段を設ける必要があります。偏見を完全に排除することは不可能ですが、企業は AI ソリューションの有効性を定期的に監査する必要があります。
AI は非常に状況に依存する性質があるため、自主規制はビジネスごとに異なります。たとえば、HPE は倫理的な AI ガイドラインを開発しました。社内のさまざまな人々が 1 年近くをかけて協力して会社の AI 原則を開発し、それが遵守可能で企業文化に適しているかどうかを確認するために幅広い従業員と一緒にレビューしました。
HPE の Bresniker 氏は次のように述べています。「私たちはこれらの問題について一般的な理解を深め、ベスト プラクティスを収集したいと考えています。それは全員の仕事です。この分野については十分な認識があります。」
人工知能研究開発から実用化、価値創造に至るまで、あらゆる業界でテクノロジーが成熟してきました。 AI の社会への浸透が進んでいることは、企業が強力で包括的でアクセスしやすいソリューションを提供する倫理的責任を負うことを意味します。この責任により、組織はプロセスに取り込んだデータを、場合によっては初めて調査するようになります。 「私たちは、人々がそのようなビジョンを築き、得られるデータに確かな自信を持ってほしいと願っています。彼らには、進行中のシステム的不平等を阻止し、より良い未来に向けて公平な結果を生み出す力があるのです。」とブレスニカー氏は述べました。
以上がより優れた人工知能でより良い社会を構築するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。