英国情報コミッショナー (ICO) は最近、テクノロジー リーダーに対し、感情分析 AI ツールは購入しないことが最善であると警告を発しました。このテクノロジーは人々が考えているほど効果的ではなく、AI への偏見や差別にもつながる可能性があるからです。このテクノロジーを導入する企業は、テクノロジーの有効性を証明できない限り、データ規制当局からの精査や監視に直面する可能性がある。
感情分析テクノロジーは、視線追跡、感情分析、顔の動き、歩行分析、心拍数、表情、皮膚水分レベルなどを含む多くの生体認証データポイントを使用して、このデータを使用して誰かの感情状態を判断または予測すること。
英国情報コミッショナーの副情報コミッショナーであるスティーブン・ボナー氏は、問題はこの方法が実際に機能するという証拠がなく、信頼性が低いという証拠がたくさんあることだと述べた。企業が感情分析 AI ツールを使用した調査結果に依存すると、損害を引き起こす可能性のある誤った結果が得られる可能性が高くなります。
同氏は、企業が感情分析AIツールを業務に使用している場合、調査の敷居は「非常に低くなる」と警告した。
「新しいテクノロジーが推進されると、人々は『様子見して双方の理解を得よう』と考えることがありますが、私たちは他の正当な生体認証テクノロジーでも絶対にそうします。しかし、センチメントに関する限り、AI を分析する, このテクノロジーが機能するという正当な証拠はありません。私たちはこの問題を非常に注意深く監視しており、より迅速に強力な措置を講じる用意があります。これが価値があることを皆に証明する責任は、これを利用することを選択した人たちにあります。なぜなら推定無罪には科学的根拠がまったくないようだからだ」と彼は付け加えた。
感情分析 AI は状況によっては役立ちます
しかし、ボナー氏は、ウェアラブルの提供など、このテクノロジーがユースケースとして適用または提案されている例があると述べました。従業員の気分や健康状態を監視するツールや、さまざまなデータポイントを使用して潜在的な健康上の問題を記録および予測するツール。
しかし、感情的な手がかりを検出するための未熟なアルゴリズムは、体系的な偏見、不正確さ、差別のリスクにつながります。このテクノロジーは、潜在意識の行動や感情の反応を含む大量の個人データの収集、保存、処理に依存しています。このデータの使用には、個人の検証または識別に使用される従来の生体認証技術よりもはるかに高いリスクが伴います。
英国情報コミッショナーはそのようなテクノロジーの使用を禁止したわけではなく、そのようなテクノロジーを導入する企業はリスクを伴うため精査されるだろうと警告を発しただけであることに注意する必要があります。明確なステートメントがある限り、ユーザーはそれをギミックまたはエンターテイメント ツールとして使用できます。
ボナー氏は、「生体認証の測定と結果の意図の推測には多少の違いがあります。人のストレスレベルが声から検出できるのは当然だと思います。しかし、この時点からはステップになるでしょう」と述べた。彼が詐欺師だというには言い過ぎです。誰が動揺しているかを判断するために AI を使用することを禁止するつもりはありませんが、一部の人々が動揺しているだけで、生体認証を通じて詐欺をしようとしていると推測しないのであれば、
生体認証技術の業界を超えた影響
生体認証技術は、金融サービスに至るまで、さまざまな業界分野に大きな影響を与えると予想されています企業は、人の身元を確認するために顔認識を使用したり、サービスにアクセスするためにパスワードの代わりに音声認識を使用したりしています。
英国情報コミッショナーは、エイダ・ラブレス研究所および英国青少年評議会と協力して、新しい生体認証ガイダンスを開発しています。このガイダンスは「人間中心」のものとなり、来春発表される予定だ。
アラン・チューリング研究所の倫理研究者であるマイリ・エイトケン博士は、英国情報コミッショナーの警告を歓迎したが、これらのシステムの開発を検討し、開発者が倫理的な方法で行動し、作成および使用することを確認することも重要であると述べた。必要な場所にツールを。
彼女は次のように述べました。「テクノロジーや新しいアプリケーションの開発に対する倫理的アプローチは、コミュニティ内の誰が影響を受けるかということから始まり、それが展開される状況において実際に適切であるかどうかを確認するプロセスに彼らを巻き込む必要があります」 . . このプロセスにより、私たちが予期していなかった危険に気づく機会が得られます。」
感情検出 AI は実際に害を及ぼすリスクです
エイトケン博士は、このような AI モデルが引き起こす可能性のある害は、特に予測モデルの構築時に開発されたモデルに適合しない可能性のある人々にとっては甚大であると述べました。 「これは、このようなことをどのように自動化し、文化の違いや感情の違いを考慮できるようにするかを考え始めるには、非常に複雑な分野です。」
エイトケン博士は、AI システムは次のように指摘しました。さまざまな状況でどのような感情反応が適切であるかを判断することは困難です。「感情を表現する方法は、一緒にいる人や状況によって大きく異なります。また、これらの AI システムが適切に感情を表現できるかどうかを検討する必要もあります。」人々の感情表現を捉えます。」
ボナー氏は、エンターテイメントで感情的な AI ツールを使用することによる害は最小限であると述べましたが、エイトケン博士は、人々がテクノロジーに慣れて実際に機能すると思い込んでしまうなど、この使用例には独自のリスクがあると警告しました。
ボナー氏は、感情 AI に関する問題は、非常に多くのデータ ポイントと各個人間の差異があり、1 つの理想的なモデルを開発するのが難しいことであると付け加えました。 。これは、このテクノロジーに関するいくつかの研究論文で実証されています。 「もし誰かが『私たちは問題を解決したので正確な予測ができる』と言ったら、その人は驚くようなことをするかもしれませんが、私はそんなことは起こらないと思います。」
以上が英国情報コミッショナーが警告:感情分析AIツールは信頼性が高く効果的な選択肢ではないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。