人工知能 (AI) とは、人間のように考え、行動するようにプログラムされた機械上の人間の知能のシミュレーションを指します。 AI テクノロジーにより、コンピューターは、視覚認識、音声認識、意思決定、言語翻訳など、通常は人間の知能を必要とするタスクを実行できるようになります。
セントラルフロリダ大学産業工学・管理システム学科助教授のオズレム・ガリベイ氏は、人間が克服しなければならない AI の 6 つの主要な課題を特定した研究を主導しました。人間性を向上させ、AI との関係を改善し、その倫理的かつ公正な使用を確保します。
Garibay と他の 26 人の科学者は、AI の信頼性、安全性、信頼性、そして人間の価値観との整合性を確保するために人間が解決しなければならない問題と課題を特定する研究を実施しました。
この研究レポートは、International Journal of Human-Computer Interaction に掲載されました。研究チームが特定した、人類が直面する 6 つの主要な AI の課題は次のとおりです。
AI は、人間の幸福に利益をもたらす実装の機会を特定できる必要があります。 AI と対話する際には、ユーザーの健康をサポートすることも考慮する必要があります。
責任ある AI とは、AI のライフサイクルにおいて人間と社会の幸福を優先するという概念を指します。これにより、AI の潜在的な利点が人間の価値観や優先事項と一致する方法で確実に活用されると同時に、予期せぬ結果や倫理違反のリスクも軽減されます。
個人のプライバシーを確実に保護し、個人またはグループの有害な使用を防止するために、AI システムにおけるデータの収集、使用、配布について慎重に検討する必要があります。
AI システムの人間中心の設計原則では、実践者に明確な情報を提供するフレームワークを使用する必要があります。このフレームワークでは、リスクが非常に低い AI、特別な措置を必要としない AI、リスクが非常に高い AI、禁止されている AI が区別されます。
コンセプトから開発、導入に至る AI ライフサイクルのガバナンス フレームワーク全体を検討する必要があります。
人間と AI システムの間の倫理的で公正な関係を促進するには、人間と AI の間の相互作用は人間の認知能力の尊重に基づいていなければなりません。基本的な原則。具体的には、人間は AI システムの動作と結果に対する完全な制御と責任を維持しなければなりません。
この調査は 20 か月以上にわたって行われ、AI テクノロジーの分野でさまざまな背景を持つ 26 人の国際専門家の意見がまとめられました。
Garibay 氏は次のように述べています:「これらの課題には、倫理、公平性、人間の幸福の向上を優先する人間中心の AI テクノロジーの作成が必要です。これらの課題は、責任ある設計、プライバシー保護など、人間中心のアプローチの採用を促します」 「人間中心設計の原則、適切なガバナンスと監視、人間の認知能力の相互尊重」
まとめると、これらの課題は、科学コミュニティによる AI テクノロジーの開発と実装に向けた行動を求めています。人類を優先し、人類に利益をもたらします。
以上がテクノロジーは両刃の剣、人間は AI に関する 6 つの大きな課題に直面していることが研究で示されていますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。