AI リスク評価: AI リスクの進化する状況をマッピングする競争

WBOY
リリース: 2024-08-16 18:11:14
オリジナル
712 人が閲覧しました

最近の研究では、AI モデルが存在するリスクに基づいてランク付けされており、幅広い動作とコンプライアンス問題が明らかになりました。この研究は、これらのテクノロジーの法的、倫理的、規制上の課題についての洞察を提供することを目的としています。この結果は、政策立案者や企業が AI を安全に導入する際の複雑な問題を解決するための指針となる可能性があります。

AI リスク評価: AI リスクの進化する状況をマッピングする競争

最近の研究では、AI モデルが提示するリスクに基づいて AI モデルをランク付けし、幅広い行動やコンプライアンス問題に焦点を当てています。この研究は、これらのテクノロジーの法的、倫理的、規制上の課題についての洞察を提供し、政策立案者や企業が AI を安全に導入する際の複雑な問題を乗り越えられるように導くことを目的としています。

潜在的なリスクを特定するために AI システムをテストすることで知られるシカゴ大学の准教授、Bo Li 氏が研究を主導しました。彼のチームは、いくつかの大学や企業と協力して、AI モデルを大規模に評価するために AIR-Bench 2024 と呼ばれるベンチマークを開発しました。

この研究では、さまざまなモデルが安全性と規制基準にどのように準拠しているかにばらつきがあることが特定されました。たとえば、一部のモデルは特定のカテゴリで優れていました。 Anthropic の Claude 3 Opus は、サイバーセキュリティの脅威の生成を拒否することに特に優れていましたが、Google の Gemini 1.5 Pro は、同意のない性的画像の生成を回避する点で優れた性能を発揮しました。これらの調査結果は、関与するリスクに応じて、特定のモデルが特定のタスクにより適していることを示唆しています。

その一方で、一部のモデルは全体的にはうまくいきませんでした。この調査では、Databricks が開発したモデルである DBRX Instruct が、さまざまなリスク カテゴリ全体で一貫して最悪のランクにランクされています。 Databricks が 2023 年にこのモデルをリリースしたとき、同社は安全機能の改善が必要であることを認めました。

研究チームはまた、さまざまな AI 規制が企業ポリシーとどのように比較されるかを調査しました。彼らの分析では、企業の政策は政府の規制よりも包括的な傾向にあることが明らかになり、規制の枠組みが業界標準より遅れている可能性があることが示唆されました。

「政府の規制を強化する余地はある」と薄力氏は述べた。

多くの企業が AI の使用に関して厳格なポリシーを導入しているにもかかわらず、研究者らはこれらのポリシーと AI モデルのパフォーマンスとの間に矛盾があることを発見しました。いくつかの例では、AI モデルが、それを開発した企業が設定した安全性と倫理的なガイドラインに準拠していませんでした。

この矛盾は、企業を法的リスクや風評リスクにさらす可能性がある、ポリシーと慣行との間にギャップがあることを示しています。 AI が進化し続けるにつれて、テクノロジーを安全かつ責任を持って導入するために、このギャップを埋めることがますます重要になる可能性があります。

AI リスク状況をより深く理解するための他の取り組みも進行中です。 MIT の 2 人の研究者、ニール トンプソンとピーター スラッテリーは、43 の異なる AI リスク フレームワークを分析することにより、AI リスクのデータベースを開発しました。この取り組みは、企業や組織が AI に関連する潜在的な危険性を評価できるようにすることを目的としています。特に、AI テクノロジーがより広範囲に導入される場合に当てはまります。

MIT の調査は、一部の AI リスクが他のリスクよりも注目されていることを浮き彫りにしています。たとえば、チームがレビューしたリスク フレームワークの 70% 以上は、プライバシーとセキュリティの問題に焦点を当てていました。しかし、誤った情報などの問題に対処するフレームワークは少なく、約 40% でした。この差異は、組織がより顕著な懸念事項に焦点を当てているため、特定のリスクが見落とされている可能性があることを示している可能性があります。

「多くの企業はまだ AI 導入の初期段階にあり、これらのリスクの管理についてさらなるガイダンスが必要になるかもしれません」と、MIT の FutureTech グループでプロジェクトを率いるピーター・スラッテリー氏は述べています。このデータベースは、AI 開発者とユーザーに課題をより明確に提供することを目的としています。

以前のバージョンよりも強力な Meta の Llama 3.1 など、AI モデルの機能が進歩しているにもかかわらず、安全性の向上は最小限です。 Bo Li 氏は、Llama の最新バージョンは機能が向上しているものの、安全性の点で大幅な強化は見られていないと指摘しました。

「安全性は大幅に改善されていません」と Li 氏は述べ、安全で責任ある導入のために AI モデルを優先順位付けして最適化するという業界内の広範な課題を反映しています。

以上がAI リスク評価: AI リスクの進化する状況をマッピングする競争の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:php.cn
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート
私たちについて 免責事項 Sitemap
PHP中国語ウェブサイト:福祉オンライン PHP トレーニング,PHP 学習者の迅速な成長を支援します!