欧州の新たな人工知能法案は倫理審査を強化する
EU が人工知能法案の施行に向けて進むにつれて、偏見、透明性、説明可能性などの AI の倫理問題がますます重要になっており、この法案はこれらを効果的に規制します。あらゆる業界にわたる機械学習テクノロジー。 AIの専門家らは、AIユーザーにとって今が倫理概念に慣れる良い機会だと述べている。
昨年導入された欧州の最新版人工知能法の見直しプロセスは急速に進んでおり、早ければ2023年にも施行される可能性がある。この法律はまだ策定中だが、欧州委員会は人工知能の規制を前進させる準備ができているようだ。
たとえば、法律は人工知能システムの使用に関する新しい要件を定め、特定のユースケースを完全に禁止します。自動運転車や教育、移民、雇用のための意思決定支援システムで使用されるシステムなど、いわゆるハイリスク AI システムでは、ユーザーは AI アプリケーションの影響評価と監査を実施する必要があります。一部の AI ユースケースはデータベースで綿密に追跡されますが、その他のユースケースでは使用前に外部監査人の承認が必要になります。
ペンシルバニア州ニュータウンに本拠を置くソフトウェアエンジニアリング会社EPAM Systemsのデータ分析コンサルティングディレクターであるニック・カレル氏は、MLOps業務やデータサイエンスコンサルティング業務の一環として、説明不可能性と解釈可能性が強く求められていると述べた。 。 EUの人工知能法案も企業に対し、倫理的なAIに関する洞察と答えを求めるよう求めていると同氏は述べた。
「現在、ML Ops と呼ばれるもの、つまり機械学習モデルを運用する科学に対する需要が非常に高まっています。私たちは倫理的な AI がそのプロセスの重要な基盤の 1 つであると強く考えています」とカレル氏は述べました。 「顧客から追加のリクエストがあります...今年末に人工知能システムに関して施行される EU の法律について知り、備えをしたいと考えているからです。」
説明不可能性と説明可能性は、別々ではあるが関連する概念。モデルの解釈可能性は、人間がモデルがどのような決定を下すかを理解および予測できる程度を指しますが、説明可能性は、モデルが実際にどのように機能するかを正確に説明する能力を指します。 EPAM Systems のデータ サイエンスと機械学習の責任者である Andrey Derevyanka 氏は、一方を他方なしで実現できると述べています。
「あなたが何か実験をしていると想像してください。2 つの液体を混合する化学実験かもしれません。この実験は解釈の余地があります。なぜなら、ここで何をしているのかがわかるからです。あなたがアイテムを 1 つ取り、さらに別のアイテムを取り出すと、次の結果が得られます。結果です」とデレビャンカ氏は語った。 「しかし、この実験を解釈可能にするには、化学反応を知る必要があり、反応がどのように生成され、どのように機能するかを知り、プロセスの内部詳細を知る必要があります。」
Derevyanka氏は、特にディープラーニングモデルは説明できるが、特定の状況を説明することはできないと述べた。 「ブラックボックスがあり、それは特定の方法で機能しますが、中に何が入っているかはわかりません」と彼は言いました。 「しかし、説明することはできます。この入力を与えると、この出力が得られます。」
バイアスの排除
倫理的 AI に関しては、バイアスももう 1 つの重要なトピックです。データからバイアスを完全に排除することは不可能ですが、AI モデルからバイアスを排除するために組織が取り組むことが重要であると、EPAM Systems のデータおよび AI プラクティスの責任者である Umit Cakmak 氏は述べています。
「これらのことは時間をかけて分析する必要があります」とカクマク氏は語った。 「これはプロセスです。過去のデータにはバイアスが組み込まれているためです。データからバイアスを取り除く方法はありません。したがって、企業として、意思決定が時間の経過とともにより適切になるように、いくつかの特定のプロセスを設定する必要があります。そうすることで、意思決定の質が向上します。」
欧州連合 SMART 法における人工知能の使用は、次のように分類されます。リスク AI モデルが偏ったデータに基づいて誤った決定を下すことはないと信頼することが重要です。
カクマク氏は、従業員のパフォーマンスを評価したり、履歴書から求職者を選択するために使用されるモデルに人種的偏見が現れるなど、自動化された意思決定システムにデータバイアスが漏洩した例が文献に多数あると述べた。モデルがどのように結論に達するかを示すことができることは、モデル内のデータの偏りを排除するための手順が講じられていることを示すために重要です。
カクマク氏は、説明可能性の欠如により、ある医療会社ががん診断用に開発された AI システムを放棄するに至った経緯を思い出します。 「AIはある程度機能したが、その後、アルゴリズムに対する信頼と信頼を築くことができなかったため、プロジェクトは中止された」と同氏は語った。 「なぜ結果が起こったのか説明できなければ、治療を進めることはできません。」
EPAM Systems は、企業が信頼できる方法で人工知能を導入するのを支援します。同社は通常、データの収集方法から始まり、機械学習モデルの準備方法、モデルの検証と解釈の方法に至るまで、特定の一連のガイドラインに従っています。 AI チームがこれらのチェック、つまり「品質ゲート」を確実に通過し文書化することが、倫理的な AI の重要な要素であるとカクマク氏は述べています。
倫理および人工知能法
ボストン コンサルティング グループの Global GAMMA 担当最高 AI 倫理責任者である Steven Mills 氏は、最大手で最も経営が優れている企業は責任ある AI の必要性をすでに認識していると述べました。
しかし、AI法案の成立が近づくにつれて、変化する規制環境や新たな期待に反しないように、世界中でより多くの企業が責任あるAIプロジェクトを加速させることになるでしょう。
「AI の導入を始めた多くの企業が、潜在的な予期せぬ結果すべてについて期待しているほど期待していないことを認識しており、できるだけ早くそれに対処する必要がある」 「これが最も重要なことです。人々は、自分たちがただ行き当たりばったりでそれを応用しているだけだとは思っていません。」
AI を倫理的な方法で実装するというプレッシャーは、組織のトップ。場合によっては、AIが悪用されて投資リスクが損なわれることを望まない外部投資家からの相談もある、とミルズ氏は言う。
「公開企業であろうとベンチャーファンドであろうと、投資家が AI が責任を持って構築されていることを確認したいという傾向が見られます。」と彼は言いました。 「これは誰にとっても明らかなことです。しかし、舞台裏では、これらのベンチャーキャピタル企業の一部は、これらのスタートアップが正しい方法で物事を進めているかどうかを確認するために、どこに資金を投入するかを考えています。」
カレル氏は次のように述べています。人工知能法も現時点では曖昧ですが、この法律は人工知能の使用を明確にする可能性があり、それは企業と消費者の両方に利益をもたらすでしょう。
「私の最初の反応は、これは非常に厳密なものになるだろうということでした」と、EPAM Systems に入社する前は金融サービス業界で機械学習モデルを実装していた Carrel 氏は言いました。 「私は何年も金融サービスの意思決定の限界を押し広げようとしてきましたが、突然、私たちの仕事を損なう法案が出てきました。
しかし、彼は保留中の問題に目を向ければ見るほど、
「これにより、さまざまな業界での人工知能の使用に対する国民の信頼も徐々に高まると思います」とカレル氏は語った。 EU の諜報システム、つまり、使用されているすべての AI 高リスク システムの明確なリストがどこかにあることを知っているということです。これにより、監査人に多くの権限が与えられ、いたずらっ子や悪いプレイヤーが徐々に罰せられることになり、より良い目的のために AI や機械学習を利用したい人たちに、時間の経過とともにより多くの機会が創出されることを期待しています。責任あるやり方。 「
以上が欧州の新たな人工知能法案は倫理審査を強化するの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









機械学習とデータ サイエンスの分野では、モデルの解釈可能性が常に研究者や実務家に焦点を当ててきました。深層学習やアンサンブル手法などの複雑なモデルが広く適用されるようになったことで、モデルの意思決定プロセスを理解することが特に重要になってきました。 Explainable AI|XAI は、モデルの透明性を高めることで、機械学習モデルに対する信頼と自信を構築するのに役立ちます。モデルの透明性の向上は、複数の複雑なモデルの普及や、モデルを説明するための意思決定プロセスなどの方法によって実現できます。これらの方法には、特徴重要度分析、モデル予測間隔推定、ローカル解釈可能性アルゴリズムなどが含まれます。特徴重要度分析では、入力特徴に対するモデルの影響度を評価することで、モデルの意思決定プロセスを説明できます。モデルの予測間隔の推定

この記事では、学習曲線を通じて機械学習モデルの過学習と過小学習を効果的に特定する方法を紹介します。過小適合と過適合 1. 過適合 モデルがデータからノイズを学習するためにデータ上で過学習されている場合、そのモデルは過適合していると言われます。過学習モデルはすべての例を完璧に学習するため、未確認の新しい例を誤って分類してしまいます。過適合モデルの場合、完璧/ほぼ完璧なトレーニング セット スコアとひどい検証セット/テスト スコアが得られます。若干修正: 「過学習の原因: 複雑なモデルを使用して単純な問題を解決し、データからノイズを抽出します。トレーニング セットとしての小さなデータ セットはすべてのデータを正しく表現できない可能性があるため、2. 過学習の Heru。」

平たく言えば、機械学習モデルは、入力データを予測された出力にマッピングする数学関数です。より具体的には、機械学習モデルは、予測出力と真のラベルの間の誤差を最小限に抑えるために、トレーニング データから学習することによってモデル パラメーターを調整する数学関数です。機械学習には、ロジスティック回帰モデル、デシジョン ツリー モデル、サポート ベクター マシン モデルなど、多くのモデルがあります。各モデルには、適用可能なデータ タイプと問題タイプがあります。同時に、異なるモデル間には多くの共通点があったり、モデル進化の隠れた道が存在したりすることがあります。コネクショニストのパーセプトロンを例にとると、パーセプトロンの隠れ層の数を増やすことで、それをディープ ニューラル ネットワークに変換できます。パーセプトロンにカーネル関数を追加すると、SVM に変換できます。これです

1950 年代に人工知能 (AI) が誕生しました。そのとき、研究者たちは、機械が思考などの人間と同じようなタスクを実行できることを発見しました。その後、1960 年代に米国国防総省は人工知能に資金を提供し、さらなる開発のために研究所を設立しました。研究者たちは、宇宙探査や極限環境での生存など、多くの分野で人工知能の応用を見出しています。宇宙探査は、地球を超えた宇宙全体を対象とする宇宙の研究です。宇宙は地球とは条件が異なるため、極限環境に分類されます。宇宙で生き残るためには、多くの要素を考慮し、予防策を講じる必要があります。科学者や研究者は、宇宙を探索し、あらゆるものの現状を理解することが、宇宙の仕組みを理解し、潜在的な環境危機に備えるのに役立つと信じています。

C++ の機械学習アルゴリズムが直面する一般的な課題には、メモリ管理、マルチスレッド、パフォーマンスの最適化、保守性などがあります。解決策には、スマート ポインター、最新のスレッド ライブラリ、SIMD 命令、サードパーティ ライブラリの使用、コーディング スタイル ガイドラインの遵守、自動化ツールの使用が含まれます。実践的な事例では、Eigen ライブラリを使用して線形回帰アルゴリズムを実装し、メモリを効果的に管理し、高性能の行列演算を使用する方法を示します。

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

MetaFAIR はハーバード大学と協力して、大規模な機械学習の実行時に生成されるデータの偏りを最適化するための新しい研究フレームワークを提供しました。大規模な言語モデルのトレーニングには数か月かかることが多く、数百、さらには数千の GPU を使用することが知られています。 LLaMA270B モデルを例にとると、そのトレーニングには合計 1,720,320 GPU 時間が必要です。大規模なモデルのトレーニングには、これらのワークロードの規模と複雑さにより、特有のシステム上の課題が生じます。最近、多くの機関が、SOTA 生成 AI モデルをトレーニングする際のトレーニング プロセスの不安定性を報告しています。これらは通常、損失スパイクの形で現れます。たとえば、Google の PaLM モデルでは、トレーニング プロセス中に最大 20 回の損失スパイクが発生しました。数値的なバイアスがこのトレーニングの不正確さの根本原因です。
