NIST: AI のバイアスはデータそのものをはるかに超えています
現時点では、ほとんどの人工知能が何らかの形で問題のあるバイアスに基づいて構築されており、現在使用していることに異論を唱える人はいないはずです。これは何百回も観察され、証明されてきた課題です。組織にとっての課題は、より優れた偏りのないデータに満足するのではなく、AI のバイアスを根絶することです。
出版物「人工知能におけるバイアスの識別と管理の標準に向けて」(NIST 1270 特別出版物) の大幅な改訂で、昨年の公開コメント期間の後、国家標準技術研究所 (NIST) は、AI のバイアスを明らかにして破壊するために、データだけでなく ML プロセスさえも視野に入れるよう強く主張しました。
著者らは、収集が不十分なデータやラベル付けが不十分なデータを非難するのではなく、AI における偏見の次のフロンティアは「人的および体系的な制度的および社会的要因」であると述べ、A からの移行を推進しています。社会技術的な観点からより良い答えを探します。
「コンテキストがすべてです」と、人工知能のバイアスに関する NIST の主任研究者であり、報告書の著者の 1 人でもあるレバ・シュワルツ氏は述べています。 「AI システムは単独で動作するわけではありません。AI システムは、人々が他の人々の生活に直接影響を与える意思決定を行うのに役立ちます。信頼できる AI システムを開発したいのであれば、AI に対する社会の信頼を損なう可能性のあるすべての要因を考慮する必要があります。これらの要因の中には、次のようなものがあります。私たちがさまざまな人々や組織から受け取ったコメントによって強調されているように、その多くはテクノロジー自体を超えてテクノロジーに影響を与えています。」
AI バイアスの原因 人間およびシステムのバイアスとは何ですか?
NIST のレポートによると、人間は個人と集団という 2 つの大きなカテゴリーに分類され、それぞれのカテゴリーには多くの特有の偏見が存在します。
人間の個人的なバイアスには、自動化されたスキルに過度に依存する自動化の自己満足、暗黙のバイアス、誰かの意思決定に影響を与える無意識の信念、態度、連想、または固定観念が含まれます。また、人々が自分の既存の信念と一致する、または一致する情報を好む確証バイアスもあります。
グループ 人間の基礎には、グループに合わせたい、または意見の相違を避けたいという欲求から、人々が最適ではない決定を下す現象である集団思考、報告が偏っている場合の資金提供バイアスが含まれます。資金提供機関や財政支援者に影響を与える可能性があり、さらに個人/グループの偏見を受ける可能性があります。
組織的バイアスについて、NIST 報告書は、それを歴史的、社会的、制度的バイアスと定義しています。基本的に、長年にわたる偏見は時間の経過とともに社会や制度に成文化され、主に「事実」または「物事のありのまま」として受け入れられています。
これらの偏見が問題となる理由は、AI の導入が今日の組織の働き方にどれほど大きな影響を与えているかにあります。人種的に偏ったデータのせいで、人々は住宅ローンを拒否され、初めて住宅を所有する機会を奪われています。求職者が面接を拒否されているのは、歴史的に女性よりも男性を優遇する採用決定を下すようにAIが訓練されているためである。有望な若い学生は、苗字が過去の成功者と一致しないという理由で、面接や大学への入学を拒否されます。
言い換えれば、バイアスされた AI は、効率的な開口部と同数の鍵のかかったドアを作成します。組織が導入時の偏見を排除するために積極的に取り組んでいない場合、組織の考え方や運営方法に対する深刻な信頼の欠如がすぐに発生することになります。
NIST が推奨する社会技術的な観点とは何ですか?
その核心となるのは、AI アプリケーションの結果は単なる数学的および計算上の入力ではないという認識です。開発者やデータサイエンティストによって作成され、その立場や機関はさまざまであり、いずれも一定のレベルの負担を抱えています。
NIST のレポートには次のように書かれています:「AI への社会技術的アプローチでは、データセットからモデル化された価値観と行動、それらと対話する人間、および複雑な組織的要因が考慮されます。これらの要因が関係しています」 「
NIST は、社会技術的なレンズを通じて、組織がプライバシー、信頼性、堅牢性、セキュリティ、セキュリティ回復力を向上させることができると信じています。」信頼。
彼らの推奨事項の 1 つは、組織がテスト、評価、検証、検証 (TEVV) プロセスを実装または改善することです。特定のデータセットまたはトレーニングされたモデルのバイアスを数学的に検証する方法が必要です。また、AI 開発の取り組みにおいてさまざまな分野や立場からの関与を増やし、さまざまな部門や組織外から複数の関係者を巻き込むことも推奨しています。 「人間参加型」モデルでは、個人またはグループが基本的な ML 出力を継続的に修正します。これはバイアスを排除するための効果的なツールでもあります。
これらの報告書と改訂された報告書に加えて、NIST の人工知能リスク管理フレームワーク (AI RMF) があります。これは、AI システムに関係するリスクを管理するためのコンセンサス主導の一連の推奨事項です。完了すると、AI テクノロジーと製品の透明性、設計と開発、ガバナンスとテストがカバーされます。 AI RMF の最初のコメント期間は過ぎましたが、AI のリスクと緩和策について学ぶ機会はまだたくさんあります。
以上がNIST: AI のバイアスはデータそのものをはるかに超えていますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

先週、社内の辞任と社外からの批判が相次ぐ中、OpenAIは内外のトラブルに見舞われた。 - 未亡人姉妹への侵害が世界中で白熱した議論を巻き起こした - 「覇権条項」に署名した従業員が次々と暴露 - ネットユーザーがウルトラマンの「」をリストアップ噂の払拭: Vox が入手した漏洩情報と文書によると、アルトマンを含む OpenAI の上級幹部はこれらの株式回収条項をよく認識しており、承認しました。さらに、OpenAI には、AI セキュリティという深刻かつ緊急の課題が直面しています。最近、最も著名な従業員2名を含むセキュリティ関連従業員5名が退職し、「Super Alignment」チームが解散したことで、OpenAIのセキュリティ問題が再び注目を集めている。フォーチュン誌は OpenA を報じた。
