機械学習モデルのトレーニングに使用されるデータのセキュリティを確保するにはどうすればよいですか?
サイバー犯罪者にとって、機械学習モデルのパフォーマンスをリモートで操作して悪影響を与えることは難しくありません。
悪意のあるユーザーは、機械学習トレーニング データを汚染したり、トレーニング データ セット内の機密ユーザー情報に不正にアクセスしたり、同様の問題を引き起こしたりする可能性があります。
機械学習と人工知能の導入は、過去 10 年間で急増しました。これらのテクノロジーに関連するアプリケーションは、顔認識や天気予報アプリケーションから、高度なレコメンデーション システムや仮想アシスタントまで多岐にわたります。人工知能が私たちの生活にますます統合されるにつれて、人工知能システムのサイバーセキュリティの問題も発生します。世界経済フォーラムの 2022 年グローバル リスク レポートによると、サイバーセキュリティの障害は、今後 10 年間に注目すべき世界的なリスクのトップ 10 に入っています。
サイバーセキュリティと人工知能は、ある時点で必然的に交差しますが、そのアイデアは、人工知能の力を利用してサイバーセキュリティを強化することです。サイバーセキュリティは適切に存在していますが、機械学習モデルの整合性を保護するにはサイバーセキュリティの力も必要です。これらのモデルに対する脅威は、モデルのトレーニング データというソースから生じます。危険なのは、機械学習のトレーニング データがハッカーによってリモートまたはオンサイトで操作される可能性があることです。サイバー犯罪者はトレーニング データ セットを操作して、アルゴリズムの出力に影響を与え、システムの防御力を低下させます。この方法は、攻撃者がアルゴリズムのユーザーになりすますため、追跡できないことがよくあります。
機械学習のためにトレーニング データを操作するにはどうすればよいですか?
機械学習サイクルには、更新された情報とユーザーの洞察を使用した継続的なトレーニングが含まれます。悪意のあるユーザーは、機械学習モデルに特定の入力を提供することで、このプロセスを操作できます。操作された記録を使用して、銀行口座番号、社会保障の詳細、人口統計情報、機械学習モデルのトレーニング データとして使用されるその他の機密データなどの機密ユーザー情報を特定することができました。
ハッカーが機械学習アルゴリズムを操作するために使用する一般的な方法は次のとおりです。
データポイズニング攻撃
データポイズニングには、機械学習モデルに使用されるトレーニング データの侵害が含まれます。このトレーニング データは、開発者、個人、オープン ソース データベースなどの独立した関係者から取得されます。悪意のある当事者がトレーニング データ セットへの情報提供に関与している場合、アルゴリズムが誤って分類できるように慎重に構築された「有害な」データが与えられることになります。
たとえば、馬を認識するアルゴリズムをトレーニングしている場合、アルゴリズムはトレーニング データ セット内の何千もの画像を処理して馬を識別します。この学習を強化するには、白黒の牛の画像もアルゴリズムに入力します。ただし、誤って茶色の牛の画像をデータセットに追加した場合、モデルはそれを馬として分類します。モデルは、茶色の牛と茶色の馬の違いを区別できるようにトレーニングされるまで違いを理解できません。
同様に、攻撃者はトレーニング データを操作して、自分たちに有利な分類シナリオをモデルに教えることができます。たとえば、マルウェアを無害なソフトウェアと見なし、セキュリティ ソフトウェアを有害なデータを使用する危険なソフトウェアと見なすアルゴリズムをトレーニングすることができます。
データが汚染されるもう 1 つの方法は、機械学習モデルへの「バックドア」を介することです。バックドアは、モデル設計者には知られていない入力の一種ですが、攻撃者がアルゴリズムを操作するために使用する可能性があります。ハッカーは AI システムの脆弱性を見つけると、それを悪用してモデルにやりたいことを直接教えることができます。
攻撃者がバックドアにアクセスして、ファイル内に特定の文字が存在する場合は無害であると分類する必要があることをモデルに教えるとします。現在、攻撃者はこれらの文字を追加することで任意のファイルを無害にすることができ、モデルがそのようなファイルに遭遇すると、訓練されたとおりにそのファイルを無害であると分類します。
データ ポイズニングは、メンバーシップ推論攻撃と呼ばれる別の攻撃とも組み合わされます。 Membership Inference Attack (MIA) アルゴリズムを使用すると、攻撃者は特定のレコードがトレーニング データセットの一部であるかどうかを評価できます。データポイズニングと組み合わせて、メンバーシップ推論攻撃を使用して、トレーニング データ内の情報を部分的に再構築することができます。機械学習モデルは一般化されたデータではうまく機能しますが、トレーニング データでもうまく機能します。メンバーシップ推論攻撃と再構成攻撃は、この機能を利用してトレーニング データと一致する入力を提供し、機械学習モデルの出力を使用してトレーニング データ内のユーザー情報を再作成します。
データポイズニングのインスタンスを検出して防ぐにはどうすればよいですか?
モデルは新しいデータで定期的に再トレーニングされます。この再トレーニング期間中に、有害なデータがトレーニング データ セットに導入される可能性があります。これは時間の経過とともに発生するため、そのようなアクティビティを追跡するのが困難な場合があります。モデル開発者とエンジニアは、入力妥当性テスト、回帰テスト、レート制限、その他の統計手法を通じて、各トレーニング サイクルの前にそのような入力のブロックまたは検出を強制できます。また、1 人のユーザーからの入力数を制限したり、同様の IP アドレスまたはアカウントからの入力が複数あるかどうかを確認したり、ゴールデン データセットに対して再トレーニングされたモデルをテストしたりすることもできます。ゴールデン データセットは、機械学習ベースのトレーニング データセットの実績のある信頼できる参照ポイントです。
ハッカーは、バックドア攻撃を実行するために機械学習モデルがどのように機能するかについての情報を必要としています。したがって、強力なアクセス制御を実装し、情報漏洩を防止することで、この情報を保護することが重要です。アクセス許可の制限、データのバージョン管理、コード変更のログ記録などの一般的なセキュリティ慣行により、モデルのセキュリティが強化され、機械学習トレーニング データがポイズニング攻撃から保護されます。
侵入テストによる防御の構築
企業は、ネットワークの定期的な侵入テストを実施する際に、機械学習および人工知能システムのテストを検討する必要があります。侵入テストは、潜在的な攻撃をシミュレートして、セキュリティ システムの脆弱性を特定します。モデル開発者も同様に、アルゴリズムに対して模擬攻撃を実行して、データポイズニング攻撃に対する防御をどのように構築できるかを確認できます。データ ポイズニングの脆弱性についてモデルをテストする場合、追加される可能性のあるデータ ポイントについて学習し、そのようなデータ ポイントを破棄するメカニズムを構築できます。
一見些細な量の不良データであっても、機械学習モデルが無効になる可能性があります。ハッカーはこの弱点を悪用し、企業データ システムを侵害するようになりました。企業は人工知能への依存度が高まるにつれ、機械学習トレーニング データのセキュリティとプライバシーを保護する必要があり、そうしないと顧客の信頼を失う危険があります。
以上が機械学習モデルのトレーニングに使用されるデータのセキュリティを確保するにはどうすればよいですか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

フロントエンド開発の世界では、VSCode はその強力な機能と豊富なプラグイン エコシステムにより、数多くの開発者に選ばれるツールとなっています。近年、人工知能技術の急速な発展に伴い、VSCode 上の AI コード アシスタントが登場し、開発者のコーディング効率が大幅に向上しました。 VSCode 上の AI コード アシスタントは雨後のキノコのように出現し、開発者のコーディング効率を大幅に向上させました。人工知能テクノロジーを使用してコードをインテリジェントに分析し、正確なコード補完、自動エラー修正、文法チェックなどの機能を提供することで、コーディング プロセス中の開発者のエラーや退屈な手作業を大幅に削減します。今日は、プログラミングの旅に役立つ 12 個の VSCode フロントエンド開発 AI コード アシスタントをお勧めします。
