機械学習は新たな攻撃対象領域を生み出し、特殊な防御が必要になります
ほぼすべての業界の企業が人工知能 (AI) テクノロジーをハードウェア製品やソフトウェア製品に統合するにつれて、機械学習 (ML) の入出力がますます一般的になってきています。顧客に。これは当然、悪意のある攻撃者の注意を引きます。
HiddenLayer の CEO、Christopher Sestito が、企業が懸念すべき機械学習セキュリティの考慮事項と関連する脅威について語ります。
企業は、機械学習が切り開く道を徐々に認識し始めています。しかし、サイバーセキュリティにも細心の注意を払っているでしょうか?
機械学習資産の保護に重点を置いている企業はほとんどなく、機械学習のセキュリティにリソースを割り当てている企業はさらに少ないです。これには、予算の優先順位の競合、人材の不足、そして最近までこの問題に対処するセキュリティ製品の不足など、多くの理由があります。
過去 10 年にわたり、あらゆる業界が前例のない方法で AI/機械学習を導入し、利用可能なデータを使用してあらゆるユースケースに対処するのを見てきました。その利点は証明されていますが、他の新しいテクノロジーで見てきたように、それらはすぐに悪意のある攻撃者にとって新たな攻撃対象領域となります。
機械学習の運用が進むにつれて、データ サイエンス チームは、有効性、効率、信頼性、説明可能性の点でより成熟した AI エコシステムを構築していますが、セキュリティはまだ優先されていません。機械学習 L システムを攻撃する動機は明確であり、攻撃ツールは利用可能で使いやすく、潜在的なターゲットは前例のない速度で増加しているため、これはもはや企業にとって実行可能な手段ではありません。
攻撃者は公開されている機械学習入力をどのように利用するのでしょうか?
機械学習モデルはますます多くの実稼働システムに統合されており、ハードウェア製品やソフトウェア製品、Web アプリケーション、モバイル アプリケーションなどで顧客に実証されています。 「エッジ AI」と呼ばれることが多いこの傾向は、私たちが毎日使用するすべてのテクノロジーに驚異的な意思決定と予測機能をもたらします。機械学習をより多くのエンドユーザーに提供しながら、同じ機械学習資産を脅威アクターに公開します。
オンラインで公開されていない機械学習モデルも危険にさらされています。これらのモデルは従来のサイバー攻撃手法を通じてアクセスでき、敵対的な機械学習の機会への道を開きます。攻撃者がアクセスを取得すると、さまざまな種類の攻撃を使用できるようになります。推論攻撃は、モデルのマッピングまたは「反転」を試み、それによってモデルの弱点を悪用したり、製品全体の機能を改ざんしたり、モデル自体をコピーして盗んだりすることができます。
人々は、ウイルス対策やその他の保護メカニズムをバイパスするためにセキュリティ ベンダーを攻撃する実際の例を目にしています。攻撃者は、モデルのトレーニングに使用されるデータをポイズニングして、システムを誤って学習させ、意思決定を攻撃者に有利に導くこともできます。
企業が特に懸念すべき機械学習システムに対する脅威は何ですか?
あらゆる種類の敵対的な機械学習攻撃を防御する必要がありますが、企業ごとに優先順位は異なります。機械学習モデルを活用して不正取引を特定する金融機関は、推論攻撃に対する防御に重点を置くことになります。
攻撃者が不正検出システムの長所と短所を理解していれば、それを利用して手法を変更し、モデルを完全にバイパスして検出されないようにすることができます。医療企業はデータポイズニングに対してより敏感になる可能性があります。医療分野は、膨大な過去のデータセットを使用した機械学習による結果の予測を早くから採用していました。
データポイズニング攻撃は、誤診、医薬品試験結果の改ざん、患者集団の誤った表示などを引き起こす可能性があります。セキュリティ企業自体は現在、ランサムウェアやバックドア ネットワークの導入に積極的に使用されている機械学習回避攻撃に重点を置いています。
最高情報セキュリティ責任者 (CISO) が機械学習主導のシステムを導入する際に留意すべき重要なセキュリティ上の考慮事項は何ですか?
今日、最高情報セキュリティ責任者 (CISO) に与えることができる最善のアドバイスは、新興テクノロジーで学んだパターンを受け入れることです。クラウド インフラストラクチャの進歩と同様、機械学習の導入は、特殊な防御を必要とする新たな攻撃対象領域となります。 Microsoft の Counterfit や IBM の Adversarial Robustness Toolbox などのオープンソース攻撃ツールを使用することで、敵対的機械学習攻撃への参入障壁は日々下がっています。
もう 1 つの重要な考慮事項は、これらの攻撃の多くは明らかではないため、攻撃を探していないと、攻撃が発生していることが理解できない可能性があるということです。セキュリティ専門家として、私たちはランサムウェアに慣れています。ランサムウェアは、ビジネスが侵害され、データがロックまたは盗難されたことを明確に示しています。敵対的な機械学習攻撃は、長期間にわたって発生するように調整することができ、データ ポイズニングなどの一部の攻撃は、時間はかかりますが、永続的な損害を与えるプロセスとなる可能性があります。
以上が機械学習は新たな攻撃対象領域を生み出し、特殊な防御が必要になりますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









機械学習とデータ サイエンスの分野では、モデルの解釈可能性が常に研究者や実務家に焦点を当ててきました。深層学習やアンサンブル手法などの複雑なモデルが広く適用されるようになったことで、モデルの意思決定プロセスを理解することが特に重要になってきました。 Explainable AI|XAI は、モデルの透明性を高めることで、機械学習モデルに対する信頼と自信を構築するのに役立ちます。モデルの透明性の向上は、複数の複雑なモデルの普及や、モデルを説明するための意思決定プロセスなどの方法によって実現できます。これらの方法には、特徴重要度分析、モデル予測間隔推定、ローカル解釈可能性アルゴリズムなどが含まれます。特徴重要度分析では、入力特徴に対するモデルの影響度を評価することで、モデルの意思決定プロセスを説明できます。モデルの予測間隔の推定

この記事では、学習曲線を通じて機械学習モデルの過学習と過小学習を効果的に特定する方法を紹介します。過小適合と過適合 1. 過適合 モデルがデータからノイズを学習するためにデータ上で過学習されている場合、そのモデルは過適合していると言われます。過学習モデルはすべての例を完璧に学習するため、未確認の新しい例を誤って分類してしまいます。過適合モデルの場合、完璧/ほぼ完璧なトレーニング セット スコアとひどい検証セット/テスト スコアが得られます。若干修正: 「過学習の原因: 複雑なモデルを使用して単純な問題を解決し、データからノイズを抽出します。トレーニング セットとしての小さなデータ セットはすべてのデータを正しく表現できない可能性があるため、2. 過学習の Heru。」

1950 年代に人工知能 (AI) が誕生しました。そのとき、研究者たちは、機械が思考などの人間と同じようなタスクを実行できることを発見しました。その後、1960 年代に米国国防総省は人工知能に資金を提供し、さらなる開発のために研究所を設立しました。研究者たちは、宇宙探査や極限環境での生存など、多くの分野で人工知能の応用を見出しています。宇宙探査は、地球を超えた宇宙全体を対象とする宇宙の研究です。宇宙は地球とは条件が異なるため、極限環境に分類されます。宇宙で生き残るためには、多くの要素を考慮し、予防策を講じる必要があります。科学者や研究者は、宇宙を探索し、あらゆるものの現状を理解することが、宇宙の仕組みを理解し、潜在的な環境危機に備えるのに役立つと信じています。

C++ の機械学習アルゴリズムが直面する一般的な課題には、メモリ管理、マルチスレッド、パフォーマンスの最適化、保守性などがあります。解決策には、スマート ポインター、最新のスレッド ライブラリ、SIMD 命令、サードパーティ ライブラリの使用、コーディング スタイル ガイドラインの遵守、自動化ツールの使用が含まれます。実践的な事例では、Eigen ライブラリを使用して線形回帰アルゴリズムを実装し、メモリを効果的に管理し、高性能の行列演算を使用する方法を示します。

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

MetaFAIR はハーバード大学と協力して、大規模な機械学習の実行時に生成されるデータの偏りを最適化するための新しい研究フレームワークを提供しました。大規模な言語モデルのトレーニングには数か月かかることが多く、数百、さらには数千の GPU を使用することが知られています。 LLaMA270B モデルを例にとると、そのトレーニングには合計 1,720,320 GPU 時間が必要です。大規模なモデルのトレーニングには、これらのワークロードの規模と複雑さにより、特有のシステム上の課題が生じます。最近、多くの機関が、SOTA 生成 AI モデルをトレーニングする際のトレーニング プロセスの不安定性を報告しています。これらは通常、損失スパイクの形で現れます。たとえば、Google の PaLM モデルでは、トレーニング プロセス中に最大 20 回の損失スパイクが発生しました。数値的なバイアスがこのトレーニングの不正確さの根本原因です。

C++ では、機械学習アルゴリズムの実装には以下が含まれます。 線形回帰: 連続変数を予測するために使用されるステップには、データの読み込み、重みとバイアスの計算、パラメーターと予測の更新が含まれます。ロジスティック回帰: 離散変数の予測に使用されます。このプロセスは線形回帰に似ていますが、予測にシグモイド関数を使用します。サポート ベクター マシン: サポート ベクターの計算とラベルの予測を含む強力な分類および回帰アルゴリズム。
