捜狐テクノロジーが制作
著者|鄭松儀
北京時間の 6 月 2 日、米国の人工知能研究会社 OpenAI は、AI 主導のサイバーセキュリティ機能を強化および定量化し、ハイレベルな AI サイバーセキュリティの議論を促進するために 100 万米ドルがかかるサイバーセキュリティ助成プログラムを発表しました。
近年、AI技術の悪用によるネットワークセキュリティ問題が多発しているが、マスク氏らの「AIセキュリティ危機」の予測は前倒しで的中した。最近、全国各地で「AI変顔」や「AI音声模倣」技術を利用し、被害者の友人になりすまし、最大100万円をだまし取るハイテク詐欺事件が多発していることがわかりました。 9秒で人民元。
業界の専門家は、AI テクノロジー自体にもセキュリティ上の脆弱性があると分析しています。現在主流のディープ ニューラル ネットワークやその他のテクノロジーには「ブラック ボックス」特性があり、一部の AI アルゴリズムが解釈不能になります。これは、AI テクノロジーがセキュリティ上の脆弱性を持っていることも意味します。アルゴリズムのセキュリティには多くの問題があり、業界には不確実性があり、産業用アプリケーションの実装において安全上の問題やリスクにつながる可能性があります。
OpenAI の公式 Web サイトには、「私たちの目標は、助成金やその他のサポートを通じて、防御者向けの人工知能ベースのサイバーセキュリティ機能の開発を促進することです。」と記載されています。
レポートによると、この計画には 3 つの主な目標が含まれています:1. 防御側に力を与える: 私たちは、最先端の AI 機能がまず防御側に利益をもたらすことを望んでいます。
2. 能力の測定: AI モデルの有効性をより深く理解し、改善するために、AI モデルのサイバーセキュリティ能力を定量化する方法の開発に取り組みます。
3. 議論を高める: AI とサイバーセキュリティの交差点での厳密な議論を促進し、この分野の課題と機会についての包括的かつ微妙な理解を促進することに尽力します。
OpenAI は、「サイバーセキュリティにおける従来の通念では、この環境では当然、攻撃者が防御者よりも有利になると考えられています。古い公理は、これを要約すると、『防御は 100% 正しくなければなりませんが、攻撃者は 1 回だけ正しければよい』というものです。確かに、攻撃者は直面する制約が少なく、柔軟性を活用できますが、防御者はより価値のあるもの、つまり人々の安全を守るという共通の目標を達成するための調整を持っています。」
OpenAI の計画に関する現在のアイデアには、AI によるネットワークの脆弱性への自動的なパッチ適用、ネットワーク ソース コード内のセキュリティ問題の自動的な特定、攻撃者を罠にかけるための欺瞞技術の使用などが含まれていると報告されていますが、これらに限定されません。
OpenAI は、プロジェクトの募集計画を開始しました。OpenAI は、防御的サイバーセキュリティにおける人工知能の実用化 (ツール、手法、プロセス) を優先して、資金調達やその他のサポートの申請を評価し、受け付けます。 OpenAI は、API クレジット、直接助成金、および/または 100 万ドルの基金と同等の形で 10,000 ドルの増分資金を提供します。
OpenAI は、現時点では攻撃的なセキュリティ プロジェクトに資金を提供することは検討していないと強調しました。
以上がOpenAI、ネットワークセキュリティ計画を発表:数百万ドルを投じて、将来的にはAIがネットワークの脆弱性に自動的にパッチを適用する可能性があるの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。