最近、OpenAI がリリースしたチャットボット ChatGPT は、その強力な機能によって広く注目を集めており、世界が変わり始めたと感じる人も少なくありません。
もし学生に ChatGPT に論文を書いてもらえたら、大学生はこの AI ツールを使って研究を完了する方法を見つけようと躍起になるでしょう。なぜなら、ChatGPT がロースクール試験、ビジネススクール試験、さらには医師免許試験にさえ合格したのを見てきたからです。世界中の従業員が、電子メール、レポート、さらにはコンピューター コードの作成にこれを使用し始めました。
ただし、現時点では ChatGPT は完璧ではなく、そのデータベースも最新ではありませんが、一般の人々がこれまでに接したどの人工知能システムよりも強力であり、ユーザー エクスペリエンスはよりフレンドリーですエンタープライズレベルのシステムの人工知能よりも。
ChatGPT のような大規模な言語モデルが十分に大きくなり、ニューラル ネットワークに十分なトレーニング データ、十分なパラメーター、および十分なレイヤーが含まれるようになると、奇妙なことが起こり始めるようです。それは、小型モデルでは明らかではない、または不可能な「機能」を開発します。言い換えれば、あたかも自分が常識と世界を理解しているかのように、あるいは少なくともそれらに近いものを持っているかのように振る舞い始めるのです。
最近のニュースを見ると、大手テクノロジー企業が対応を急いでいるのがわかります。 MicrosoftがOpenAIに100億ドルを投資し、BingにChatGPT機能を追加したことで、長らく眠っていた検索エンジンが再び話題となった。
Google はまた、AI チャットボットに関する独自の計画を発表し、元 OpenAI 従業員によって設立され、独自のチャットボット Claude を擁する OpenAI の競合企業である Anthropic に投資しました。
Amazon は、独自の ChatGPT 競合他社を構築する計画を発表し、別の人工知能スタートアップである Hugging Face との提携を発表しました。 Facebook の Meta も、独自の AI 作業計画にすぐに従う予定です。
それまでのところ、幸いなことに、セキュリティ専門家もこの新しいテクノロジーにアクセスできます。研究に使用したり、電子メールやレポートの作成を支援したり、コードの作成を支援したり、その他多くの方法で使用できます。
しかし、厄介なことに、悪意のある人物は、フィッシングやソーシャル エンジニアリングだけでなく、これらすべての目的にもこれを使用しています。また、ChatGPT を使用して、ほんの数か月前には想像もできなかった規模と忠実度でディープフェイクを作成できます。 ChatGPT 自体もセキュリティ上の脅威となる可能性があります。
次に、これらの AI ツールがデータセンターにもたらす可能性のあるセキュリティのトピックについて説明します。まず、悪意のある攻撃者が使用する可能性のある方法から始め、場合によっては、すでに ChatGPT を使用している可能性があります。次に、サイバーセキュリティ専門家にとって ChatGPT のような人工知能ツールを使用する利点と危険性を探ります。
悪意のある攻撃者がすでに ChatGPT を使用していることは疑いの余地がありません。では、ChatGPT をサイバー攻撃の促進にどのように利用できるのでしょうか。 2 月に発表された BlackBerry IT リーダー調査では、回答者の 53% が、ハッカーがより信憑性の高いフィッシングメールを作成するのに役立つと回答し、49% がハッカーのコーディング スキルの向上に役立つと回答しました。
調査によるもう 1 つの発見: IT およびサイバーセキュリティの意思決定者の 49% は、ChatGPT は誤った情報や偽情報を広めるために使用されると述べ、48% はまったく新しいマルウェアの作成に使用される可能性があると考えています。さらに 46% の回答者が、ChatGPT が既存の攻撃の改善に役立つ可能性があると回答しました。
Constellation Research の副社長兼主席アナリストであるディオン・ヒンチクリフ氏は、「プログラマーだけでなく、非プログラマーも ChatGPT を使用して、効果的に悪用できる脆弱性を生成しているのを目にしています。」
結局のところ、 、人工知能モデル 公開されているものはすべて読みました。これには、「すべての調査脆弱性レポート」と、すべてのセキュリティ専門家によるフォーラムでのすべての議論が含まれます。これは、あらゆる方法でシステムを破壊できるスーパー頭脳のようなものです。」とヒンチクリフ氏は述べています。 。
そしてもちろん、攻撃者が書き込みに使用する可能性もあると同氏は付け加えた。 「今後、世界中から誤った情報やフィッシングコンテンツが殺到することになるだろう。」 Security Alliance CEOのJim Reavis氏は、過去数週間でAIツールを使った驚くべきバイラル実験をいくつか見てきたと語った。
「セキュリティ オーケストレーション、自動化および対応ツール、DevSecOps、および一般的なクラウド コンテナーの衛生管理のための多くのコードを記述していることがわかります」と彼は言いました。 「ChatGPT は、多数のセキュリティ ポリシーとプライバシー ポリシーを生成します。おそらく最も注目すべき点は、高品質のフィッシングメールを作成するために多くのテストを実施し、この点で防御の回復力を高めることを期待していることです。」
「自然言語インターフェース機能を備えたツールはこれまでに登場しましたが、ChatGPT 向けの広くオープンで顧客向けのインターフェースはありませんでした。」と彼は付け加えました。 「ChatGPT と連携する商用ソリューションがすぐに登場することを期待していますが、現時点でのスイート スポットは、ChatGPT を使用した複数のネットワーク セキュリティ ツールのシステム統合と、パブリック クラウドでの DIY セキュリティ自動化だと思います。」
全体的に、彼は次のように述べています。 ChatGP とその同等製品は、データセンターのサイバーセキュリティ チームがより効率的に運用し、制約のあるリソースを拡張し、新たな脅威や攻撃を特定できるよう支援する上で大きな期待を抱いています。
「時間の経過とともに、ほぼすべてのサイバーセキュリティ機能が機械学習によって強化されるでしょう」とリービス氏は述べています。 「さらに、悪意のある攻撃者が ChatGPT などのツールを使用していることもわかっており、悪意のある AI に対抗するにはツールを活用する必要があると想定しています。」
たとえば、電子メールセキュリティ ベンダーの Mimecast は、すでに大規模な言語モデルを使用して合成メールを生成し、独自のフィッシング検出 AI ツールをトレーニングしています。
「通常、モデルのトレーニングには実際の電子メールを使用します」と、Mimecast のチーフ データ サイエンティスト兼機械学習エンジニアのホセ ロペス氏は述べています。
トレーニング セット用の合成データの作成は、ChatGPT などの大規模な言語モデルの主な利点の 1 つです。 「この大規模な言語モデルを使用して、より多くの電子メールを生成できるようになりました」とロペス氏は述べています。
ただし、同氏はMimecastがどの特定の大規模言語モデルを使用しているかについては明らかにしなかった。同氏は、その情報は同社の「秘密兵器」だと述べた。
ただし、Mimecast は現在、受信メールが ChatGPT によって生成されたかどうかを検出するつもりはありません。それは、ChatGPT を使用しているのは悪意のある者だけではないからです。 AI は非常に便利な生産性向上ツールであり、多くの従業員が独自の完全に合法的なコミュニケーションを改善するために使用しています。
たとえば、自身もスペイン人であるロペスは、文章を改善するために文法チェッカーの代わりに ChatGPT を使用しています。
Lopez はコードの作成にも ChatGPT を使用しています。これは多くのセキュリティ専門家が行っていることでしょう。
「プログラミングに非常に便利なので、日常の仕事で毎日 ChatGPT を使用しています」と Lopez 氏は言います。 「それが間違っている場合もありますが、多くの場合、他の方法に心を開くには十分なほど正しいです。ChatGPT が無能な人々をスーパーハッカーに変えるとは思いません。」
OpenAI はシステムの精度を向上させる取り組みを開始しました。 Microsoft は、Bing Chat を通じて Web 上の最新情報にアクセスできるようにしています。
ロペス氏は、次のバージョンでは品質が大幅に向上すると付け加えました。さらに、ChatGP のオープンソース バージョンが近日公開される予定です。
「近い将来、特定の事柄に合わせてモデルを微調整できるようになるでしょう」と彼は言いました。 「今ではハンマーだけではなく、一連のツールが手に入ります。」
たとえば、企業はモデルを微調整してソーシャル ネットワーク上の関連アクティビティを監視し、潜在的な脅威を探すことができます。結果が現在の方法よりも優れているかどうかは時間が経てばわかります。
ChatGPT を既存のソフトウェアに追加することも、より簡単かつ低コストになりつつあります。3 月 1 日、OpenAI は、開発者が ChatGPT と音声テキスト変換モデル Whisper にアクセスするための API をリリースしました。
一般的に、企業は急速に進化する脅威にこれまで以上に大規模に対抗するために、AI 主導のセキュリティ ツールを急速に導入しています。
最新の Mimecast 調査によると、92% の企業がサイバーセキュリティを強化するために人工知能と機械学習をすでに使用している、または使用する予定です。
特に、50% がこれを使用することで脅威をより正確に検出できると信じており、49% が脅威をブロックする能力を向上できると信じており、48% が攻撃が発生したときにより迅速に修復できると考えています。
回答者の 81% は、電子メールやコラボレーション ツールのユーザーにリアルタイムでコンテキストに応じたアラートを提供する AI システムは大きな恩恵を受けると回答しました。
レポートには次のように記載されています:「12% は、そのようなシステムの利点によってサイバーセキュリティの実装方法が完全に変わるとさえ言っています。」
Omdia のサイバーセキュリティ業務のシニア アナリストである Ketaki Borade 氏は次のように述べています。 ChatGPT のような AI ツールも、サイバーセキュリティのスキル不足のギャップを埋めるのに役立ちます。 「ヒントが正しく提供されていれば、そのようなツールを使用すると単純なタスクを高速化でき、限られたリソースをより時間に敏感で優先度の高い問題に集中させることができます。」
「これらの大規模な言語モデルは、これは根本的なパラダイムシフトです」と、IEEE メンバーであり、Applied Science Group の創設者兼 CEO である Yale Fox 氏は述べています。 「悪意のある AI 主導の攻撃に対抗する唯一の方法は、防御に AI を使用することです。データセンターのセキュリティ管理者は、既存のサイバーセキュリティ リソースのスキルを向上させ、人工知能を専門とする新しい人材を見つける必要があります。」
前述したように、ChatGPT や Copilot などの AI ツールは、セキュリティ専門家のコード作成を支援し、効率を高めます。しかし、コーネル大学の最近の研究によると、AI アシスタントを使用しているプログラマーは、使用していないプログラマーに比べて、AI アシスタントをより安全であると考えながら、安全でないコードを作成する可能性が高くなります。
これは、リスクを考慮せずに ChatGPT を使用する場合の潜在的な欠点の氷山の一角にすぎません。
ChatGPT または Bing Chat には、自信を持って誤った情報を提供したり、統計や引用をでっち上げたり、特定の概念について完全に間違った説明を提供したりすることがよく知られています。
これを盲目的に信じる人は、非常に悪い状況に陥る可能性があります。
「ChatGPT が開発したスクリプトを使用して 10,000 台の仮想マシンのメンテナンスを実行し、そのスクリプトにエラーがあれば、大きな問題が発生するでしょう」と Cloud Security Alliance の Reavis 氏は述べています。
ChatGPT を使用するデータセンターのセキュリティ専門家にとってのもう 1 つの潜在的なリスクは、データ侵害です。
OpenAI が ChatGPT を無料にする理由は、OpenAI がユーザーとの対話から学習できるためです。したがって、たとえば、ChatGPT にデータセンターのセキュリティ体制を分析して弱点を特定するよう依頼すると、ChatGPT にすべてのセキュリティ脆弱性を教えたことになります。
ここで、仕事指向のソーシャル ネットワーク Fishbowl による 2 月の調査について考えてみましょう。この調査では、プロフェッショナルの 43% が職場で ChatGPT または同様のツールを使用しており、1 か月前の 27% から増加していることがわかりました。そうしたとしても、70% は上司に言いません。したがって、潜在的なセキュリティリスクが高くなります。
これが、JPモルガン・チェース、アマゾン、ベライゾン、アクセンチュア、その他多くの企業が従業員にこのツールの使用を禁止したと伝えられている理由です。
今月リリースされた OpenAI の新しい ChatGPT API により、企業はデータをプライベートに保ち、トレーニングに使用しないことを選択できますが、偶発的な漏洩が起こらないという保証はありません。
将来、ChatGPT のオープンソース バージョンが利用可能になると、データ センターはそれをローカルでファイアウォールの内側で実行できるようになり、部外者への暴露の可能性を回避できるようになります。
最後に、Insight の著名なエンジニアである Carm Taglienti 氏は、社内データセンターのセキュリティを確保するために ChatGPT スタイルのテクノロジーを使用することには潜在的な倫理的リスクがあると述べました。
「これらのモデルは、私たちが人間としてどのようにコミュニケーションするかを理解するのに非常に優れています」と彼は言いました。したがって、従業員のコミュニケーションにアクセスできる ChatGPT スタイルのツールは、潜在的な脅威を示す意図とサブテキストを明らかにできる可能性があります。
「私たちはネットワークのハッキングや内部環境のハッキングを防ごうとしています。多くの侵害は、人々が物を持って玄関から出てくるために起こります」と彼は言いました。
彼は、ChatGPT のようなものは「組織にとって非常に価値がある可能性がある」と付け加えました。 「しかし今、私たちはこの倫理的領域に入りつつあり、人々が私のプロフィールを作成し、私の行動すべてを監視することになります。」
これはマイノリティ・レポート風の未来であり、データセンターの準備ができていない可能性があります。
以上がChatGPT はデータセンターのネットワーク セキュリティにどのような影響を与えますか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。