BlackBerry が新たに発表した調査レポートは、人工知能によって駆動される ChatGPT ボットがネットワーク セキュリティに脅威をもたらす可能性があることを示しています。 BlackBerry のサイバーセキュリティ担当最高技術責任者である Shishir Singh 氏は、「悪意のある攻撃者が ChatGPT ボットを使用してサイバー攻撃を行おうとしているという十分な証拠がある」と述べ、2023 年にはハッカーがこれをさらに悪用すると予想していると述べました。 . この人工知能ツールは、邪悪な目的を達成するために使用されます。北米、英国、オーストラリアの IT 専門家を対象とした調査によると、回答者の 51% が、ChatGPT を利用したサイバー攻撃が年末までに発生する可能性が高いと回答し、71% が、一部の国ではすでに ChatGPT を使用して標的を攻撃している可能性があると述べています。各国がサイバー攻撃を行っています。
ChatGPT の高い普及率を誇張、必然的な反応と見るのは簡単ですが、これはアプリに対する印象的な反応として、その使用量が急速に増加していることを見てください。 ChatGPT は、これまでで最も急速に成長しているコンシューマ アプリケーションであると言われています。 ChatGPT は 2022 年 12 月まで一般公開されませんでしたが、わずか 2 か月で登録ユーザー数は 1 億人を超え、TikTok も同数に達するまでに約 9 か月かかりました。オープン AI ボットはコメントを書くだけでなくコードも作成できるため、人々が ChatGPT の悪用を懸念する理由は簡単に理解できます。
業界の専門家は、ChatGPT によって生成された記事が少し荒いことを発見しました。印象的な記事を書くことは可能ですが、その記事は、関連するトピックを理解している人の編集ビジョンのテストに耐えられません。たとえ悪意がなかったとしても、誤った情報が提供される可能性は高くなります。どうやら、ChatGPT はセキュリティの問題とサイバーセキュリティの脅威が何なのかを理解していないようです?
サイバーセキュリティ サービス プロバイダー CyberArk の研究者が今年 1 月に公開したブログ投稿Cyber Threat Research は、ChatGPT を使用してポリモーフィック マルウェアを作成した方法を詳しく説明しています。ご想像のとおり、研究者たちは OpenAI によって確立されたコンテンツ ポリシー フィルターを回避することができました。以下のスクリーンショットからわかるように、AI ボットが Python で悪意のあるコードを作成するように求められた場合、丁重に拒否します。
ただし、入力リクエスト中に研究者によっていわゆる「ホールド アンド デマンド」プロセスにより、ChatGPT は実行可能コードを作成する可能性があります。これには問題があり、多態性のマルウェア コードを作成し続けるにつれてさらに問題が大きくなりました。ChatGPT はコードを変異させて複数の異なる反復を作成し、初期のシグネチャ ベースの検出システムを欺きました。これは大きな懸念事項でしょうか? 研究者らが言うように、「マルウェアがターゲット マシンに存在すると、そのマルウェアは明らかに悪意のあるコードで構成され、セキュリティ ソフトウェアによって簡単に検出されます。」もちろん、危険です。 ChatGPT は機械学習の一例です。時間が経つにつれて、受信する入力データが増えるほど、出力が向上し、状況はさらに良くなります。
セキュリティ機関 Check Point Re4search も、今年 1 月に、サイバー犯罪者がどのようにして ChatGPT の悪用を始めたかの調査に焦点を当てた調査報告書を発表しました。 。研究者らは、攻撃者が「説得力のあるスピア フィッシング メール」を作成したことに加えて、非常に基本的なマルウェア コードを盗む Python ベースのメッセージと、ChatGPT を使用して作成された悪意のある Java スクリプトを犯罪フォーラムで共有したことを発見しました。別のサイバー攻撃エミュレーターでは、ランサムウェア環境で動作する Python 暗号化ツールの完成に ChatGPT が役立ったと認めています。研究者らは、関与したサイバー犯罪者の多くは単純に開発スキルを持っていなかった、と述べています。彼らは悪意のあるスクリプトを自分で作成する必要がなかったので、これがおそらく最も懸念すべき点です。
業界の専門家は、ChatGPT のサイバーセキュリティの脅威についての声明を求めて、この目的で OpenAI に連絡しましたが、本記事の時点では返答は得られていません。しかし、彼は ChatGPT からいくつかの応答を受け取りました。
業界の専門家は、ChatGPT がサイバーセキュリティのリスクを引き起こすかどうかを尋ねました。 ChatGPT は次のように答えました: 「いいえ、OpenAI の GPT ベースのモデル (ChatGPT など) はサイバーセキュリティの脅威を引き起こしません。それらはインターネットからの大量のテキスト データを使用してトレーニングされており、悪意のある意図や機能はありません。しかし、テクノロジーと同様、GPT ベースのモデルを使用および展開する際には、データ セキュリティとプライバシーに関する注意を払い、ベスト プラクティスに従うことが重要です。」
ChatGPT がそれを否定しているように見えたため、同じ質問に対する応答を再生成する別の試みが行われました。 ChatGP は、「いいえ、ChatGPT はサイバーセキュリティ上の脅威ではありません。これは OpenAI によって開発された言語モデルであり、受け取った入力に基づいてテキストを生成するように設計されています。ただし、どのようなテクノロジーでも悪用される可能性があることを覚えておくことが重要です。ユーザーは、システムとデータを保護する責任があります。また、第三者がこの情報を入手する可能性があるため、機密情報を共有する場合には注意してください。」
業界の専門家はChatGPTに何度か質問を試みましたが、ChatGPTは常に同じ「サイバーセキュリティの脅威を引き起こさない」との返答でした。その後、彼は ChatGPT にこの質問に 500 語で答えるように依頼しました。これにより、実際により多くの背景情報が得られます。たとえば、「不正な手に渡った場合、悪意を持って悪用される可能性があります」、「ChatGPT は、個人データや財務情報などの機密情報をインターネットから収集するために使用される可能性があります。」
最後に、 ChatGPT のサイバーセキュリティ リスクについて 1,000 ワードの記事を書いた後、ChatGPT はその 3 番目の段落でより率直な表現をしました:「ChatGPT のような人工知能モデルに関連するもう 1 つのリスクは、それらが悪意のある目的で使用される可能性があることです。たとえば、サイバー攻撃者は、顧客サービス担当者に似た偽のチャットボットを作成し、それを使用して人々をだまして個人情報を提供させたり、不正な購入をさせたりする可能性があります。
これがきっかけ成功に伴い、業界の専門家は悪意のあるコードの作成について ChatGPT に尋ねるために質問を絞り込み、いくつかの新しいフィードバックを加えました。 ChatGPT は、「ChatGPT のような言語モデルが悪意のあるコードを作成できるかどうかは、多くの企業や個人にとって懸念事項です。これらのモデルがより洗練されるにつれて、悪意のある目的に使用される可能性が高くなります。しかし、重要なのは、 ChatGPT を使用して悪意のあるコードを作成することに関連するリスクは、テクノロジー自体に固有のものではなく、その使用方法に依存することを理解するためです。」
ChatGPT はこの内容をさらに拡張し、次のように追加しました。「 たとえば、サイバー攻撃者は、言語モデルを使用して、ソフトウェア アプリケーションの脆弱性を悪用するコードを生成します。これは、データ盗難やサービス妨害などの攻撃に使用される可能性があります。サイバー攻撃者は、言語モデルを使用して、セキュリティ ツールによる検出を回避するように設計されたコードを生成することもできます。攻撃を検出して防ぐのはさらに困難です。」
もちろん、ChatGPT が危険である可能性があるという憶測にだまされてはいけません。 ChatGPT は、サイバーセキュリティ研究の分野でも多くの効果をもたらす可能性を秘めた優れた人工知能ツールです。ただし、他のテクノロジーと同様に、悪意のある人はこのようなツールを使用して悪いことを行うことになります。それが現状です。 ChatGPT の概要は次のとおりです。「要約すると、ChatGPT のような言語モデルが悪意のあるコードを作成できるかどうかは、非常に懸念されています。ただし、これはテクノロジー自体に固有のリスクではなく、その使用方法によって決まります。」
以上がChatGPT はサイバーセキュリティに脅威をもたらしますか?人工知能ロボットが独自の答えを出すの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。