2023 年初頭に最も人気のあるオンライン プラットフォームは、間違いなく人工知能の分野で新たなお気に入りである、インテリジェント チャット ロボット モデル ChatGPT です。ChatGPT は、無数のネチズンを魅了し、「人間のような感覚」でコミュニケーションし対話します。人間が提起した質問を完全に理解できるだけでなく、「人為的に遅滞」しない答えが与えられ、プログラミング、描画、脚本執筆、さらには詩的な表現など、多くの生産性実践に実際に関与するようになるためです。詩やその他のコピーライティングを作曲しました。
一時、人々は次のような議論を始めました: ChatGPT に代表される人工知能は、近い将来、人間の多くの職業に取って代わるのでしょうか?実際、この問題を議論する前に、私たちがさらに警戒する必要があるのは、この問題はオンラインの世界で生まれ、大きなセキュリティ リスク、さらには法的リスクを伴うということです。サークル内で広まっているジョークのように、ChatGPT で上手にプレイすれば、遅かれ早かれ刑務所で食事をしなければならないことは避けられません。
ChatGPT (Chat Generative Pre-Trained Transformer) 、正式名 Chat Generative Pre-training Converter)は、世界をリードする人工知能企業である OpenAI によって発売された人工知能チャット ロボット モデルで、2022 年 11 月 30 日に誕生しました。人間のフィードバックを使用してモデル テクノロジーを強化することで、人間の好みを報酬信号として使用してモデルを微調整することで、人間の言語を継続的に学習し、人間のように本当にチャットしたりコミュニケーションしたりできるようになります。本当に本物の人間のように見えるからこそ、ChatGPT は誕生以来、瞬く間に世界中で人気を博しました。 2023 年 1 月末の時点で、ChatGPT の月間アクティブ ユーザー数は 1 億人を超え、世界で最も急速にユーザーが増加している注目のアプリケーションの 1 つとなっています。
ChatGPT がその多用途な機能をさらに活用しているのと同じように、人々はますます不安になっています。「自分たちの仕事が危険にさらされているのではないか?」過去に機械がマンパワーを解放し、大量の肉体労働に取って代わったのと同じように、歴史的発展により、人工知能が人間の作業にさらに参加し、より少ないマンパワーで同じ作業内容を完了することが促進される可能性があります。しかし、現在の技術レベルでは、この点に到達するための予見可能なスケジュールは現時点ではありません。ChatGPT に代表される人工知能は、人間との会話を模倣して学習し続けることはできますが、まだ初期段階にあります。しかし、その基礎は依然として大量のテキストと学習モデルに基づく継続的なデバッグに基づいています。答えはすべてインターネットから得られるものであり、人間の言語の本当の意味を主観的に真に理解することは不可能であり、現実的な答えを与えることは困難です。特定の現実のシナリオ。
ChatGPT は、大量のコーパスで訓練されていない専門分野の質問に遭遇した場合、与えられた回答では実際の質問に答えられないことが多く、同様に人間が得意とする拡張機能もありません。たとえば、下の図では、気象学に関連する質問に答える際、気象学の分野は比較的ニッチで複雑であるため、この分野で十分なトレーニングを受けていないため、ChatGPT は「マーケティング アカウント」のような実質的な内容のない質問をしました。したがって、ChatGPT が日常的なタスクを処理できるとしても、それはあまり創造性を必要としない反復的なタスクのみになります。
それでも、ChatGPT はネットワーク セキュリティの分野で積極的な役割を果たすことができ、ネットワーク セキュリティ担当者にとって強力なヘルパーとなることが期待されています。
ChatGPT セキュリティ担当者のセキュリティ対策に役立ちますコードのセキュリティテスト。予備テストの後、脆弱なコードの一部をコピーして ChatGPT に分析させると、ツールはセキュリティの問題を迅速に特定し、それらを修正する方法について具体的な提案を提供します。いくつかの欠点はありますが、コード スニペットの脆弱性をすぐにチェックしたい開発者にとっては便利なツールです。ますます多くの企業がソフトウェア開発ワークフローにセキュリティを組み込むよう推進しているため、ChatGPT の正確かつ高速な検出機能により、コードのセキュリティを効果的に向上させることができます。
ChatGPT は、スクリプト、ポリシー オーケストレーション、セキュリティ レポートの自動化 (侵入テスト レポートの修復ガイドの作成など) をさらに強化することが期待されています。 ChatGPT はアウトラインをより速く書くこともできるので、自動化された要素をレポートに追加したり、従業員にサイバーセキュリティ トレーニング セッションを提供したりするのに役立ちます。脅威インテリジェンスの観点からは、ChatGPT はインテリジェンスの効率とリアルタイムの信頼性の決定を大幅に向上させ、現在のアクセスおよび ID モデルよりも高い信頼性を展開し、システムと情報へのアクセスに関するリアルタイムの結論を形成することが期待されています。
どんな新しいテクノロジーにも、多くの場合、欠点やリスクがあります。ChatGPT は、人間がセキュリティ製品をよりインテリジェントにするのに役立ち、人間がセキュリティの脅威に対応するのを支援します。 、情報の収集と再利用という動作原理に基づいて、セキュリティ境界を越えてさまざまなセキュリティリスクが発生するでしょうか?さらに、ChatGPT の利用規約では、ハッカーの手によって、ランサムウェア、キーロガー、ウイルス、または「ある程度の危害を引き起こすように設計されたその他のソフトウェア」を含むマルウェアの生成を明確に禁止していますが、それでも ChatGPT は「悪魔の爪」になるのでしょうか?ネットワーク攻撃はより広範囲かつ複雑ですか?
ChatGPT は広範なネットワーク データを収集し、人々との会話から情報を取得してトレーニングする必要があるため、シリコンバレーのメディア報道によると、Amazonの弁護士は、ChatGPTが生成したコンテンツの中に同社の内部機密に非常によく似たテキストを発見したと述べた。弁護士は、ChatGPT を使用してコードとテキストを生成しており、そのデータが ChatGPT が反復処理に使用するトレーニング データになるのではないかと懸念していました。また、Microsoft の社内エンジニアは、従業員に対し、日常の業務使用中に OpenAI 端末に機密データを送信しないよう警告しました。
これには別の質問も含まれます: インターネットから大量のデータを収集することは合法ですか? 欧州データ保護委員会 (EDPB) のメンバーであるアレクサンダー ハンフ氏は、次のような疑問を抱いています。 ChatGPT は商用製品であり、インターネット上には多くの情報がアクセスできますが、第三者によるデータのクローリングを禁止している Web サイトから大量のデータを収集することは、関連する規制に違反する可能性があり、フェアユースとみなされません。 GDPR などで保護されている情報も考慮する必要があります。この情報をクロールすることは準拠しておらず、大量の生データを使用すると GDPR の「最小限のデータ」原則に違反する可能性があります。
同様に、ChatGPT がベースでトレーニングされている場合も同様です。 OpenAIの公式Webサイトで公開されているプライバシーポリシーによると、OpenAIはEUのGDPRなどのデータ保護規制については言及しておらず、「データの使用」条項の中でOpenAIは次のことを認めている。
GDPR の第 17 条によれば、個人は自分の個人情報の削除を要求する権利を有します。データ、つまり「忘れられる権利」または「削除する権利」ですが、ChatGPT のような大規模な言語モデルは、独自のデータをトレーニングするために使用されたデータを「忘れる」ことができますか? OpenAI が次のような場合にモデルからデータを完全に削除できるかどうかについて業界関係者は、このようなモデルで個人情報の痕跡をすべて削除することは困難であると考えています。さらに、このようなモデルのトレーニングには費用がかかり、AI 企業はまた、モデル全体が、個人情報の削除後に毎回再トレーニングされる可能性も低いと考えています。
ChatGPT の人気に伴い、関連する WeChat 公開アカウントや、関連する WeChat 公開アカウントも多数存在します。 ChatGPT は中国本土では正式にサービスを開始しておらず、本土の携帯電話番号で登録して通話することは不可能であるため、これらのミニプログラムは ChatGPT との会話を提供できると主張し始めました。 20会話9.99元から無制限会話999.99元などのサービス。言い換えれば、これらの小さなプログラムは、国内ユーザーと ChatGPT の間の仲介者として機能します。しかし、仲介者であっても、真実と偽物を見分けるのは難しい場合が多く、一部のアカウントは ChatGPT ポートを呼び出すと主張しますが、実際には他のロボット モデルを使用している可能性を排除するものではなく、対話の品質ははるかに劣っています。 ChatGPTに。
いわゆる ChatGDT 対話サービスを提供するパブリック アカウント ミニ プログラム
同様に、一部の販売者も電子商取引プラットフォーム上で ChatGPT アカウントの販売と代理店登録のためのサービスを提供する 一部のメディアの調査によると、一部の販売者はパスワードで変更できる既製のアカウントを海外の Web サイトから一括購入していることが判明しました 費用は約 8 元であり、外部価格は30元に達することもありますが、代理店登録であれば1.2元程度で済みます。
これらのチャネルを通じて個人のプライバシーが漏洩するリスクは言うまでもなく、非公開で国際チャネルを設立し、国境を越えたビジネス サービスを公的に提供することも、サイバーセキュリティ法の関連規定に違反します。現在、ChatGPTという言葉を含むこれらの公開アカウントやミニプログラムのほとんどはWeChat当局によって禁止されており、関連プラットフォームもそのようなアカウントの売買をブロックしている。
前述したように、ChatGPT はセキュリティ担当者が脆弱なコードを検出するのに役立ち、ハッカーも同様の操作を実行できます。デジタル セキュリティ調査メディア Cybernews の研究者は、ハッカーが ChatGPT を使用して Web サイトのセキュリティ ホールを見つけることができることを発見しました。研究者らは、その助けを借りて、通常の Web サイトで侵入テストを実施し、ChatGPT が提供する提案とコードを 45 分以内に組み合わせました。この例でハックは完了です。
さらに、ChatGPT はプログラミングに使用できるため、悪意のあるコードの作成にも使用できます。たとえば、ChatGPT を通じて VBA コードを作成した場合、このコードに悪意のある URL を挿入するだけで、ユーザーが Excel ファイルなどのファイルを開くと、自動的にマルウェア ペイロードのダウンロードが開始されます。したがって、ChatGPT を使用すると、高度な技術的能力を持たないハッカーでも、添付ファイル付きの武器化された電子メールをわずか数分で作成して、ターゲットにサイバー攻撃を実行できます。
昨年 12 月、ハッカーは、ChatGPT を使用して書かれた Python スティーラー コードをアンダーグラウンド フォーラムで共有しました。このスティーラーは、一般的なファイル タイプ (MS Office ドキュメント、PDF、画像ファイルなど) を検索し、それらをランダムなサブフォルダーにコピーできます。 Temp フォルダー内で圧縮し、ハードコードされた FTP サーバーにアップロードします。
ハッカーは、ChatGPT を使用して情報窃取プログラムを作成する方法をフォーラムでデモンストレーションしました
ChatGPT は人間の言語を学習できるため、ソーシャル エンジニアリングを記述するときに使用できますフィッシングメールなどの行為、文法や表現の習慣はさらに混乱を招きます。研究者らは、ChatGPT を使用すると、ハッカーがさまざまな社会環境を現実的にシミュレートできるようになり、標的型攻撃がより効果的になることを発見しました。母国以外の国のハッカーでも、スペルミスやミスのある高度にシミュレートされたフィッシングメールなしで、標的国の文法やロジックに準拠したコードを書くことができます。フォーマットエラー。
ChatGPT を使用して生成されたフィッシングメール
ChatGPT ネットワーク セキュリティの上記の利点とリスクを予備的に調べてみると、この 2 つが次のようなものであることは明らかです。これには 2 つの側面があり、ハッカーが脆弱性と攻撃対象領域を見つけることができれば、セキュリティ担当者がギャップを検出して埋め、攻撃の隙を狭めるのにも役立ちます。ただし、現段階では、ChatGPT のセキュリティ支援機能はまだ専門家のレビューと承認が必要であり、プロセスに遅れが生じる可能性があります。金銭を目的とした犯罪的ハッカーは通常、人工知能を直接使用して攻撃を開始しますが、その脅威を推定するのは困難です。
ChatGPTに代表される人工知能は、近年の優れた技術を具現化したものであることは間違いありませんが、この新技術の二面性により、ネットワークセキュリティやITの専門家は満足していません。 ChatGPT.ヤン氏は間違いなく複雑な感情を抱いています。最近の BlackBerry の調査によると、企業の 80% が 2025 年までに AI 主導のサイバーセキュリティに投資する予定であると回答していますが、75% は依然として AI がセキュリティに対して深刻な脅威をもたらすと考えています。
これは、人工知能産業の発展を特に規制するための新たな一連の規制が緊急に必要ということを意味するのでしょうか?我が国の一部の専門家や学者は、ChatGPTが現在達成しているセンセーショナルな効果や複数の資本によるゲームへの参入の試みは、人工知能産業が画期的な発展を遂げたことを意味するものではないと指摘しています。独特の反復性とテンプレート性を備えているため、現段階で規制当局がChatGPT技術監督を直ちにサイバースペースガバナンスの中核任務とみなす必要はないが、そうでないと我が国の立法モデルは「新たな技術の出現」という論理サイクルに陥ってしまうだろう。そして新たな規制が策定される。」現在のところ、我が国は、サイバーセキュリティ法、ネットワーク情報コンテンツの生態学的ガバナンスに関する規則、インターネット情報サービスのアルゴリズム推奨管理に関する規則などの法令を公布しており、これらの法律は、情報の悪用に対する詳細な法的規定を定めています。人工知能技術とアルゴリズム技術の義務と監視システムは、ChatGPT が短期的に引き起こす可能性のあるネットワーク セキュリティ リスクに対処するのに十分です。現段階では、我が国の規制当局は既存の法制度を最大限に活用してChatGPT関連産業の監督を強化することができ、将来的には経験が成熟すれば、人工知能技術アプリケーションの分野で立法の開始を検討することができる。さまざまな潜在的なセキュリティリスクを伴います。
海外では、EUは2024年に人工知能法を施行する予定で、加盟国が「必要な手続きが確実に履行される」ことを保証する責任を負う少なくとも1つの監督機関を任命または設立することを提案している。この法案は、自動運転車からチャットボット、自動化された工場に至るまで、あらゆる分野で広く利用されることが見込まれている。
実際のところ、ChatGPT のセキュリティと人間の仕事が人工知能に取って代わられるかどうかに関する議論は、最終的には 1 つの命題に集約されるかもしれません。それは、人工知能が人間を制御するのか、それとも人間が人工知能を制御するのかということです。人工知能が健全に発展し、人間の作業効率を向上させ、社会の進歩を加速させることができれば、ネットワークも安全になりますが、人間が人工知能を制御できず、無秩序な方向に発展させてしまえば、世界は必然的に混乱することになります。攻撃と脅威が渦巻くネットワーク環境では、その頃にはネットワーク セキュリティはもはや「赤と青の小さな戦い」ではなく、人間の社会秩序全体を転覆させるものになるかもしれません。
以上がChatGPT を上手にプレイすると、遅かれ早かれ刑務所で食事をしなければならなくなるでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。