4 月 23 日のニュース ChatGPT チャットボットは、ユーザー入力に基づいてコードを含むさまざまなテキストを生成できます。しかし、カナダのケベック大学の 4 人の研究者は、ChatGPT によって生成されたコードには重大なセキュリティ問題が存在することが多く、ChatGPT はこれらの問題についてユーザーに積極的に警告せず、ユーザーが尋ねた場合にのみ間違いを認めるだけであることを発見しました。
研究者らは研究結果を論文で紹介し、IT House がその論文を検討したところ、ChatGPT が C、C、Python、Java などの言語を含む 21 個のプログラムとスクリプトを生成していることが判明しました。これらのプログラムとスクリプトは、メモリ破損、サービス妨害、逆シリアル化、暗号化実装の脆弱性など、特定のセキュリティの脆弱性を実証するように設計されています。その結果、ChatGPT によって生成された 21 のプログラムのうち、最初の試行では安全だったのは 5 つだけでした。誤った手順を修正するようさらに促した後、大規模言語モデルは 7 つのより安全なアプリケーションを生成することに成功しました。ただし、これは評価対象の特定の脆弱性に関して「安全」であっただけであり、最終的なコードには他に何も含まれていなかったわけではありません。脆弱性の悪用。
研究者らは、ChatGPT の問題の一部は、敵対的なコード実行モデルが考慮されていないことであると指摘しました。 「無効なデータを入力しない」ことでセキュリティ問題を回避できると繰り返しユーザーに伝えますが、これは現実の世界では実現可能ではありません。ただし、提案されたコードに重大な脆弱性があることを認識し、認めているようです。
ケベック大学のコンピュータ科学工学教授で論文の共著者の一人であるラファエル・クーリー氏は、レジスター紙に次のように語った。「明らかに、これは単なるアルゴリズムです。何も知りませんが、同氏は、セキュリティ問題に対するChatGPTの当初の対応は、有効な入力のみを使用することを推奨するものであったが、これは明らかに不合理であると述べた。後で問題を改善するよう求められた場合にのみ、役立つガイダンスが提供されます。
研究者らは、ChatGPT のこの動作は理想的ではないと考えています。ユーザーがどのような質問をすればよいかを知るには、特定の脆弱性やコーディング技術に関するある程度の知識が必要だからです。
研究者らは、ChatGPT には倫理的な矛盾があるとも指摘しました。攻撃的なコードの作成は拒否されますが、脆弱なコードが作成されます。彼らは Java デシリアライゼーションの脆弱性の例を挙げ、「チャットボットは脆弱なコードを生成し、それをより安全にする方法についての提案を提供しましたが、より安全なバージョンのコードを作成することはできないと述べました。」
Khoury 氏は次のように考えています。 ChatGPT は現在の形式ではリスクがありますが、この不安定でパフォーマンスの低い AI アシスタントを使用する賢明な方法がないと言っているわけではありません。 「私たちは学生がこのツールを使用しているのを見てきましたし、プログラマーも実際にこのツールを使用しています。したがって、安全でないコードを生成するツールを使用することは非常に危険です。コードが生成されたものである場合には、学生にそれを認識させる必要があります」と彼は言いました。また、同じタスクのコードを異なる言語で生成するように ChatGPT に依頼したとき、ある言語では安全なコードが生成され、別の言語では安全なコードが生成されることに驚いたと彼は言いました。 「この言語モデルはブラック ボックスのようなものなので、これに関する適切な説明や理論がありません。」
以上が研究者らは、ChatGPT によって生成されたコードの多くが安全ではないことを発見しましたが、それはわかりませんの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。