OpenAI 企業は最近、自社の人工知能ツールにセキュリティ対策を組み込むと発表しました。同社は、ChatGPT チャットボットやその他の人工知能システムの中核となる、強力な GPT-4 大規模言語人工知能モデルの開発者です。同社の今回の開示は、生成AIシステムの開発に対する管理強化を求める声が高まる中で行われた。
OpenAI はブログ投稿で、人工知能システムによる有害なコンテンツの生成を防ぎ、データ プライバシー規制への違反を回避するために講じている手順を詳しく説明しました。同社が開発したAIツールは生成AIの世界的なブームを先導したが、ここ数週間で規制当局がそうしたAIシステムの安全性に関心を持ち始めており、イタリアではGDPR規制に違反する可能性があるとしてChatGPTの使用が禁止されている。
マスク氏とアップルの共同創設者ウォズニアック氏を含む人工知能の専門家は最近、公開書簡で大規模言語モデル(LLM)の開発の一時停止を求め、バイデン米国大統領もこの議論を受けて参加した。同氏は記者団に対し、人工知能企業は安全を最優先にしなければならないと語った。
OpenAI は、これまでで最も先進的な GPT-4 を先月リリースするまでに 6 か月を費やしたと述べました。不正な目的での使用を可能な限り困難にします。
セキュリティ研究者らは、チャットボットを「だまして」ヘイトスピーチや貧弱な人工知能システムを模倣したマルウェアコードを生成させることで、ChatGPTのセキュリティ制御をバイパスできることを以前に実証した。 OpenAI は、GPT-4 では GPT-3.5 モデルよりもこの問題が発生する可能性が低いと述べています。
同社のエンジニアは次のように述べています:「GPT-3.5 と比較して、GPT-4 は禁止されたコンテンツのリクエストに応答する可能性が 82% 低く、人工知能システムの悪用を監視する堅牢なシステムを構築しました。また、そのような機能を必要とする開発者やユーザーをより適切にサポートするために、開発者がモデル出力に対してより厳格な基準を設定できる機能も開発しています。」
OpenAI は次のように述べています:「私たちの大規模な言語モデルは、公開されているコンテンツ、ライセンスされたコンテンツ、人間のレビュー担当者によって生成されたコンテンツを含む広範なテキストのコーパスでトレーニングされています。サービスの販売、広告のためにデータを転送することはありません」
同社はまた、トレーニング中に個人データが漏洩しないようにする方法についても詳しく説明しました。 「当社のトレーニングデータの一部には公共のインターネット上で入手可能な個人情報が含まれていますが、当社の大規模言語モデルには個人ではなく世界について学習させたいと考えています。」と同社は述べています。 「このモデルは、個人情報の要求を拒否し、AI システムから個人情報を削除するという個人の要求に応答します。これらの手順により、モデルが個人情報の可能性を含む応答を生成する可能性が最小限に抑えられます。」
バイデン米国大統領も人工知能反対派の仲間入り
OpenAIがこの声明を発表する前、バイデン米国大統領は記者団に対し、人工知能開発の作者には製品を公開する前に安全であることを確認する責任があると語った。
バイデン氏は次のように述べた: 「私たちは昨年 10 月に権利章典を提案し、重要な保護機能が最初から AI システムに組み込まれていることを確認し、後戻りして実行する必要がないようにしました。アメリカ人の権利と安全を保護し、プライバシーを保護し、起こり得る偏見や偽情報に対処するために、責任あるイノベーションと適切なガードレールを確保するための議論が行われます。」
以上がOpenAI企業がGPT-4などの人工知能モデルを構築する際に使用されるセキュリティ対策を公開の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。