ChatGPT に代表される大規模言語モデルの普及により、人々のセキュリティに対する不安はますます顕在化しています。イタリアが3月31日にプライバシーとセキュリティの問題を理由にChatGPTの一時禁止を発表したことを受け、カナダも4月4日、ChatGPTの親会社であるOpenAIをデータセキュリティ問題で調査していると発表した。 OpenAIの公式ブログは4月5日、人々の不安への副反応ともいえるAIの安全性をどのように確保しているのかに焦点を当てた記事を更新した。
記事には、最新の GPT-4 モデルのテスト完了後と記載されています同チームは、すべてのトレーニングに6か月以上を費やし、一般公開時の安全性を高めるための内部テストを実施しており、強力な人工知能システムは厳格なセキュリティ評価を受け、確実な監視に基づいて監視される必要があると考えている。政府は、最善の規制アプローチを開発するために積極的に協力しています。
この記事では、実験的テストのプロセス中にすべてのリスクを予測することは不可能であるが、AI は継続的に経験を学習し、実際の使用で改善してより安全なバージョンを反復する必要があり、社会はそれができると考えているとも述べています。ますます強力になる AI に適応する時期が来ています。
記事には、安全作業の重要なポイントの 1 つは子供を守ることであると記載されています。AI ツールを使用するユーザーは 18 歳以上でなければなりません13歳以上、保護者の監督下。
OpenAI は、憎しみ、嫌がらせ、暴力、またはアダルト コンテンツを生成するために自社のテクノロジーを使用することを許可していないことを強調しています。GPT-3.5 と比較して、GPT-4 は応答を拒否する能力が 82% 向上しています。また、監視システムを通じて虐待の可能性のある状況を検出し、たとえば、ユーザーが児童の性的虐待の素材を画像ツールにアップロードしようとすると、システムがそれをブロックし、国立行方不明児童搾取センターに報告します。
この記事では、OpenAI の大規模な言語モデルは、公開されているコンテンツ、ライセンス、コンテンツとコンテンツを含む広範なテキストのコーパスでトレーニングされていると述べられています。人間のレビュー担当者によって生成されたデータは、サービスの販売、広告、ユーザーのプロファイリングに使用されることはありません。 OpenAI は、トレーニング プロセス中に公共のインターネットから個人情報を取得することを認めますが、可能な場合にはトレーニング データ セットから個人情報を削除し、個人情報の要求を拒否するようにモデルを微調整し、削除要求に積極的に対応するよう努めます。システムに関係する個人 情報コンテンツのリクエスト。
提供されるコンテンツの精度に関して、記事では、虚偽のコンテンツのマークに関するユーザーのフィードバックを通じて、GPT-4 によって生成されるコンテンツの精度は GPT-3.5 より 40% 高いと述べています。
この記事では、AI のセキュリティ問題を解決する実際的な方法は、より多くの時間とリソースを投資して効果的な緩和テクノロジーを研究し、実験環境で実際の使用シナリオで悪用をテストすることだけではなく、より重要なのは、AI のセキュリティ問題を改善することであると考えています。セキュリティと AI 機能の向上は密接に関連しており、OpenAI は、最も強力な AI モデルを最適なセキュリティ保護手段と照合し、慎重さを増しながらより強力なモデルを作成および展開する能力を備えています。AI システムの進化に伴い、セキュリティ対策は引き続き強化されます。 。
以上がChatGPTのセキュリティが懸念されており、親会社はセキュリティには常に注意を払っていると文書を発表した。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。