米国現地時間 4 月 6 日水曜日、 OpenAI のニュースで、その詳細な紹介が掲載されました。 AI のセキュリティを確保するためのアプローチ。セキュリティ評価の実施、起動後の安全対策の改善、子供の保護、プライバシーの尊重などの方法。同社は、AI システムが安全に構築、展開、使用されることを保証することが、その使命を達成するために重要であると述べています。
以下は OpenAI の投稿の全文です:
OpenAI は、できるだけ多くの人々に利益をもたらす強力な AI セキュリティを確保することに取り組んでいます。私たちは、当社の AI ツールが今日の人々に多くの助けを提供していることを知っています。世界中のユーザーから、ChatGPT が生産性の向上、創造性の向上、カスタマイズされた学習体験の提供に役立つとの声が寄せられています。しかし、他のテクノロジーと同様に、これらのツールには実際のリスクが伴うことも認識しています。したがって、私たちはあらゆるシステムレベルでセキュリティを確保するために懸命に取り組んでいます。
より安全な 人工知能 システム
を開始します新しい人工知能システムを導入する前に、厳格なテストを実施し、外部の専門家から意見を求め、人間のフィードバックによる強化学習などの手法を通じてモデルのパフォーマンスを向上させます。同時に、当社は広範なセキュリティおよび監視システムも確立しています。
最新モデル GPT-4 を例に挙げると、トレーニング終了後、一般公開前に最大 6 か月にわたる全社テストを実施し、より安全で信頼性が高いことを確認しました。
私たちは、強力な人工知能システムは厳格なセキュリティ評価を受ける必要があると考えています。この慣行を確実に広く採用するには規制が必要です。したがって、私たちは政府と積極的に連携して、最適な規制形態について話し合っています。
実際の使用から学び、安全対策を改善する
私たちは、システム導入前に予見可能なリスクを防止するために最善を尽くしていますが、実験室での学習には常に限界があります。私たちは広範囲に調査とテストを行っていますが、人々が私たちのテクノロジーをどのように使用するか、あるいは悪用するかを予測することはできません。したがって、私たちは、現実世界での使用から学ぶことが、より安全性の高い AI システムを作成およびリリースする上で重要な要素であると信じています。
私たちは、新しい人工知能システムを慎重に徐々に一般にリリースし、実質的な安全対策を講じ、学んだ教訓に基づいて改善を続けます。
当社は、開発者がテクノロジーをアプリケーションに直接統合できるように、独自のサービスと API で最も強力なモデルを提供します。これにより、虐待を監視して対処し、対応策を策定することができます。このようにして、理論的に何をすべきかを想像するだけでなく、実際的な行動を起こすことができます。
また、実際の使用経験から、当社のテクノロジーをより有益な方法で使用できるようにしながら、人々に実際のリスクをもたらす行動に対処するための、ますます詳細なポリシーを開発することにもつながりました。
私たちは、社会がますます強力になる人工知能に適応するにはさらに時間が必要であり、人工知能の影響を受けるすべての人が人工知能のさらなる発展について発言権を持つべきであると信じています。反復的な導入により、さまざまな関係者が AI テクノロジーについての会話をより効果的に行うことができ、これらのツールを実際に使用する経験を持つことが重要です。
子どもの保護
当社の安全活動の焦点の 1 つは、子どもの保護です。当社の人工知能ツールを使用する人は 18 歳以上、または保護者の同意がある場合は 13 歳以上である必要があります。現在、検証機能の開発に取り組んでいます。
当社のテクノロジーを使用して、嫌がらせ、嫌がらせ、暴力、またはアダルト コンテンツを生成することは許可されません。最新の GPT-4 は、GPT-3.5 と比較して、制限されたコンテンツのリクエストに応答する可能性が 82% 低くなります。私たちは虐待を監視するための堅牢なシステムを導入しています。 GPT-4 は ChatGPT Plus の加入者が利用できるようになりました。今後、より多くの人が GPT-4 を体験できるようにしたいと考えています。
私たちは、モデルが子供にとって有害なコンテンツを生成する可能性を最小限に抑えるために重要な措置を講じました。たとえば、ユーザーが子供に安全な虐待素材を当社の画像生成ツールにアップロードしようとすると、当社はそれをブロックし、その問題を国立行方不明児童搾取センターに報告します。
デフォルトのセキュリティ保護に加えて、私たちは非営利団体カーン アカデミーなどの開発組織と協力して、開発組織に合わせたセキュリティ対策を行っています。カーン アカデミーは、生徒にとっては仮想家庭教師、教師にとっては教室アシスタントとして機能する人工知能アシスタントを開発しました。また、開発者がモデル出力に対してより厳格な基準を設定して、そのような機能を必要とする開発者やユーザーをより適切にサポートできるようにする機能にも取り組んでいます。
プライバシーの尊重
当社の大規模な言語モデルは、公開コンテンツ、ライセンスされたコンテンツ、人間が作成したコンテンツなど、広範なテキストのコーパスでトレーニングされています。モデレータが生成したコンテンツ。当社はこのデータをサービスや広告の販売に使用したり、プロフィールの構築に使用したりすることはありません。このデータは、人々とより多くの会話をすることで ChatGPT をよりインテリジェントにするなど、モデルをより人々を支援するために使用するだけです。
トレーニング データの多くには、公開 Web 上で入手可能な個人情報が含まれていますが、モデルには個人ではなく世界全体について学習してもらいたいと考えています。したがって、当社は、可能な場合にはトレーニング データ セットから個人情報を削除し、個人情報のクエリ リクエストを拒否するためにモデルを微調整し、当社のシステムから個人情報を削除するという個人のリクエストに対応することに取り組んでいます。これらの対策により、モデルが個人情報を含む応答を生成する可能性が最小限に抑えられます。
事実の正確性の向上
今日の大規模な言語モデルは、以前のパターンとユーザーが入力したテキストに基づいて、次に使用される可能性のある単語を予測できます。しかし場合によっては、次に可能性が高い単語が実際には事実として間違っている可能性があります。
事実の正確性の向上は、OpenAI や他の多くの AI 研究組織の焦点の 1 つであり、私たちは進歩を続けています。プライマリ データ ソースとして不正確であるとフラグが立てられた ChatGPT 出力に対するユーザー フィードバックを活用することで、GPT-4 の事実の正確性を向上させました。 GPT-3.5 と比較して、GPT-4 は事実に基づくコンテンツを生成する可能性が高く、40% 向上しています。
ChatGPT からの誤った応答の可能性を避けるために、ユーザーがツールを使用するためにサインアップする際に、可能な限り透明性を保つよう努めています。しかし、誤解の可能性をさらに減らし、これらの AI ツールの現在の制限について一般の人々を教育するために、やるべきことはまだあると私たちは認識しています。
継続的な研究と取り組み
AI の安全性問題に対処する現実的な方法は、効果的な緩和策の研究とテクノロジーの校正とテストに、より多くの時間とリソースを投資することであると考えています。現実世界での潜在的な虐待に対抗します。
重要なのは、AI の安全性と機能の向上は同時に進める必要があると私たちが考えていることです。これまでの当社の最高のセキュリティ作業は、当社の最も有能なモデルを使った作業から生まれています。なぜなら、これらのモデルはユーザーの指示に従うのが上手で、ユーザーの指示を活用または「ガイド」するのが簡単だからです。
私たちは、より注意を払いながら、より有能なモデルを作成して展開し、AI システムの進化に合わせて安全対策を強化し続けます。
GPT-4 の機能、メリット、リスクをよりよく理解するために GPT-4 の導入まで 6 か月以上かかりましたが、AI システムのセキュリティを向上させるにはさらに時間がかかる場合があります。したがって、政策立案者と AI 開発者は、AI の開発と展開が世界的に効果的に規制され、誰も先を行くために近道をしないようにする必要があります。これは技術的および制度的革新を必要とする困難な課題ですが、私たちは積極的に貢献したいと考えています。
AI の安全性の問題に対処するには、AI システムの動作の限界を設定するなど、広範な議論、実験、取り組みも必要になります。私たちは、より安全な AI エコシステムを構築するために、関係者間のコラボレーションとオープンな対話をこれまでも推進してきましたし、今後も継続していきます。
以上がOpenAI が AI の安全性を確保する方法について投稿: 政府の規制が必要の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。