ホームページ テクノロジー周辺機器 AI OpenAI が AI の安全性を確保する方法について投稿: 政府の規制が必要

OpenAI が AI の安全性を確保する方法について投稿: 政府の規制が必要

Apr 07, 2023 pm 07:01 PM
chatgpt openai

OpenAI が AI の安全性を確保する方法について投稿: 政府の規制が必要

米国現地時間 4 月 6 日水曜日、 OpenAI のニュースで、その詳細な紹介が掲載されました。 AI のセキュリティを確保するためのアプローチ。セキュリティ評価の実施、起動後の安全対策の改善、子供の保護、プライバシーの尊重などの方法。同社は、AI システムが安全に構築、展開、使用されることを保証することが、その使命を達成するために重要であると述べています。

以下は OpenAI の投稿の全文です:

OpenAI は、できるだけ多くの人々に利益をもたらす強力な AI セキュリティを確保することに取り組んでいます。私たちは、当社の AI ツールが今日の人々に多くの助けを提供していることを知っています。世界中のユーザーから、ChatGPT が生産性の向上、創造性の向上、カスタマイズされた学習体験の提供に役立つとの声が寄せられています。しかし、他のテクノロジーと同様に、これらのツールには実際のリスクが伴うことも認識しています。したがって、私たちはあらゆるシステムレベルでセキュリティを確保するために懸命に取り組んでいます。

より安全な 人工知能 システム

を開始します新しい人工知能システムを導入する前に、厳格なテストを実施し、外部の専門家から意見を求め、人間のフィードバックによる強化学習などの手法を通じてモデルのパフォーマンスを向上させます。同時に、当社は広範なセキュリティおよび監視システムも確立しています。

最新モデル GPT-4 を例に挙げると、トレーニング終了後、一般公開前に最大 6 か月にわたる全社テストを実施し、より安全で信頼性が高いことを確認しました。

私たちは、強力な人工知能システムは厳格なセキュリティ評価を受ける必要があると考えています。この慣行を確実に広く採用するには規制が必要です。したがって、私たちは政府と積極的に連携して、最適な規制形態について話し合っています。

実際の使用から学び、安全対策を改善する

私たちは、システム導入前に予見可能なリスクを防止するために最善を尽くしていますが、実験室での学習には常に限界があります。私たちは広範囲に調査とテストを行っていますが、人々が私たちのテクノロジーをどのように使用するか、あるいは悪用するかを予測することはできません。したがって、私たちは、現実世界での使用から学ぶことが、より安全性の高い AI システムを作成およびリリースする上で重要な要素であると信じています。

私たちは、新しい人工知能システムを慎重に徐々に一般にリリースし、実質的な安全対策を講じ、学んだ教訓に基づいて改善を続けます。

当社は、開発者がテクノロジーをアプリケーションに直接統合できるように、独自のサービスと API で最も強力なモデルを提供します。これにより、虐待を監視して対処し、対応策を策定することができます。このようにして、理論的に何をすべきかを想像するだけでなく、実際的な行動を起こすことができます。

また、実際の使用経験から、当社のテクノロジーをより有益な方法で使用できるようにしながら、人々に実際のリスクをもたらす行動に対処するための、ますます詳細なポリシーを開発することにもつながりました。

私たちは、社会がますます強力になる人工知能に適応するにはさらに時間が必要であり、人工知能の影響を受けるすべての人が人工知能のさらなる発展について発言権を持つべきであると信じています。反復的な導入により、さまざまな関係者が AI テクノロジーについての会話をより効果的に行うことができ、これらのツールを実際に使用する経験を持つことが重要です。

子どもの保護

当社の安全活動の焦点の 1 つは、子どもの保護です。当社の人工知能ツールを使用する人は 18 歳以上、または保護者の同意がある場合は 13 歳以上である必要があります。現在、検証機能の開発に取り組んでいます。

当社のテクノロジーを使用して、嫌がらせ、嫌がらせ、暴力、またはアダルト コンテンツを生成することは許可されません。最新の GPT-4 は、GPT-3.5 と比較して、制限されたコンテンツのリクエストに応答する可能性が 82% 低くなります。私たちは虐待を監視するための堅牢なシステムを導入しています。 GPT-4 は ChatGPT Plus の加入者が利用できるようになりました。今後、より多くの人が GPT-4 を体験できるようにしたいと考えています。

私たちは、モデルが子供にとって有害なコンテンツを生成する可能性を最小限に抑えるために重要な措置を講じました。たとえば、ユーザーが子供に安全な虐待素材を当社の画像生成ツールにアップロードしようとすると、当社はそれをブロックし、その問題を国立行方不明児童搾取センターに報告します。

デフォルトのセキュリティ保護に加えて、私たちは非営利団体カーン アカデミーなどの開発組織と協力して、開発組織に合わせたセキュリティ対策を行っています。カーン アカデミーは、生徒にとっては仮想家庭教師、教師にとっては教室アシスタントとして機能する人工知能アシスタントを開発しました。また、開発者がモデル出力に対してより厳格な基準を設定して、そのような機能を必要とする開発者やユーザーをより適切にサポートできるようにする機能にも取り組んでいます。

プライバシーの尊重

当社の大規模な言語モデルは、公開コンテンツ、ライセンスされたコンテンツ、人間が作成したコンテンツなど、広範なテキストのコーパスでトレーニングされています。モデレータが生成したコンテンツ。当社はこのデータをサービスや広告の販売に使用したり、プロフィールの構築に使用したりすることはありません。このデータは、人々とより多くの会話をすることで ChatGPT をよりインテリジェントにするなど、モデルをより人々を支援するために使用するだけです。

トレーニング データの多くには、公開 Web 上で入手可能な個人情報が含まれていますが、モデルには個人ではなく世界全体について学習してもらいたいと考えています。したがって、当社は、可能な場合にはトレーニング データ セットから個人情報を削除し、個人情報のクエリ リクエストを拒否するためにモデルを微調整し、当社のシステムから個人情報を削除するという個人のリクエストに対応することに取り組んでいます。これらの対策により、モデルが個人情報を含む応答を生成する可能性が最小限に抑えられます。

事実の正確性の向上

今日の大規模な言語モデルは、以前のパターンとユーザーが入力したテキストに基づいて、次に使用される可能性のある単語を予測できます。しかし場合によっては、次に可能性が高い単語が実際には事実として間違っている可能性があります。

事実の正確性の向上は、OpenAI や他の多くの AI 研究組織の焦点の 1 つであり、私たちは進歩を続けています。プライマリ データ ソースとして不正確であるとフラグが立てられた ChatGPT 出力に対するユーザー フィードバックを活用することで、GPT-4 の事実の正確性を向上させました。 GPT-3.5 と比較して、GPT-4 は事実に基づくコンテンツを生成する可能性が高く、40% 向上しています。

ChatGPT からの誤った応答の可能性を避けるために、ユーザーがツールを使用するためにサインアップする際に、可能な限り透明性を保つよう努めています。しかし、誤解の可能性をさらに減らし、これらの AI ツールの現在の制限について一般の人々を教育するために、やるべきことはまだあると私たちは認識しています。

継続的な研究と取り組み

AI の安全性問題に対処する現実的な方法は、効果的な緩和策の研究とテクノロジーの校正とテストに、より多くの時間とリソースを投資することであると考えています。現実世界での潜在的な虐待に対抗します。

重要なのは、AI の安全性と機能の向上は同時に進める必要があると私たちが考えていることです。これまでの当社の最高のセキュリティ作業は、当社の最も有能なモデルを使った作業から生まれています。なぜなら、これらのモデルはユーザーの指示に従うのが上手で、ユーザーの指示を活用または「ガイド」するのが簡単だからです。

私たちは、より注意を払いながら、より有能なモデルを作成して展開し、AI システムの進化に合わせて安全対策を強化し続けます。

GPT-4 の機能、メリット、リスクをよりよく理解するために GPT-4 の導入まで 6 か月以上かかりましたが、AI システムのセキュリティを向上させるにはさらに時間がかかる場合があります。したがって、政策立案者と AI 開発者は、AI の開発と展開が世界的に効果的に規制され、誰も先を行くために近道をしないようにする必要があります。これは技術的および制度的革新を必要とする困難な課題ですが、私たちは積極的に貢献したいと考えています。

AI の安全性の問題に対処するには、AI システムの動作の限界を設定するなど、広範な議論、実験、取り組みも必要になります。私たちは、より安全な AI エコシステムを構築するために、関係者間のコラボレーションとオープンな対話をこれまでも推進してきましたし、今後も継続していきます。

以上がOpenAI が AI の安全性を確保する方法について投稿: 政府の規制が必要の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました ChatGPT では、無料ユーザーが 1 日あたりの制限付きで DALL-E 3 を使用して画像を生成できるようになりました Aug 09, 2024 pm 09:37 PM

DALL-E 3は、前モデルより大幅に改良されたモデルとして2023年9月に正式導入されました。これは、複雑な詳細を含む画像を作成できる、これまでで最高の AI 画像ジェネレーターの 1 つと考えられています。ただし、発売当初は対象外でした

データに最適なエンベディング モデルの選択: OpenAI とオープンソースの多言語エンベディングの比較テスト データに最適なエンベディング モデルの選択: OpenAI とオープンソースの多言語エンベディングの比較テスト Feb 26, 2024 pm 06:10 PM

OpenAI は最近、最新世代の埋め込みモデル embeddingv3 のリリースを発表しました。これは、より高い多言語パフォーマンスを備えた最もパフォーマンスの高い埋め込みモデルであると主張しています。このモデルのバッチは、小さい text-embeddings-3-small と、より強力で大きい text-embeddings-3-large の 2 つのタイプに分類されます。これらのモデルがどのように設計され、トレーニングされるかについてはほとんど情報が開示されておらず、モデルには有料 API を介してのみアクセスできます。オープンソースの組み込みモデルは数多くありますが、これらのオープンソース モデルは OpenAI のクローズド ソース モデルとどう違うのでしょうか?この記事では、これらの新しいモデルのパフォーマンスをオープンソース モデルと実証的に比較します。データを作成する予定です

Spring Boot と OpenAI の出会いによる新しいプログラミング パラダイム Spring Boot と OpenAI の出会いによる新しいプログラミング パラダイム Feb 01, 2024 pm 09:18 PM

2023年、AI技術が注目を集め、プログラミング分野を中心にさまざまな業界に大きな影響を与えています。 AI テクノロジーの重要性に対する人々の認識はますます高まっており、Spring コミュニティも例外ではありません。 GenAI (汎用人工知能) テクノロジーの継続的な進歩に伴い、AI 機能を備えたアプリケーションの作成を簡素化することが重要かつ緊急になっています。このような背景から、AI 機能アプリケーションの開発プロセスを簡素化し、シンプルかつ直観的にし、不必要な複雑さを回避することを目的とした「SpringAI」が登場しました。 「SpringAI」により、開発者はAI機能を搭載したアプリケーションをより簡単に構築でき、使いやすく、操作しやすくなります。

Rust ベースの Zed エディターはオープンソース化されており、OpenAI と GitHub Copilot のサポートが組み込まれています Rust ベースの Zed エディターはオープンソース化されており、OpenAI と GitHub Copilot のサポートが組み込まれています Feb 01, 2024 pm 02:51 PM

著者丨コンパイル: TimAnderson丨プロデュース: Noah|51CTO Technology Stack (WeChat ID: blog51cto) Zed エディター プロジェクトはまだプレリリース段階にあり、AGPL、GPL、および Apache ライセンスの下でオープンソース化されています。このエディターは高性能と複数の AI 支援オプションを備えていますが、現在は Mac プラットフォームでのみ利用可能です。 Nathan Sobo 氏は投稿の中で、GitHub 上の Zed プロジェクトのコード ベースでは、エディター部分は GPL に基づいてライセンスされ、サーバー側コンポーネントは AGPL に基づいてライセンスされ、GPUI (GPU Accelerated User) インターフェイス部分はApache2.0ライセンス。 GPUI は Zed チームによって開発された製品です

携帯電話にchatgptをインストールする方法 携帯電話にchatgptをインストールする方法 Mar 05, 2024 pm 02:31 PM

インストール手順: 1. ChatGTP ソフトウェアを ChatGTP 公式 Web サイトまたはモバイル ストアからダウンロードします; 2. それを開いた後、設定インターフェイスで言語を中国語を選択します; 3. ゲーム インターフェイスでヒューマン マシン ゲームを選択し、中国スペクトル; 4 . 起動後、チャット ウィンドウにコマンドを入力してソフトウェアを操作します。

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

OpenAI を待つのではなく、Open-Sora が完全にオープンソースになるのを待ちましょう OpenAI を待つのではなく、Open-Sora が完全にオープンソースになるのを待ちましょう Mar 18, 2024 pm 08:40 PM

少し前まで、OpenAISora はその驚くべきビデオ生成効果で急速に人気を博し、数ある文学ビデオ モデルの中でも際立って世界的な注目を集めるようになりました。 2 週間前にコストを 46% 削減した Sora トレーニング推論再現プロセスの開始に続き、Colossal-AI チームは世界初の Sora のようなアーキテクチャのビデオ生成モデル「Open-Sora1.0」を完全にオープンソース化し、全体をカバーしました。データ処理、すべてのトレーニングの詳細、モデルの重みを含むトレーニング プロセスを管理し、世界中の AI 愛好家と協力してビデオ作成の新時代を推進します。ちょっと覗いてみましょう。Colossal-AI チームがリリースした「Open-Sora1.0」モデルによって生成された賑やかな街のビデオを見てみましょう。オープンソラ1.0

Embedding サービスのローカル実行パフォーマンスは OpenAI Text-Embedding-Ada-002 を上回っており、とても便利です。 Embedding サービスのローカル実行パフォーマンスは OpenAI Text-Embedding-Ada-002 を上回っており、とても便利です。 Apr 15, 2024 am 09:01 AM

Ollama は、Llama2、Mistral、Gemma などのオープンソース モデルをローカルで簡単に実行できるようにする非常に実用的なツールです。この記事では、Ollamaを使ってテキストをベクトル化する方法を紹介します。 Ollama をローカルにインストールしていない場合は、この記事を読んでください。この記事では、nomic-embed-text[2] モデルを使用します。これは、短いコンテキストおよび長いコンテキストのタスクにおいて OpenAI text-embedding-ada-002 および text-embedding-3-small よりも優れたパフォーマンスを発揮するテキスト エンコーダーです。 o が正常にインストールされたら、nomic-embed-text サービスを開始します。

See all articles