ホームページ テクノロジー周辺機器 AI GPT-5は停止されるのでしょうか? OpenAIは早朝に返答を発表:AIの安全性を確保するために「手抜き」はしない

GPT-5は停止されるのでしょうか? OpenAIは早朝に返答を発表:AIの安全性を確保するために「手抜き」はしない

Apr 07, 2023 pm 02:48 PM
AI システム

最近、OpenAI にとっては「困難な時期」と言えるでしょう。

ChatGPT と GPT-4 が引き起こす可能性のあるセキュリティ問題のため、OpenAI は外部からの批判と妨害を受けています:

  • Musk と他の数千人が共同で呼びかけました。 「すべての人工知能研究所は少なくとも6か月間、GPT-4より強力な大規模モデルのトレーニングを直ちに停止すべきである」;
  • イタリアはChatGPTを禁止し、OpenAlは「20日以内にヨーロッパの代表者を通じて通知しなければならない」この要件を実装するために講じられた措置の会社";
  • ChatGPT は多数のアカウントを禁止しました;
  • ChatGPT Plus は廃止されました;
  • ....

これらの出来事は、AI が人間社会に多くの利益をもたらす能力を持っていることが証明されているものの、テクノロジーは常に諸刃の剣であり、人間社会に現実のリスクをもたらす可能性があること、そして AI は人間社会に現実のリスクをもたらす可能性があることを示しています。例外なし 。

4 月 6 日、OpenAI は「AI の安全性へのアプローチ」というタイトルのブログ記事を正式にリリースし、「人工知能システムを安全に構築、展開、使用する」方法について説明しました。

GPT-5は停止されるのでしょうか? OpenAIは早朝に返答を発表:AIの安全性を確保するために「手抜き」はしない

#OpenAI は、強力な人工知能を安全に保ち、広く利益をもたらすことに取り組んでいます。当社の AI ツールは今日の人々に多くのメリットをもたらします。

世界中のユーザーから、ChatGPT が生産性の向上、創造性の向上、カスタマイズされた学習体験の提供に役立つとの声が寄せられています。

また、他のテクノロジーと同様、これらのツールには現実的なリスクが伴うことも認識しています。そのため、当社はあらゆるレベルでセキュリティがシステムに組み込まれるよう懸命に取り組んでいます。

1. より安全性の高い人工知能システムを構築する

新しいシステムをリリースする前に、当社は厳格なテストを実施し、フィードバックのために外部の専門家を参加させ、人間のフィードバックから強化学習を活用するよう努めています。行動をモデル化し、広範な安全性と監視システムを確立します。

たとえば、当社の最新モデルである GPT-4 のトレーニングが完了した後、スタッフ全員が 6 か月以上を費やして、一般公開前にそのモデルの安全性と一貫性を高めました。

私たちは、強力な人工知能システムは厳格なセキュリティ評価を受ける必要があると考えています。このアプローチを確実に採用するには規制が必要であり、私たちは政府と積極的に協力して、この規制の最良の形を模索しています。

2. 実際の使用状況から学び、安全対策を強化する

私たちは展開前に予見可能なリスクを防止するよう努めていますが、実験室で学べることは限られています。広範な調査とテストにもかかわらず、人々が当社のテクノロジーを有益に使用するすべての方法、または人々がテクノロジーを悪用するすべての方法を予測することはできません。そのため、私たちは、実際の使用から学ぶことが、時間の経過とともにより安全性の高い AI システムを作成およびリリースするための重要な要素であると信じています。

私たちは、多くの安全策を講じた上で、新しい AI システムを慎重に段階的にリリースし、着実に拡大する人口に向けて提供し、学んだことに基づいて継続的に改善しています。

当社は独自のサービスと API を通じて最も機能的なモデルを提供しているため、開発者はこのテクノロジーをアプリケーションで直接使用できます。これにより、不正行為を監視して対策を講じ、不正行為がどのようなものであるかについての理論だけでなく、人々がシステムを不正利用する実際の方法に対する緩和策を継続的に構築できるようになります。

実世界での使用により、私たちは、人々に本当のリスクをもたらす行為を防止すると同時に、当社のテクノロジーの多くの有益な使用を可能にする、ますます微妙なポリシーを開発することにもつながりました。

重要なのは、社会がますます能力が高まる AI にアップデートして適応する時間を与えられるべきであり、このテクノロジーの影響を受けるすべての人が AI が今後の開発において重要な発言権を持つことを理解する必要があると私たちは考えています。反復的な導入により、さまざまな関係者を AI テクノロジーの導入に関する会話に、これらのツールを直接体験していない場合よりも効果的に参加させることができます。

3. 子どもの保護

安全性の重要な側面は、子どもを守ることです。当社の AI ツールを使用するユーザーは 18 歳以上、または保護者の承認を得て 13 歳以上である必要があり、現在検証オプションの検討中です。

当社のテクノロジーを使用して、憎しみに満ちた、嫌がらせ、暴力的、またはアダルトなコンテンツ、その他の (有害な) カテゴリを生成することは許可されません。当社の最新モデルである GPT-4 は、GPT-3.5 と比較して、許可されていないコンテンツ要求に対する応答率が 82% 低く、悪用を監視する堅牢なシステムを構築しています。 GPT-4 は ChatGPT Plus ユーザーが利用できるようになりましたが、今後はより多くの人が GPT-4 を利用できるようにしたいと考えています。

私たちは、モデルが子供にとって有害なコンテンツを生成する可能性を最小限に抑えるために多大な努力を払ってきました。たとえば、ユーザーが子供に安全な虐待素材を当社の画像ツールにアップロードしようとすると、当社はその行為をブロックし、国立行方不明児童搾取センターに報告します。

デフォルトの安全ガードレールに加えて、私たちは非営利団体カーン アカデミーのような開発者と協力しています。カーン アカデミーは、生徒の仮想家庭教師と教師の教室アシスタントの両方として機能する AI 搭載アシスタントを構築しました。生徒のセキュリティ軽減策をカスタマイズします。使用例。また、この機能を必要とする開発者やユーザーをより適切にサポートするために、開発者がモデル出力に対してより厳格な基準を設定できるようにする機能も開発中です。

4. プライバシーの尊重

当社の大規模な言語モデルは、公開されている承認されたコンテンツや人間のレビュー担当者によって生成されたコンテンツを含む、広範なテキストのコーパスでトレーニングされています。私たちはサービスや広告を販売したり、人々のプロフィールを構築したりするためにデータを使用するのではなく、私たちのモデルを人々にとってより役立つものにするためにデータを使用します。たとえば、ChatGPT は、ChatGPT との会話について人々をさらにトレーニングすることで機能を向上させます。

トレーニング データの一部には公共のインターネット上の個人情報が含まれていますが、私たちはモデルにプライベートな世界ではなく世界について学習してもらいたいと考えています。したがって、私たちは、可能な場合にはトレーニング データ セットから個人情報を削除し、個人情報の要求を拒否するようにモデルを微調整し、個人情報をシステムから削除してほしいという個人からの要求に対応するよう努めています。これらの手順により、モデルが個人情報を含むコンテンツを生成する可能性が最小限に抑えられます。

5. 事実の正確性を向上させる

大規模な言語モデルは、ユーザーが提供したテキスト入力など、以前に見たパターンに基づいて次の単語のシーケンスを予測し、生成します。場合によっては、次に可能性が高い単語が事実として正確ではない可能性があります。

事実の正確性を向上させることは、OpenAI や他の多くの AI 開発者にとって重要な仕事であり、私たちは進歩を続けています。プライマリ データ ソースとして不正確であるとフラグが立てられた ChatGPT 出力に対するユーザー フィードバックを活用する。

私たちは、幻覚の可能性をさらに減らし、これらの人工知能ツールの現在の限界について一般の人々を教育するために、やるべきことはまだたくさんあることを認識しています。

6. 継続的な研究と取り組み

私たちは、AI の安全性問題に対処する現実的な方法は、効果的な緩和策の研究と技術の適応に、より多くの時間とリソースを投資し、実際にテストされたものをターゲットにすることであると考えています。世界の虐待。

重要なのは、AI の安全性と機能の向上は密接に関係している必要があると私たちが信じていることです。これまでのところ、当社の最高のセキュリティ作業は、当社の最も有能なモデルを使用することで実現しています。これは、モデルの方がユーザーの指示に従うのが上手で、ガイドや「指導」が容易であるためです。

より有能なモデルが作成され展開されるにつれて、私たちはますます慎重になり、AI システムがさらに発展するにつれてセキュリティ予防策を強化し続けます。

GPT-4 の機能、利点、リスクをよりよく理解するために GPT-4 の導入まで 6 か月以上かかりましたが、AI システムのパフォーマンスを向上させるにはそれ以上の時間がかかる場合があります。したがって、政策立案者と AI ベンダーは、AI の開発と展開が世界中で効果的に管理され、できるだけ早く成功を収めるために誰も「手抜き」をしないようにする必要があります。これは技術的および制度的革新を必要とする困難な課題ですが、私たちが積極的に貢献したいと考えているものでもあります。

安全性の問題に対処するには、AI システムの動作の境界など、広範な議論、実験、取り組みも必要です。私たちは、安全な AI エコシステムを構築するために、関係者間のコラボレーションとオープンな対話をこれまでも推進してきましたし、今後も推進していきます。

以上がGPT-5は停止されるのでしょうか? OpenAIは早朝に返答を発表:AIの安全性を確保するために「手抜き」はしないの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Bytedance Cutting が SVIP スーパー メンバーシップを開始: 継続的な年間サブスクリプションは 499 元で、さまざまな AI 機能を提供 Jun 28, 2024 am 03:51 AM

このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

ファーウェイのQiankun ADS3.0インテリジェント運転システムは8月に発売され、初めてXiangjie S9に搭載される ファーウェイのQiankun ADS3.0インテリジェント運転システムは8月に発売され、初めてXiangjie S9に搭載される Jul 30, 2024 pm 02:17 PM

7月29日、AITO Wenjieの40万台目の新車のロールオフ式典に、ファーウェイの常務取締役、ターミナルBG会長、スマートカーソリューションBU会長のYu Chengdong氏が出席し、スピーチを行い、Wenjieシリーズモデルの発売を発表した。 8月にHuawei Qiankun ADS 3.0バージョンが発売され、8月から9月にかけて順次アップグレードが行われる予定です。 8月6日に発売されるXiangjie S9には、ファーウェイのADS3.0インテリジェント運転システムが初搭載される。 LiDARの支援により、Huawei Qiankun ADS3.0バージョンはインテリジェント運転機能を大幅に向上させ、エンドツーエンドの統合機能を備え、GOD(一般障害物識別)/PDP(予測)の新しいエンドツーエンドアーキテクチャを採用します。意思決定と制御)、駐車スペースから駐車スペースまでのスマート運転のNCA機能の提供、CAS3.0のアップグレード

Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Rag と Sem-Rag を使用したコンテキスト拡張 AI コーディング アシスタント Jun 10, 2024 am 11:08 AM

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

GenAI および LLM の技術面接に関する 7 つのクールな質問 GenAI および LLM の技術面接に関する 7 つのクールな質問 Jun 07, 2024 am 10:06 AM

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります 微調整によって本当に LLM が新しいことを学習できるようになるのでしょうか: 新しい知識を導入すると、モデルがより多くの幻覚を生成する可能性があります Jun 11, 2024 pm 03:57 PM

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 新しい科学的で複雑な質問応答ベンチマークと大規模モデルの評価システムを提供するために、UNSW、アルゴンヌ、シカゴ大学、およびその他の機関が共同で SciQAG フレームワークを立ち上げました。 Jul 25, 2024 am 06:42 AM

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

あなたが知らない機械学習の 5 つの流派 あなたが知らない機械学習の 5 つの流派 Jun 05, 2024 pm 08:51 PM

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 SOTA パフォーマンス、厦門マルチモーダルタンパク質-リガンド親和性予測 AI 手法、初めて分子表面情報を結合 Jul 17, 2024 pm 06:37 PM

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性​​を実証しています。 「S」で始まる関連研究

See all articles