AIの安全性をどう確保するか? OpenAIは詳細な回答を提供し、各国政府と積極的に連絡を取る予定です。
4 月 6 日のニュース OpenAI は米国現地時間水曜日に投稿を投稿し、セキュリティ評価の実施、リリース後の改善など、AI の安全性を確保する方法を詳しく説明しました。保護措置、子供たちの保護、プライバシーの尊重など。同社は、AI システムが安全に構築、展開、使用されることを保証することが、その使命を達成するために重要であると述べています。
以下は OpenAI の投稿の全文です:
OpenAI は、できるだけ多くの人々に利益をもたらす強力な AI セキュリティを確保することに取り組んでいます。私たちは、当社の AI ツールが今日の人々に多くの助けを提供していることを知っています。世界中のユーザーから、ChatGPT が生産性の向上、創造性の向上、カスタマイズされた学習体験の提供に役立つとの声が寄せられています。しかし、他のテクノロジーと同様に、これらのツールには実際のリスクが伴うことも認識しています。したがって、私たちはあらゆるシステムレベルでセキュリティを確保するために懸命に取り組んでいます。
より安全な人工知能システムの構築
新しい人工知能システムを立ち上げる前に、厳格なテストを実施し、外部の専門家の意見を求め、強化などの技術を合格します。人工フィードバックによる学習は、モデルのパフォーマンスを向上させるために使用されます。同時に、当社は広範なセキュリティおよび監視システムも確立しています。
最新モデル GPT-4 を例に挙げると、トレーニング終了後、一般公開前に最大 6 か月にわたる全社テストを実施し、より安全で信頼性が高いことを確認しました。
私たちは、強力な人工知能システムは厳格なセキュリティ評価を受ける必要があると考えています。この慣行を確実に広く採用するには規制が必要です。したがって、私たちは政府と積極的に連携して、最適な規制形態について話し合っています。
実際の使用から学び、安全対策を改善する
私たちは、システム導入前に予見可能なリスクを防止するために最善を尽くしていますが、実験室での学習には常に限界があります。私たちは広範囲に調査とテストを行っていますが、人々が私たちのテクノロジーをどのように使用するか、あるいは悪用するかを予測することはできません。したがって、私たちは、現実世界での使用から学ぶことが、より安全性の高い AI システムを作成およびリリースする上で重要な要素であると信じています。
私たちは、新しい人工知能システムを慎重に徐々に一般にリリースし、実質的な安全対策を講じ、学んだ教訓に基づいて改善を続けます。
当社は、開発者がテクノロジーをアプリケーションに直接統合できるように、独自のサービスと API で最も強力なモデルを提供します。これにより、虐待を監視して対処し、対応策を策定することができます。このようにして、理論的に何をすべきかを想像するだけでなく、実際的な行動を起こすことができます。
また、実際の使用経験から、当社のテクノロジーをより有益な方法で使用できるようにしながら、人々に実際のリスクをもたらす行動に対処するための、ますます詳細なポリシーを開発することにもつながりました。
私たちは、社会がますます強力になる人工知能に適応するにはさらに時間が必要であり、人工知能の影響を受けるすべての人が人工知能のさらなる発展について発言権を持つべきであると信じています。反復的な導入により、さまざまな関係者が AI テクノロジーについての会話をより効果的に行うことができ、これらのツールを実際に使用する経験を持つことが重要です。
子どもの保護
当社の安全活動の焦点の 1 つは、子どもの保護です。当社の人工知能ツールを使用する人は 18 歳以上、または保護者の同意がある場合は 13 歳以上である必要があります。現在、検証機能の開発に取り組んでいます。
当社のテクノロジーを使用して、嫌がらせ、嫌がらせ、暴力、またはアダルト コンテンツを生成することは許可されません。最新の GPT-4 は、GPT-3.5 と比較して、制限されたコンテンツのリクエストに応答する可能性が 82% 低くなります。私たちは虐待を監視するための堅牢なシステムを導入しています。 GPT-4 は ChatGPT Plus の加入者が利用できるようになりました。今後、より多くの人が GPT-4 を体験できるようにしたいと考えています。
私たちは、モデルが子供にとって有害なコンテンツを生成する可能性を最小限に抑えるために重要な措置を講じました。たとえば、ユーザーが子供に安全な虐待素材を当社の画像生成ツールにアップロードしようとすると、当社はそれをブロックし、その問題を国立行方不明児童搾取センターに報告します。
デフォルトのセキュリティ保護に加えて、当社は非営利団体カーン アカデミーなどの開発組織と協力して、開発組織に合わせたセキュリティ対策を行っています。カーン アカデミーは、生徒にとっては仮想家庭教師、教師にとっては教室アシスタントとして機能する人工知能アシスタントを開発しました。また、開発者がモデル出力に対してより厳格な基準を設定して、そのような機能を必要とする開発者やユーザーをより適切にサポートできるようにする機能にも取り組んでいます。
プライバシーの尊重
当社の大規模な言語モデルは、公開コンテンツ、ライセンスされたコンテンツ、人間が作成したコンテンツなど、広範なテキストのコーパスでトレーニングされています。モデレータが生成したコンテンツ。当社はこのデータをサービスや広告の販売に使用したり、プロフィールの構築に使用したりすることはありません。このデータは、人々とより多くの会話をすることで ChatGPT をよりインテリジェントにするなど、モデルをより人々を支援するために使用するだけです。
トレーニング データの多くには、公開 Web 上で入手可能な個人情報が含まれていますが、モデルには個人ではなく世界全体について学習してもらいたいと考えています。したがって、当社は、可能な場合にはトレーニング データ セットから個人情報を削除し、個人情報のクエリ リクエストを拒否するためにモデルを微調整し、当社のシステムから個人情報を削除するという個人のリクエストに対応することに取り組んでいます。これらの対策により、モデルが個人情報を含む応答を生成する可能性が最小限に抑えられます。
事実の正確性の向上
今日の大規模な言語モデルは、以前のパターンとユーザーが入力したテキストに基づいて、次に使用される可能性のある単語を予測できます。しかし場合によっては、次に可能性が高い単語が実際には事実として間違っている可能性があります。
事実の正確性の向上は、OpenAI や他の多くの AI 研究組織の焦点の 1 つであり、私たちは進歩を続けています。プライマリ データ ソースとして不正確であるとフラグが立てられた ChatGPT 出力に対するユーザー フィードバックを活用することで、GPT-4 の事実の正確性を向上させました。 GPT-3.5 と比較して、GPT-4 は事実に基づくコンテンツを生成する可能性が高く、40% 向上しています。
ChatGPT からの誤った応答の可能性を避けるために、ユーザーがツールを使用するためにサインアップする際に、可能な限り透明性を保つよう努めています。しかし、誤解の可能性をさらに減らし、これらの AI ツールの現在の制限について一般の人々を教育するために、やるべきことはまだあると私たちは認識しています。
継続的な研究と取り組み
AI の安全性問題に対処する現実的な方法は、効果的な緩和策の研究とテクノロジーの校正とテストに、より多くの時間とリソースを投資することであると考えています。現実世界での潜在的な虐待に対抗します。
重要なのは、AI の安全性と機能の向上は同時に進める必要があると私たちが考えていることです。これまでの当社の最高のセキュリティ作業は、当社の最も有能なモデルを使った作業から生まれています。なぜなら、これらのモデルはユーザーの指示に従うのが上手で、ユーザーの指示を活用または「ガイド」するのが簡単だからです。
私たちは、より注意を払いながら、より有能なモデルを作成して展開し、AI システムの進化に合わせて安全対策を強化し続けます。
GPT-4 の機能、メリット、リスクをよりよく理解するために GPT-4 の導入まで 6 か月以上かかりましたが、AI システムのセキュリティを向上させるにはさらに時間がかかる場合があります。したがって、政策立案者と AI 開発者は、AI の開発と展開が世界的に効果的に規制され、誰も先を行くために近道をしないようにする必要があります。これは技術的および制度的革新を必要とする困難な課題ですが、私たちは積極的に貢献したいと考えています。
AI の安全性の問題に対処するには、AI システムの動作の限界を設定するなど、広範な議論、実験、取り組みも必要になります。私たちは、より安全な AI エコシステムを構築するために、関係者間のコラボレーションとオープンな対話をこれまでも推進してきましたし、今後も継続していきます。 (シャオシャオ)
以上がAIの安全性をどう確保するか? OpenAIは詳細な回答を提供し、各国政府と積極的に連絡を取る予定です。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス
