AI の実装に対する最大の障害を解決するために、OpenAI は方法を見つけたのでしょうか?

WBOY
リリース: 2023-06-03 16:49:09
転載
1359 人が閲覧しました

OpenAI は、生成人工知能の「重大なナンセンス」に対する解決策を見つけたようです。

5 月 31 日、OpenAI は公式 Web サイトで、生成 AI における一般的な「幻想」やその他の一般的な問題の排除に役立つモデルをトレーニングしたと発表しました。

OpenAI は、報酬モデルは幻覚を検出するようにトレーニングできると述べ、報酬モデルは結果監視 (最終結果に基づいてフィードバックを提供) モデルとプロセス監視 (思考連鎖の各ステップにフィードバックを提供) モデルに分けられます。

つまり、プロセスの監視は推論の正しい各ステップに報酬を与えるのに対し、結果の監視は単純に正しい答えに報酬を与えます。

OpenAI は、対照的に、プロセス監視には重要な利点があると述べました - 人間が承認した思考連鎖を生成するようにモデルを直接トレーニングします:

プロセスの監視には、結果の監視に比べて一貫性に関する利点がいくつかあります。各ステップは正確に監視されるため、一貫した思考連鎖モデルに従った行動が評価されます。

プロセス監視は、人間が承認したプロセスにモデルが従うよう促すため、説明可能な推論を生成する可能性も高くなります。

結果のモニタリングは一貫性のないプロセスに報いる可能性がありますが、多くの場合、レビューはより困難です。

OpenAI は数学的データセットで両方のモデルをテストし、

プロセス監視アプローチにより「パフォーマンスが大幅に向上」することがわかりました。

AI の実装に対する最大の障害を解決するために、OpenAI は方法を見つけたのでしょうか?

ただし、これまでのところ、プロセス監視アプローチは数学的領域でのみテストされており、より一般的にどのように機能するかを確認するにはさらなる研究が必要であることに注意することが重要です。

さらに、OpenAI は、この研究がまだ研究段階にある ChatGPT に適用されるまでにどれくらいの時間がかかるかについては示していません。

最初の結果は良好ですが、OpenAI は、より安全なアプローチによりアライメント税と呼ばれるパフォーマンスの低下が生じると言及しています。

現在の結果は、数学的問題を扱う場合、プロセスの監督によって調整税が発生しないことを示していますが、一般的な情報における状況は不明です。

生成AIの「幻想」

生成型 AI の登場以来、虚偽の情報の捏造や「幻覚を生成している」という告発が後を絶たず、これは現在の生成型 AI モデルの最大の問題の 1 つでもあります。

今年2月、GoogleはMicrosoftが資金提供したChatGPTに対抗してチャットボット「Bard」を急遽ローンチしたが、そのデモで常識的な誤りがあったことが判明し、Googleの株価は急落した。

AI の幻覚を引き起こす原因は数多くありますが、その 1 つは、AI プログラムをだまして誤分類させるためのデータ入力です。

たとえば、開発者はデータ (画像、テキスト、その他のタイプなど) を使用して人工知能システムをトレーニングします。データが変更されたり歪められたりすると、アプリケーションは入力を異なる方法で解釈し、誤った結果を生成します。

ChatGPT のような大規模な言語ベースのモデルでは、トランスフォーマーのデコードが間違っているため、錯覚が発生する可能性があり、言語モデルが非論理的または曖昧ではないストーリーや物語を生成する可能性があります。

以上がAI の実装に対する最大の障害を解決するために、OpenAI は方法を見つけたのでしょうか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:sohu.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート