ロボットはペンを回したり、クルミを皿に盛り付けたりすることを学びました。 GPT-4 の祝福、タスクが複雑であればあるほど、パフォーマンスが向上します
Big Data Digest 制作
人工知能 (AI) がチェス、囲碁、Dota を征服した後、家族の友人、私はこの記事を書いているこのスキルはAIロボットにも学ばれています。
上記のペン回しロボットは、NVIDIA とペンシルバニア大学が提供する Eureka と呼ばれるエージェントの恩恵を受けています。カリフォルニア工科大学とテキサス大学オースティン校。
エウレカの「指導」を受けると、ロボットは引き出しやキャビネットを開けたり、ボールを投げたりキャッチしたり、ハサミを使ったりすることもできます。 Nvidia によると、Eureka には 10 種類のタイプがあり、29 種類のタスクを実行できます。
過去には、人間の専門家による手動プログラミングではペン転送機能をこれほどスムーズに実現できなかったことを知っておく必要があります。
ロボット パンウォルナット
そして、Eureka はロボットを訓練するための報酬アルゴリズムを独自に作成でき、コーディングが可能です。 power 強力: 自作の報酬プログラムは、タスクの 83% において人間の専門家を上回り、ロボットのパフォーマンスを平均 52% 向上させます。
Eureka は、人間のフィードバックによる勾配のない新しい学習方法を作成し、人間が提供する報酬やテキスト フィードバックを容易に吸収することで、独自の報酬生成メカニズムをさらに改善します。
具体的には、Eureka は OpenAI の GPT-4 を利用して、ロボットの試行錯誤学習のための報酬プログラムを作成します。これは、システムが人間のタスク固有の合図や事前に設定された報酬パターンに依存しないことを意味します。
Eureka は、Isaac Gym で GPU 高速化された シミュレーションを使用して、多数の候補報酬のメリットを迅速に評価できるため、より効率的なトレーニングが可能になります。次に、Eureka はトレーニング結果の主要な統計の概要を生成し、LLM (言語モデル) をガイドして報酬関数の生成を改善します。このようにして、AI エージェントはロボットへの指示を独自に改善することができます。
Eureka のフレームワーク
研究者らは、タスクが複雑になればなるほど、 GPT-4 の命令は、いわゆる「報酬エンジニア」による人間の命令よりも優れています。 この研究に関わった研究者らは、エウレカを「超人的な報酬エンジニア」とさえ呼んだ。
#Eureka は、高レベルの推論 (エンコード) と低レベルのモーター制御の間のギャップを埋めることに成功しました。これは、いわゆる「ハイブリッド グラディエント アーキテクチャ」を使用しており、純粋な推論ブラック ボックス LLM (言語モデル) が学習可能なニューラル ネットワークをガイドします。このアーキテクチャでは、外側のループは GPT-4 を実行して報酬関数 (勾配なし) を最適化し、内側のループは強化学習を実行してロボットのコントローラー (勾配ベース) をトレーニングします。
- Linxi "Jim" Fan、上級研究員、NVIDIA
Eureka は人間のフィードバックを統合してより良い調整を行うことができます開発者の期待とより密接に一致する報酬を提供します。 Nvidia は、このプロセスを「インコンテキスト RLHF」 (人間のフィードバックからのコンテキスト学習) と呼んでいます。
Nvidia の研究チームが Eureka の AI アルゴリズム ライブラリをオープンソース化したことは注目に値します。これにより、個人や機関は Nvidia Isaac Gym を通じてこれらのアルゴリズムを探索および実験できるようになります。 Isaac Gym は、Open USD フレームワークに基づいて 3D ツールとアプリケーションを作成するための開発フレームワークである Nvidia Omniverse プラットフォーム上に構築されています。
- 論文リンク: https://arxiv.org/pdf/2310.12931.pdf
- プロジェクトリンク: https://eureka-research.github.io/
- コードリンク: https://github.com/eureka-research/Eureka
評価方法は?
過去 10 年間、強化学習は大きな成功を収めてきましたが、依然として課題があることを認識しなければなりません。以前にも同様のテクノロジーを導入する試みはありましたが、報酬設計を支援する言語モデル (LLM) を使用する L2R (Learning to Reward) と比較して、タスク固有のプロンプトの必要性を排除する Eureka の方が注目されています。 Eureka が L2R よりも優れているのは、自由に表現された報酬アルゴリズムを作成し、背景情報として環境ソース コードを活用できることです。
NVIDIA の研究チームは、人間の報酬関数によるプライミングに何らかの利点があるかどうかを調査するために調査を実施しました。実験の目的は、元の人間の報酬関数を最初の Eureka 反復の出力でうまく置き換えられるかどうかを確認することです。
NVIDIA の研究チームは、テストで、各タスクのコンテキスト内のすべてのタスクに同じ強化学習アルゴリズムと同じハイパーパラメータを使用しました。報酬関数が最適化されます。これらのタスク固有のハイパーパラメータが、人為的に設計された報酬の有効性を確保するために適切に調整されているかどうかをテストするために、以前の研究に何の変更も加えずに基づいた、適切に調整された近接ポリシー最適化 (PPO) 実装が採用されました。研究者らは報酬ごとに 5 回の独立した PPO トレーニングを実施し、報酬パフォーマンスの尺度としてポリシー チェックポイントで到達した最大タスク メトリック値の平均を報告しました。
結果は、人間の設計者は多くの場合、関連する状態変数を十分に理解しているものの、効果的な報酬を設計する際には一定の熟練度が不足している可能性があることを示しています。
Nvidia によるこの画期的な研究は、強化学習と報酬設計の新たな境地を開きます。彼らの普遍的な報酬設計アルゴリズムである Eureka は、大規模な言語モデルと文脈進化的探索の力を利用して、タスク固有のプロンプトや人間の介入を必要とせずに、ロボットのタスク領域の広範囲にわたって人間レベルの報酬を生成し、人間のロボットに対する理解を大きく変えます。 AIと機械学習。
以上がロボットはペンを回したり、クルミを皿に盛り付けたりすることを学びました。 GPT-4 の祝福、タスクが複雑であればあるほど、パフォーマンスが向上しますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス
