LLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにします

王林
リリース: 2024-01-29 09:24:16
転載
543 人が閲覧しました

大規模モデル時代の言語モデル (LLM) のサイズとトレーニング データは、自然言語やコードを含めて増加しました。

コードは人間とコンピューターの間の仲介者であり、高レベルの目標を実行可能な中間ステップに変換します。文法標準、論理的一貫性、抽象化、モジュール性という特徴があります。

イリノイ大学アーバナシャンペーン校の研究チームは最近、コードを LLM トレーニング データに統合することの複数の利点をまとめたレビュー レポートを発表しました。

LLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにします

紙のリンク: https://arxiv.org/abs/2401.00812v1

詳細については、 LLM のコード生成機能の向上に加えて、次の 3 つの利点も含まれます:

1. LLM の推論機能のロックを解除し、それを一連のより複雑なコードに適用できるようにします。自然言語タスク;

#2. LLM をガイドして、構造化された正確な中間ステップを生成し、関数呼び出しを通じて外部の実行エンドに接続できます。 #3. コードのコンパイルおよび実行環境を使用して、モデルをさらに改善するためのより多様なフィードバック信号を提供できます。

さらに、研究者らは、指示を理解し、目標を分解し、計画を立て、アクションを実行してフィードバックを引き出す能力がどのように発揮されるのかについても追跡しました。下流のタスクで重要な役割を果たします。 LLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにします

最後に、この記事では、「コードによる LLM の強化」の分野における主要な課題と今後の研究の方向性も提案しています。

コードの事前トレーニングにより LLM のパフォーマンスが向上します

LLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにします

OpenAI の GPT Codex を例として、LLM のコードの事前トレーニングの後、 LLM タスクの範囲を拡張することで、自然言語処理に加えて、モデルは数学理論のコードを生成し、一般的なプログラミング タスク、データ取得などを実行することもできます。

コード生成タスクには 2 つの特徴があります。1) コード シーケンスは効果的に実行される必要があるため、一貫したロジックが必要です。2) 各中間ステップを段階的に検証できます (ステップバイステップのロジック検証)。

事前トレーニングでコードを利用して埋め込むと、従来の自然言語の下流タスクにおける LLM 思考連鎖 (CoT) テクノロジーのパフォーマンスが向上します。これは、コード トレーニングが LLM の実行能力を向上できることを示しています。複雑な推理。

コードの構造化された形式から暗黙的に学習することにより、コード LLM は、マークアップ、HTML、図の理解などの常識的な構造推論タスクでも優れたパフォーマンスを示します。

機能/機能エンドのサポート

最近の研究結果では、LLM を他の機能エンドポイントに接続する (つまり、外部ツールや実行モジュール拡張 LLM を使用する) と、LLM のパフォーマンスが向上することが示されています。タスクをより正確かつ確実に実行できます。

これらの機能目的により、LLM は外部の知識を取得し、複数のモーダル データに参加し、環境と効果的に対話できるようになります。

関連研究から、研究者らは、LLM がプログラミング言語を生成するか、事前定義された関数を利用して他の言語とのインターフェイスを構築するという共通の傾向を観察しました。機能端末は「コード中心」のパラダイムです。 LLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにします

LLM 推論メカニズムにおける厳密にハードコーディングされたツール呼び出しの固定された実際的なフローとは対照的に、コード中心のパラダイムにより、LLM は動的にトークンを生成し、適応可能なパラメーターを使用できます。モジュールは、LLM が他の機能端末と対話するためのシンプルかつ明確な方法を提供し、アプリケーションの柔軟性と拡張性を強化します。

重要なのは、このパラダイムにより、LLM がさまざまなモダリティやドメインにわたって多数の機能端末と対話できるようになり、アクセス可能な機能端末の数と種類を拡張することで、LLM はより複雑なタスクを処理できるようになります。

この記事では主に、LLM に接続されたテキストとマルチモーダル ツール、およびロボットや自動運転などの物理世界の機能的目的について研究し、LLM の役割を実証します。ドメインの問題に関するさまざまなモードと汎用性を解決します。

自動フィードバックを提供する実行可能環境

LLM は、特に静的でない場合にフィードバック信号を吸収するモデルの能力により、トレーニング パラメーターを超えるパフォーマンスを示します。現実世界のアプリケーション。

ただし、ノイズの多いキューは下流タスクでの LLM のパフォーマンスを妨げる可能性があるため、フィードバック信号の選択には注意する必要があります。

さらに、人件費がかかるため、ロイヤルティを維持しながらフィードバックを自動的に収集することが重要です。

LLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにします

LLM をコード実行環境に埋め込むと、上記の条件の自動フィードバックを実現できます。

コードの実行はほぼ決定的であるため、LLM がコードの実行結果から取得するフィードバックは、ターゲット タスクに忠実なままです。コード インタープリタは、LLM に対する内部フィードバックも照会します。自動パスは次のとおりです。手動による注釈を付けずに、LLM によって生成されたエラー コードをデバッグおよび最適化するために提供されます。

さらに、コード環境により、LLM は、バイナリ正しさフィードバック、結果の自然言語説明、報酬値ランキングなどを含む (ただしこれらに限定されない) さまざまな外部フィードバック フォームを統合できます。これにより、パフォーマンスを向上させるための高度にカスタマイズ可能なアプローチ。

LLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにします

現在の課題

コードの事前トレーニングと LLM 推論の強化との因果関係

コード データの特定のプロパティが LLM の推論能力に寄与している可能性があることは直感的に思われますが、推論スキルの強化に対するそれらの影響の正確な範囲は不明のままです。

研究作業の次のステップでは、これらのコード属性がトレーニング データ内のトレーニング済み LLM の推論能力を実際に強化できるかどうかを研究することが重要です。

コードの特定のプロパティに関する事前トレーニングによって LLM の推論能力が直接向上することが本当であれば、この現象を理解することが、現在の複雑な推論能力をさらに向上させるための鍵となります。モデル。

#推論能力はコードに限定されません

推論能力はコードの事前トレーニングによって強化されますが、 , 基礎となるモデルには、真の汎用人工知能に期待される人間のような推論能力がまだ欠けています。

コードに加えて、他の多数のテキスト データ ソースには、LLM 推論機能を強化する可能性があります。曖昧さのなさ、実行可能性、およびコード固有の特性が向上します。論理的な順序構造を使用して、データセットを収集するためのより良い方法を提供したり、これらのデータセットを作成するための指針を提供したりできます。

しかし、言語モデリングの目標を掲げて大規模なコーパスで言語モデルをトレーニングするというパラダイムにこだわり続けると、形式的な言語よりも抽象的な、逐次的に読み取り可能な言語を実現するのは困難になります。言語: 高度に構造化されており、記号言語と密接に関連しており、デジタル ネットワーク環境に豊富に存在します。

研究者らは、代替データ パターン、多様なトレーニング目標、新しいアーキテクチャを探索することで、モデル推論機能をさらに強化する機会が増えると想定しています。

コード中心のパラダイムを適用する際の課題

LLM では、コードはさまざまなメイン ネットワークに接続するために使用されます。関数端子の課題は、正しい関数 (関数) 端子の選択や、適切なタイミングで正しいパラメーターの受け渡しなど、さまざまな関数を呼び出す正しい方法を学習することです。

たとえば、単純なタスク (Web ページ ナビゲーション) の場合、マウスの移動、クリック、ページ スクロールなどの限られたアクション プリミティブのセットを考慮して、いくつかの例を示します (いくつかの例は示しています)。 -shot)、強力な基本 LLM では、多くの場合、LLM がこれらのプリミティブの使用法を正確に習得する必要があります。

化学、生物学、天文学などのデータ集約型の分野でのより複雑なタスクには、さまざまな機能を持つ多くの複雑な関数を含むドメイン固有の Python ライブラリへの呼び出しが含まれます。これらの学習機能を正しく呼び出せるように LLM を強化します。機能の統合は、LLM がきめ細かい領域で専門家レベルのタスクを実行できるようにする将来を見据えた方向性です。

複数ラウンドのインタラクションとフィードバックから学ぶ

LLM は多くの場合、ユーザーや環境と継続的に複数のインタラクションを必要とします。自分自身を修正して、複雑なタスクの完了を向上させます。

コードの実行により、信頼性が高くカスタマイズ可能なフィードバックが提供されますが、このフィードバックを完全に活用する完璧な方法はまだ確立されていません。

現在の選択ベースの方法は便利ですが、パフォーマンスの向上は保証できず、非効率的です。再帰ベースの方法は LLM のコンテキスト学習能力に大きく依存しているため、LLM のコンテキスト学習能力が制限される可能性があります。適用性 ; 微調整方法は継続的に改善されていますが、データ収集と微調整はリソースを大量に消費するため、実際に使用するのは困難です。

研究者らは、強化学習がフィードバックを活用して改善するためのより効果的な方法である可能性があり、場合によっては慎重に設計された報酬関数を通じてフィードバックに適応する動的な方法を提供し、制限に対処できると考えています。現在の技術。

しかし、報酬関数を設計する方法や、複雑なタスクを完了するために強化学習と LLM を最適に統合する方法を理解するには、まだ多くの研究が必要です。

以上がLLM ウィザードの魔法の杖を解き明かし、UIUC 中国チームはコード データの 3 つの主要な利点を明らかにしますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート