清華大学とその他のオープンソース「ツール学習ベンチマーク」ToolBench、微調整モデル ToolLLaMA のパフォーマンスが ChatGPT を上回る
人間には道具を作成し利用する能力があり、それによって身体の限界を突破し、より広い世界を探索することができます。
人工知能の基本モデルも同様で、学習段階で得られた重みだけに頼ると利用シーンが非常に限定されてしまいますが、最近提案されているツール学習は、特定分野の特化したツールと、大規模 基本モデルの組み合わせにより、より高い効率とパフォーマンスを実現できます。
ただし、ツール学習に関する現在の研究は十分に詳しくなく、関連するオープンソース データとコードが不足しています。
最近、清華大学自然言語処理研究所などがサポートするオープンソース コミュニティである OpenBMB (Open Lab for Big Model Base) が、開発者がオープンなモデル ベースを構築するのに役立つ ToolBench プロジェクトをリリースしました。共通のツールを使用できる大規模な言語モデルの構築を容易にする、大規模な高品質の命令チューニング データのソース。
ToolBench ウェアハウスは、関連するデータ セット、トレーニングおよび評価スクリプト、ToolBench で微調整された機能モデル ToolLLaMA を提供します。具体的な機能は次のとおりです: 1. 単一ツールと複数のツールをサポートツール ツール ソリューション 単一ツール設定は LangChain プロンプト スタイルに従い、マルチツール設定は AutoGPT プロンプト スタイルに従います。
#2. モデルの応答には、最終的な答えだけでなく、モデルの思考連鎖プロセス、ツールの実行、およびツールの実行結果も含まれます
3. 現実世界レベルの複雑さをサポートし、複数ステップのツール呼び出しをサポート
#4. 気象情報、検索、在庫更新などの現実世界のシナリオに使用できる豊富な API 、PowerPoint オートメーション
5. すべてのデータは OpenAI API によって自動的に生成され、開発チームによってフィルタリングされます。データ作成プロセスは簡単に拡張可能です
##ただし、これまでに公開されたデータは最終的なものではなく、研究者たちはデータの品質を向上させ、現実世界のツールの適用範囲を広げるためにまだデータの後処理を行っているところであることに注意してください。 ToolBench ToolBench の一般的なアイデアは、BMTools に基づいて教師ありデータで大規模な言語モデルをトレーニングすることです。#データの各行は、データ作成用のプロンプト テンプレートを含む json dict です。ツールの使用に関する人間による指示 (クエリ)、中間の思考/ツール実行ループ、および最終的な回答。
Tool Descrition:BMTools Tool_name: translationTool action: get_translationaction_input: {"text": target texts, "tgt_lang": target language}Generated Data:{"prompt": "Answer the following questions as best you can. Specifically, you have access to the following APIs:\n\nget_translation: . Your input should be a json (args json schema): {{\"text\" : string, \"tgt_lang\" : string, }} The Action to trigger this API should be get_translation and the input parameters should be a json dict string. Pay attention to the type of parameters.\n\nUse the following format:\n\nQuestion: the input question you must answer\nThought: you should always think about what to do\nAction: the action to take, should be one of [get_translation]\nAction Input: the input to the action\nObservation: the result of the action\n... (this Thought/Action/Action Input/Observation can repeat N times, max 7 times)\nThought: I now know the final answer\nFinal Answer: the final answer to the original input question\n\nBegin! Remember: (1) Follow the format, i.e,\nThought:\nAction:\nAction Input:\nObservation:\nFinal Answer:\n (2) Provide as much as useful information in your Final Answer. (3) Do not make up anything, and if your Observation has no link, DO NOT hallucihate one. (4) If you have enough information and want to stop the process, please use \nThought: I have got enough information\nFinal Answer: **your response. \n The Action: MUST be one of the following:get_translation\nQuestion: {input}\n Agent scratchpad (history actions):\n {agent_scratchpad}","query": "My intention is to convert the data provided in ما هي الأقسام الثلاثة للقوات المسلحة؟ into Arabic(ara).\n","chains": [{"thought": "I need to use the get_translation API to convert the text into Arabic.","action": "get_translation","action_input": "{\"text\": \"What are the three branches of the military?\", \"tgt_lang\": \"ara\"}","observation": "\"ما هي الفروع الثلاثة للجيش ؟\""}],"answer": "The translation of \"What are the three branches of the military?\" into Arabic is \"ما هي الفروع الثلاثة للجيش ؟\"."}
#手動評価: 天気、地図、ランダムに選択株式、翻訳、化学、WolframAlpha ツールからの 10 個のクエリを実行し、ツール呼び出しプロセスの合格率、最終回答、および ChatGPT の最終回答との比較を評価します。
ChatGPT 評価: ChatGPT を介した LLaMA および ChatGPT の回答とツール使用チェーンの自動評価。
評価結果は以下の通り(スコアが高いほど良好)、さまざまなシナリオにおいてToolLLaMAはChatGPTと同等以上の性能を発揮していることがわかります。
#ツール学習
この記事では、ツール強化学習やツール指向学習などの既存のツール学習研究もレビューし、一般的なツール学習フレームワークを定式化します。ユーザーの指示を理解することから始めて、モデルは複雑なタスクを複数のサブタスクに動的に分解する方法を学習する必要があります。推論を通じて計画を調整し、適切なツールを選択して各サブタスクを効率的に達成します。
この記事では、ツールの使用を改善し、ツール学習の普及を促進するためにモデルをトレーニングする方法についても説明します。
以前の研究では体系的なツール学習評価が欠如していたことを考慮して、研究者らは 17 の代表的なツールを使用して実験を実施し、ツールを巧みに活用する際の現在の基本モデルのパフォーマンスを実証しました。
この論文は、安全で信頼できるツールの使用の確保、基本モデルを使用したツール作成の実装、パーソナライゼーションの困難な問題の解決など、さらなる研究が必要なツール学習におけるいくつかの未解決の問題について説明して終わります。
参考資料:
https://github.com/OpenBMB/ToolBench
以上が清華大学とその他のオープンソース「ツール学習ベンチマーク」ToolBench、微調整モデル ToolLLaMA のパフォーマンスが ChatGPT を上回るの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









このサイトは6月27日、JianyingはByteDanceの子会社であるFaceMeng Technologyによって開発されたビデオ編集ソフトウェアであり、Douyinプラットフォームに依存しており、基本的にプラットフォームのユーザー向けに短いビデオコンテンツを作成すると報告しました。 Windows、MacOS、その他のオペレーティング システム。 Jianyingは会員システムのアップグレードを正式に発表し、インテリジェント翻訳、インテリジェントハイライト、インテリジェントパッケージング、デジタルヒューマン合成などのさまざまなAIブラックテクノロジーを含む新しいSVIPを開始しました。価格的には、クリッピングSVIPの月額料金は79元、年会費は599元(当サイト注:月額49.9元に相当)、継続月額サブスクリプションは月額59元、継続年間サブスクリプションは、年間499元(月額41.6元に相当)です。さらに、カット担当者は、ユーザーエクスペリエンスを向上させるために、オリジナルのVIPに登録している人は、

検索強化生成およびセマンティック メモリを AI コーディング アシスタントに組み込むことで、開発者の生産性、効率、精度を向上させます。 JanakiramMSV 著者の EnhancingAICodingAssistantswithContextUsingRAGandSEM-RAG から翻訳。基本的な AI プログラミング アシスタントは当然役に立ちますが、ソフトウェア言語とソフトウェア作成の最も一般的なパターンに関する一般的な理解に依存しているため、最も適切で正しいコードの提案を提供できないことがよくあります。これらのコーディング アシスタントによって生成されたコードは、彼らが解決する責任を負っている問題の解決には適していますが、多くの場合、個々のチームのコーディング標準、規約、スタイルには準拠していません。これにより、コードがアプリケーションに受け入れられるように修正または調整する必要がある提案が得られることがよくあります。

大規模言語モデル (LLM) は巨大なテキスト データベースでトレーニングされ、そこで大量の現実世界の知識を取得します。この知識はパラメータに組み込まれており、必要なときに使用できます。これらのモデルの知識は、トレーニングの終了時に「具体化」されます。事前トレーニングの終了時に、モデルは実際に学習を停止します。モデルを調整または微調整して、この知識を活用し、ユーザーの質問により自然に応答する方法を学びます。ただし、モデルの知識だけでは不十分な場合があり、モデルは RAG を通じて外部コンテンツにアクセスできますが、微調整を通じてモデルを新しいドメインに適応させることが有益であると考えられます。この微調整は、ヒューマン アノテーターまたは他の LLM 作成物からの入力を使用して実行され、モデルは追加の実世界の知識に遭遇し、それを統合します。

AIGC について詳しくは、51CTOAI.x コミュニティ https://www.51cto.com/aigc/Translator|Jingyan Reviewer|Chonglou を参照してください。これらの質問は、インターネット上のどこでも見られる従来の質問バンクとは異なります。既成概念にとらわれずに考える必要があります。大規模言語モデル (LLM) は、データ サイエンス、生成人工知能 (GenAI)、および人工知能の分野でますます重要になっています。これらの複雑なアルゴリズムは人間のスキルを向上させ、多くの業界で効率とイノベーションを推進し、企業が競争力を維持するための鍵となります。 LLM は、自然言語処理、テキスト生成、音声認識、推奨システムなどの分野で幅広い用途に使用できます。 LLM は大量のデータから学習することでテキストを生成できます。

機械学習は人工知能の重要な分野であり、明示的にプログラムしなくてもコンピューターにデータから学習して能力を向上させる機能を提供します。機械学習は、画像認識や自然言語処理から、レコメンデーションシステムや不正行為検出に至るまで、さまざまな分野で幅広く応用されており、私たちの生活様式を変えつつあります。機械学習の分野にはさまざまな手法や理論があり、その中で最も影響力のある 5 つの手法は「機械学習の 5 つの流派」と呼ばれています。 5 つの主要な学派は、象徴学派、コネクショニスト学派、進化学派、ベイジアン学派、およびアナロジー学派です。 1. 象徴主義は、象徴主義とも呼ばれ、論理的推論と知識の表現のためのシンボルの使用を強調します。この学派は、学習は既存の既存の要素を介した逆演繹のプロセスであると信じています。

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A

8月1日の本サイトのニュースによると、SKハイニックスは本日(8月1日)ブログ投稿を発表し、8月6日から8日まで米国カリフォルニア州サンタクララで開催されるグローバル半導体メモリサミットFMS2024に参加すると発表し、多くの新世代の製品。フューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) の紹介。以前は主に NAND サプライヤー向けのフラッシュ メモリ サミット (FlashMemorySummit) でしたが、人工知能技術への注目の高まりを背景に、今年はフューチャー メモリおよびストレージ サミット (FutureMemoryandStorage) に名前が変更されました。 DRAM およびストレージ ベンダー、さらに多くのプレーヤーを招待します。昨年発売された新製品SKハイニックス

編集者 | KX 医薬品の研究開発の分野では、タンパク質とリガンドの結合親和性を正確かつ効果的に予測することが、医薬品のスクリーニングと最適化にとって重要です。しかし、現在の研究では、タンパク質とリガンドの相互作用における分子表面情報の重要な役割が考慮されていません。これに基づいて、アモイ大学の研究者らは、初めてタンパク質の表面、3D 構造、配列に関する情報を組み合わせ、クロスアテンション メカニズムを使用して異なるモダリティの特徴を比較する、新しいマルチモーダル特徴抽出 (MFE) フレームワークを提案しました。アライメント。実験結果は、この方法がタンパク質-リガンド結合親和性の予測において最先端の性能を達成することを実証しています。さらに、アブレーション研究は、この枠組み内でのタンパク質表面情報と多峰性特徴の位置合わせの有効性と必要性を実証しています。 「S」で始まる関連研究
