優秀なエージェントが学ぶべきいくつかのデザインパターンを一度に学ぶことができます
皆さんこんにちは、ラオドゥです。
昨日は会社で清華大学知能産業研究所が共有しているAIホスピタルタウンを聞きました。
写真
これはすべての医師、看護師、患者が LLM によって駆動されるエージェント インテリジェンスであり、自律的に対話できます。彼らは診断と治療の全プロセスをシミュレーションし、主要な呼吸器疾患をカバーする MedQA データセットのサブセットで 93.06% という最先端の精度を達成しました。
優れたインテリジェントエージェントは、優れた設計パターンから切り離せません。この事例を読んだ後、私は Andrew Ng 氏が最近公開した 4 つの主要なエージェント設計パターンをざっと読みました。
Enda Ng は、人工知能と機械学習の分野で世界で最も権威のある学者の 1 人です
それで、私はすぐにそれを編集して、みんなと共有しました。
モード 1、リフレクション
このモードでは、大規模モデルによって初めて生成された結果は直接出力されませんが、結果は検査と評価のために大規模モデルに再スローされます。
最初のバージョンよりもうまく機能する可能性のある 2 番目のバージョンの結果が生成されます。
孔子の言葉で「一日三度己を省みる」というものです。
このモードで書かれた特定のプロンプトは、以前に共有したいくつかの 推論モード を使用できます。例: 少数ショット (Few-shot)、思考の連鎖 (CoT)、思考のツリー (ToT)、ReAct 、など。
このモデルの主な目的は、外部の力に頼ることなく大規模モデルの推論能力を最大化することです。
モード 2. ツールの使用
このモードでは、エージェントが外部ツールを使用して特定のタスクを実行できます。
端的に言えば、「専門的なことはプロに任せる」ということです。
大規模モデルの本質はテキスト予測であり、演算やコード実行などを行う機能はありません。このようなタスクが発生した場合は、大規模モデルに方程式とコードを生成させ、計算機とコード インタプリタを呼び出してそれらを完了させることができます。
このモードのエージェントは、外部の助けを借りてさらに強力になるようです。
モード 3. 計画
このモードでは、エージェントは複雑なタスクを一連の単純な小さなタスクに分解し、それらを 1 つずつ解決できます。
実際、「象を冷蔵庫に入れるには何歩必要ですか?」という意味ですが、最初にこの質問を聞いたときは混乱しましたが、下の写真を見たときに突然明確になりました。
写真
モード 4、複数エージェントのコラボレーション
前のモードのエージェントが複雑なタスクを分解した後は、当然のことながら、複数のエージェントがそれぞれの職務を実行し、相互に連携する必要があります。 、協力して複雑なタスクを完了します。
写真
私たちは以前、オープンソース AI プログラマー GPT Pilot について共有しました。彼の設計アイデアは、ソフトウェア開発を完了するためのプロダクト マネージャー、アーキテクト、プログラマー、テスターのさまざまな役割をシミュレートするマルチ エージェント モデルです。タスク。
記事の冒頭で紹介したAIホスピタルタウンにもこのモデルがあり、今後このモデルの実践事例も共有していきます。
以上が優秀なエージェントが学ぶべきいくつかのデザインパターンを一度に学ぶことができますの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

Video Face Swap
完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック











独自のシステムをパーティション分割する場合、ユーザーが使用するハードドライブが異なるため、多くのユーザーは win10 パーティション形式が gpt か mbr のどちらであるかを知りません。このため、これらの違いを理解するのに役立つ詳細な紹介を提供しました。二。 Win10 パーティション形式 gpt または mbr: 回答: 3 TB を超えるハード ドライブを使用している場合は、gpt を使用できます。 gpt は mbr よりも高度ですが、互換性の点では mbr の方がまだ優れています。もちろん、ユーザーの好みに応じて選択することもできます。 gpt と mbr の違い: 1. サポートされるパーティションの数: 1. MBR は最大 4 つのプライマリ パーティションをサポートします。 2. GPT はパーティションの数によって制限されません。 2. サポートされるハードドライブのサイズ: 1. MBR は最大 2TB までのみサポートします

人工知能と機械学習テクノロジーが発展し続ける中、企業や組織はこれらのテクノロジーを活用して競争力を強化するための革新的な戦略を積極的に模索し始めています。 K8sGPT[2] は、この分野で最も強力なツールの 1 つであり、k8s オーケストレーションの利点と GPT モデルの優れた自然言語処理機能を組み合わせた k8s ベースの GPT モデルです。 K8sGPT とは何ですか? まず例を見てみましょう: K8sGPT 公式 Web サイトによると: K8sgpt は、Kubernetes クラスターの問題をスキャン、診断、分類するために設計されたツールであり、SRE の経験を分析エンジンに統合して、最も関連性の高い情報を提供します。人工知能技術の応用を通じて、K8sgpt はコンテンツを充実させ続け、ユーザーがより迅速かつ正確に理解できるように支援します。

コンピュータのハードディスクが GPT パーティションか MBR パーティションかを確認するにはどうすればよいですか? コンピュータのハードディスクを使用するとき、GPT と MBR を区別する必要があります。実際、この確認方法は非常に簡単です。一緒に見てみましょう。コンピュータのハードドライブが GPT または MBR であることを確認する方法 1. デスクトップのコンピュータを右クリックし、[管理] をクリックします。 2. [管理] で [ディスクの管理] を見つけます。 3. ディスクの管理に入り、ディスクの一般的なステータスを確認します。 4. 「プロパティ」の「ボリューム」タブに切り替えると、「ディスク パーティション フォーム」が表示されます。 「MBR パーティション win10 ディスクに関連する問題 MBR パーティションを GPT パーティションに変換する方法 >」として表示されます。

win7 オペレーティング システムを使用している場合、システムを再インストールしてハードディスクをパーティション分割する必要がある状況に遭遇することがあります。 win7 のハードディスク フォーマットに mbr と gpt のどちらが必要かという問題については、編集者は依然として独自のシステムとハードウェア構成の詳細に基づいて選択する必要があると考えています。互換性の観点から、mbr 形式を選択するのが最善です。詳細については、エディターがどのように実行したかを見てみましょう~ Win7 ハードディスク フォーマットには mbr または gpt1 が必要です。システムが Win7 でインストールされている場合は、互換性の良い MBR を使用することをお勧めします。 2. 3T を超える場合、または win8 をインストールする場合は、GPT を使用できます。 3. 確かに GPT は MBR よりも高度ですが、互換性の点では MBR は間違いなく無敵です。 GPT および MBR 領域

最近、復丹大学自然言語処理チーム (FudanNLP) は、LLM ベースのエージェントに関するレビュー論文を発表しました。全文は 86 ページで、600 以上の参考文献があります。 AIAgentの歴史から始まり、LLMベースのAgentの背景、構成、適用シナリオ、注目を集めているエージェント社会など、大規模言語モデルに基づいた知的エージェントの現状を包括的に整理する。同時に、著者らは、関連分野の将来の開発動向にとって非常に価値のある、エージェントに関連する将来を見据えた未解決の問題についても議論しました。論文リンク: https://arxiv.org/pdf/2309.07864.pdfLLM-basedAgent 論文リスト:

科学: 将来の知覚を備えた汎用 AI は、永遠に慈悲深く有益な存在であるとは程遠く、個人データをすべて食い尽くし、最も必要なときに崩壊する操作的な社会病質者になる可能性があります。 3WaysLLMsCanLetYouDown、著者 JoabJackson からの翻訳。 OpenAI は GPT-5 をリリースしようとしており、外部の世界は GPT-5 に大きな期待を寄せており、最も楽観的な予測では汎用人工知能が実現されるとさえ信じられています。しかし同時に、CEOのサム・アルトマン氏とそのチームは、これを市場に出すには多くの深刻な障害に直面していることを、同氏は今月初めに認めた。最近発表された研究論文には、アルトマン氏の挑戦への手がかりを提供する可能性のあるものがいくつかある。これらの論文の要約

Xi Xiaoyao Science and Technology Talks 原著者 | IQ が完全に低下した Python 機械が人間と同じように理解し、コミュニケーションできるようになったらどうなるでしょうか?これは学術コミュニティで大きな関心を集めているテーマであり、近年の自然言語処理における一連の画期的な進歩のおかげで、私たちはこの目標の達成にこれまで以上に近づいているかもしれません。この画期的な進歩の最前線にあるのは、自然言語処理タスク用に特別に設計されたディープ ニューラル ネットワーク モデルである Generative Pre-trained Transformer (GPT) です。その優れたパフォーマンスと効果的な会話を行う能力により、この分野で最も広く使用され、効果的なモデルの 1 つとなり、研究や業界から大きな注目を集めています。最近の詳しい内容では

モデルの紹介: Alpaca モデルは、スタンフォード大学によって開発された LLM (Large Language Model、大規模言語) オープン ソース モデルです。LLaMA7B (Meta 社による 7B オープン ソース) モデルから 52K 命令で微調整されています。モデル パラメーター (モデル パラメーターが大きいほど、モデルの推論能力が強くなります。もちろん、モデルのトレーニングのコストも高くなります)。 LoRA は、正式な英語名は Low-RankAdaptation of Large Language Models で、直訳すると大規模言語モデルの低レベル適応と訳され、大規模言語モデルの微調整を解決するために Microsoft の研究者によって開発されたテクノロジです。事前トレーニングされた大規模な言語モデルで特定のドメインを実行できるようにしたい場合
