大規模な言語モデルを無作為に作成することは禁止されており、ある程度の外部知識があれば、推論は非常に信頼できます。
大規模言語モデル (LLM) は、タスク固有のトレーニングや微調整を必要とせずに、コンテキスト内学習を通じて、さまざまな複雑なタスクで優れたパフォーマンスを実証してきました。プロンプトとデコードの最近の進歩により、LLM は、複雑な推論タスクを解決するための現実。
ただし、LLM には古い知識、不完全な知識、または不正確な知識が保存されている可能性があり、LLM を実際のアプリケーションにうまく導入するには、外部の知識ソース (Wikipedia など) が重要です。これまでにも、T5、BERT、RoBERTa などの小規模な言語モデル (LM) に知識を適用する試みが行われてきましたが、これらの方法は多くの場合、追加のトレーニングや微調整が必要であり、コストがかかり、LLM にとってはまったく実用的ではありません。
これに基づいて、ロチェスター大学、テンセント AI 研究所、ペンシルベニア大学の研究者は共同で、外部知識を活用するための検索による再思考 (RR) と呼ばれる後処理手法を提案しました。 LLM。
論文アドレス: https://arxiv.org/pdf/2301.00303v1.pdf
この研究のアイデアは、Wang らと同様に、まず思考連鎖 (CoT) プロンプト手法を使用して、一連の異なる推論パスを生成することです。 (2022) メソッド。次に、研究ではこれらのパスの各推論ステップを使用して関連する外部知識を取得し、RR 手法でより妥当な説明とより正確な予測を提供できるようにします。
この研究では、GPT-3 175B といくつかの一般的な外部知識ソース (Wikipedia、Wikidata、WordNet、Conceptnet) を使用して、以下を含む 3 つの複雑な推論タスクにおける RR 法のパフォーマンスを評価します。常識的推論、時間的推論、表による推論。実験結果は、追加のトレーニングや微調整を行わなくても、RR がこれら 3 つのタスクにおいて他の手法よりも一貫して優れていることを示しており、RR 手法が外部知識を活用して LLM のパフォーマンスを向上させる点で大きな利点があることを示しています。
検索による再考実際、LLM は質問に答えるために必要な要素を正確に捉えていますが、これらのモデルは時々誤った結果を生成することがあります。この現象は、LLM が知識を保存および取得する方法に次のようないくつかの問題があることを示しています。
- 事前トレーニング中の関連知識の不適切な保存;
- 推論フェーズ中の関連知識の不適切な取得。
- RR メソッドの一般的な考え方は次のとおりです。入力質問 Q が与えられると、RR メソッドは最初にプロンプトのチェーンを使用して、異なる推論パス R_1、R_2、...、R_N のセット。各推論パス R_i は、説明 E_i とそれに続く予測 P_i で構成されます。予測 P_i は、適切な知識から関連知識 K_1、...、K_M を取得することによってサポートされます。各推論パスのベース KB 説明を参照し、その知識に最も適合する予測
思考連鎖 (CoT) プロンプト。標準的なプロンプトとは大きく異なり、CoT プロンプトには、推論プロセスをキャプチャする一連の短い文を生成するためのプロンプト内で、段階的な推論例のデモンストレーションが含まれます。
CoT プロンプトの推論は、単に「いいえ」を出力するのではなく、「アリストテレスは紀元前 322 年に亡くなりました。最初のラップトップは 1980 年に発明されました。したがって、アリストテレスはラップトップを使用しませんでした。したがって、答えはノーです。」となります。
さまざまな推論パスをサンプリングします。 Wang et al. (2022) と同様に、この研究では、Wei et al. (2022) のパスのように最適な比例パス (貪欲) のみを考慮するのではなく、異なる推論パスのセット R_1、R_2、...、R_N をサンプリングしました。 。 「アリストテレスはラップトップを使用しましたか?」という質問に関して、考えられる推論経路は次のとおりです:
(R_1) アリストテレスは 2000 年に亡くなりました。最初のラップトップは 1980 年に発明されました。そこでアリストテレスはラップトップを使用しました。したがって、この質問に対する答えは「はい」です。 (R_2) アリストテレスは紀元前 322 年に亡くなりました。最初のラップトップは 2000 年に発明されました。したがって、アリストテレスはラップトップを使用しませんでした。したがって、答えはノーです。 知識の検索。さまざまな知識ベースを使用して、さまざまなタスクを処理できます。たとえば、「アリストテレスはラップトップを使用しましたか?」という質問に答えるために、Wikipedia を外部ナレッジ ベース KB として使用できます。情報検索技術を使用すると、分解された推論ステップに基づいて Wikipedia から関連する知識 K_1、...K_M を検索できます。理想的には、この質問について Wikipedia から次の 2 つの段落を取得することになります: (K_1) アリストテレス (紀元前 384 年から紀元前 322 年) は、古代ギリシャの古典期のギリシャの哲学者および博学者でした。 (K_2) 最初のラップトップ コンピューターである Epson HX-20 は 1980 年に発明されました... 忠実な推論。知識ベース KB から取得した関連知識 K_1,...,K_M に基づく関数 f_KB(R_i) を使用して、各推論パス R_i の信頼度を推定できます。最終的な予測は、次の推論プロセスを適用することで取得できます。
実験的評価
セクションでは、この研究では、常識的推論、時間的推論、表形式推論という 3 つの複雑な推論タスクに関する RR の評価を示しています。
実験的な設定。すべての実験では、特に明記されていない限り、この研究では GPT-3 text-davinci-002 を使用します。実験完了時に生成されるトークンの最大数は 256、ゼロショット、少数ショット、および思考連鎖プロンプトに設定され、温度パラメーター (温度) は 0 に固定されました。 ############結果。表 1 に示すように、私たちが提案した手法 RR は、追加のトレーニングや微調整を行わなくても、3 つの推論タスクすべてですべてのベースラインを常に上回っています。これらの結果は、LLM のパフォーマンスを向上させるために外部の知識を活用する際の RR の有効性を強調しています。
この研究では、StrategyQA データセットに対する CoT プロンプト手法を使用した GPT-3 の分析を示します。 GPT-3 の出力を注意深く調べた結果、研究では、RR が多くの問題に対して合理的な説明と正しい予測を提供できることがわかりました。たとえば、「ジョージア州アルバニーは、ニューヨーク州アルバニーよりも先に住民 100,000 人に到達しますか?」という質問が与えられた場合、GPT-3 は次の出力を生成しました。
間違った裏付け事実。表 2 に示すように、GPT-3 はビルボード チャートでリル ジョンの最高チャートの曲について誤った事実裏付けを提供し、最高チャートの曲は正解の Yeah ではなく Get Low であると述べています。さらに、GPT-3 は、富士山の頂上が日本海より高くなることはあり得ないと誤って推論しました。正しい答えは日本海であるということではありません。
#技術的な詳細については、元の論文を参照してください。
以上が大規模な言語モデルを無作為に作成することは禁止されており、ある程度の外部知識があれば、推論は非常に信頼できます。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

この論文では、自動運転においてさまざまな視野角 (遠近法や鳥瞰図など) から物体を正確に検出するという問題、特に、特徴を遠近法 (PV) 空間から鳥瞰図 (BEV) 空間に効果的に変換する方法について検討します。 Visual Transformation (VT) モジュールを介して実装されます。既存の手法は、2D から 3D への変換と 3D から 2D への変換という 2 つの戦略に大別されます。 2D から 3D への手法は、深さの確率を予測することで高密度の 2D フィーチャを改善しますが、特に遠方の領域では、深さ予測に固有の不確実性により不正確さが生じる可能性があります。 3D から 2D への方法では通常、3D クエリを使用して 2D フィーチャをサンプリングし、Transformer を通じて 3D と 2D フィーチャ間の対応のアテンション ウェイトを学習します。これにより、計算時間と展開時間が増加します。
