GPT-4 は、DeepMind トレーニングを通じて精度が 13.7% 向上し、帰納と演繹の能力が向上しました。
現在、大規模言語モデル (LLM) は、特に例と中間ステップが提供されている場合に、推論タスクで驚くべき機能を実証しています。ただし、プロンプト メソッドは通常、LLM の暗黙的知識に依存します。暗黙的知識が間違っているか、タスクと矛盾している場合、LLM は間違った答えを返す可能性があります
##現在、Google、Mila Institute、その他の研究機関の研究者は、LLM に推論ルールを学習させるという新しい方法を共同で検討し、Hypotheses-to-Theories (HtT) という新しいフレームワークと呼ばれる方法を提案しました。この新しい方法は、複数ステップの推論を改善するだけでなく、解釈可能性と伝達可能性という利点もあります
論文アドレス: https://arxiv.org/abs/2310.07064
数値推論と関係推論の問題に関する実験結果によると、HtT 法は既存のプロンプト手法を改良し、精度が 11 向上しました。 -27%。同時に、学習したルールを別のモデルや同じ問題の別の形式に転送することもできます
方法の紹介
一般的にHtT フレームワークは帰納的段階と演繹的段階の 2 つの段階で構成されており、従来の機械学習におけるトレーニングとテストに似ていると述べました。
導入フェーズでは、LLM はまずトレーニング サンプル用の一連のルールを生成して検証する必要があります。この研究では、CoT を使用してルールを宣言して答えを導き出し、ルールの頻度と精度を評価し、頻繁に出現して正解につながるルールを収集し、ルール ベースを形成します。
良いルールを使用してライブラリを使用している場合、次のステップは、問題を解決するためにこれらのルールを適用する方法を検討することです。この目的を達成するために、この研究では推論フェーズでプロンプトにルール ベースを追加し、LLM がルール ベースからルールを取得して推論を実行し、暗黙的な推論を明示的な推論に変換する必要があります。
ただし、研究によると、非常に強力な LLM (GPT-4 など) であっても、すべてのステップで正しいルールを取得するのは難しいことがわかっています。したがって、この研究では、LLM の文脈検索機能を強化する XML マークアップ技術を開発しました。
#実験結果
HtT を評価するために、研究では 2 つのマルチステップ推論問題をベンチマークしました。実験結果は、HtT が少数サンプル プロンプト法を改善することを示しています。著者らは、HtT をより包括的に理解するために、広範なアブレーション研究も実施しました。
彼らは、数的推論と関係論的推論の問題に関する新しい方法を評価します。数値推論では、GPT-4 の精度が 21.0% 向上したことが観察されました。関係推論では、GPT-4 は精度で 13.7% の向上を達成し、GPT-3.5 ではさらに恩恵を受け、パフォーマンスが 2 倍になりました。パフォーマンスの向上は主に、ルールの錯覚の減少によってもたらされます。
# 具体的には、以下の表 1 は、16 進数、11 進数、および 9 進数の算術結果を示しています。データセット。すべての基本システムの中で、両方の LLM で 0 ショット CoT のパフォーマンスが最も悪くなっています。
表 3 は、HtT が GPT-4 (テキスト バージョン) のパフォーマンスを大幅に向上させることを示しています。 GPT3.5 ではテキスト入力の処理時にルールの錯覚以外のエラーが発生することが多いため、この改善は重要ではありません。
#
以上がGPT-4 は、DeepMind トレーニングを通じて精度が 13.7% 向上し、帰納と演繹の能力が向上しました。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









5月30日、TencentはHunyuanモデルの包括的なアップグレードを発表し、Hunyuanモデルに基づくアプリ「Tencent Yuanbao」が正式にリリースされ、AppleおよびAndroidアプリストアからダウンロードできるようになりました。前のテスト段階のフンユアン アプレット バージョンと比較して、Tencent Yuanbao は、日常生活シナリオ向けの AI 検索、AI サマリー、AI ライティングなどのコア機能を提供し、Yuanbao のゲームプレイもより豊富で、複数の機能を提供します。 、パーソナルエージェントの作成などの新しいゲームプレイ方法が追加されます。 Tencent Cloud 副社長で Tencent Hunyuan 大型モデルの責任者である Liu Yuhong 氏は、「テンセントは、最初に大型モデルを開発しようとはしません。」と述べました。 Tencent Hunyuan の大型モデルは、ビジネス シナリオにおける豊富で大規模なポーランド テクノロジーを活用しながら、ユーザーの真のニーズを洞察します。

Volcano Engine の社長である Tan Dai 氏は、大規模モデルを実装したい企業は、モデルの有効性、推論コスト、実装の難易度という 3 つの重要な課題に直面していると述べました。複雑な問題を解決するためのサポートとして、適切な基本的な大規模モデルが必要です。また、サービスは低コストの推論を備えているため、大規模なモデルを広く使用できるようになり、企業がシナリオを実装できるようにするためには、より多くのツール、プラットフォーム、アプリケーションが必要になります。 ——Huoshan Engine 01 社長、Tan Dai 氏。大きなビーンバッグ モデルがデビューし、頻繁に使用されています。モデル効果を磨き上げることは、AI の実装における最も重要な課題です。 Tan Dai 氏は、良いモデルは大量に使用することでのみ磨かれると指摘しました。現在、Doubao モデルは毎日 1,200 億トークンのテキストを処理し、3,000 万枚の画像を生成しています。企業による大規模モデルシナリオの実装を支援するために、バイトダンスが独自に開発した豆包大規模モデルが火山を通じて打ち上げられます。

機械学習とデータ サイエンスの分野では、モデルの解釈可能性が常に研究者や実務家に焦点を当ててきました。深層学習やアンサンブル手法などの複雑なモデルが広く適用されるようになったことで、モデルの意思決定プロセスを理解することが特に重要になってきました。 Explainable AI|XAI は、モデルの透明性を高めることで、機械学習モデルに対する信頼と自信を構築するのに役立ちます。モデルの透明性の向上は、複数の複雑なモデルの普及や、モデルを説明するための意思決定プロセスなどの方法によって実現できます。これらの方法には、特徴重要度分析、モデル予測間隔推定、ローカル解釈可能性アルゴリズムなどが含まれます。特徴重要度分析では、入力特徴に対するモデルの影響度を評価することで、モデルの意思決定プロセスを説明できます。モデルの予測間隔の推定

C++ の機械学習アルゴリズムが直面する一般的な課題には、メモリ管理、マルチスレッド、パフォーマンスの最適化、保守性などがあります。解決策には、スマート ポインター、最新のスレッド ライブラリ、SIMD 命令、サードパーティ ライブラリの使用、コーディング スタイル ガイドラインの遵守、自動化ツールの使用が含まれます。実践的な事例では、Eigen ライブラリを使用して線形回帰アルゴリズムを実装し、メモリを効果的に管理し、高性能の行列演算を使用する方法を示します。

1. 背景の紹介 まず、Yunwen Technology の開発の歴史を紹介します。 Yunwen Technology Company ...2023 年は大規模モデルが普及する時期であり、多くの企業は大規模モデルの後、グラフの重要性が大幅に低下し、以前に検討されたプリセット情報システムはもはや重要ではないと考えています。しかし、RAG の推進とデータ ガバナンスの普及により、より効率的なデータ ガバナンスと高品質のデータが民営化された大規模モデルの有効性を向上させるための重要な前提条件であることがわかり、ますます多くの企業が注目し始めています。知識構築関連コンテンツへ。これにより、知識の構築と処理がより高いレベルに促進され、探索できる技術や方法が数多く存在します。新しいテクノロジーの出現によってすべての古いテクノロジーが打ち破られるわけではなく、新旧のテクノロジーが統合される可能性があることがわかります。

6月13日のニュースによると、Byteの「Volcano Engine」公開アカウントによると、Xiaomiの人工知能アシスタント「Xiao Ai」はVolcano Engineとの協力に達し、両社はbeanbao大型モデルに基づいて、よりインテリジェントなAIインタラクティブ体験を実現するとのこと。 。 ByteDance が作成した大規模な豆包モデルは、毎日最大 1,200 億のテキスト トークンを効率的に処理し、3,000 万個のコンテンツを生成できると報告されています。 Xiaomi は、Doubao 大型モデルを使用して、独自モデルの学習能力と推論能力を向上させ、ユーザーのニーズをより正確に把握するだけでなく、より速い応答速度とより包括的なコンテンツ サービスを提供する新しい「Xiao Ai Classmate」を作成しました。たとえば、ユーザーが複雑な科学的概念について質問する場合、&ldq

翻訳者 | Li Rui によるレビュー | 今日、人工知能 (AI) および機械学習 (ML) モデルはますます複雑になっており、これらのモデルによって生成される出力はブラックボックスになっており、関係者に説明することができません。 Explainable AI (XAI) は、利害関係者がこれらのモデルがどのように機能するかを理解できるようにし、これらのモデルが実際に意思決定を行う方法を確実に理解できるようにし、AI システムの透明性、信頼性、およびこの問題を解決するための説明責任を確保することで、この問題を解決することを目指しています。この記事では、さまざまな説明可能な人工知能 (XAI) 手法を検討して、その基礎となる原理を説明します。説明可能な AI が重要であるいくつかの理由 信頼と透明性: AI システムが広く受け入れられ、信頼されるためには、ユーザーは意思決定がどのように行われるかを理解する必要があります

編集者 |ScienceAI 質問応答 (QA) データセットは、自然言語処理 (NLP) 研究を促進する上で重要な役割を果たします。高品質の QA データ セットは、モデルの微調整に使用できるだけでなく、大規模言語モデル (LLM) の機能、特に科学的知識を理解し推論する能力を効果的に評価することもできます。現在、医学、化学、生物学、その他の分野をカバーする多くの科学 QA データ セットがありますが、これらのデータ セットにはまだいくつかの欠点があります。まず、データ形式は比較的単純で、そのほとんどが多肢選択式の質問であり、評価は簡単ですが、モデルの回答選択範囲が制限され、科学的な質問に回答するモデルの能力を完全にテストすることはできません。対照的に、自由回答型の Q&A
