ホームページ テクノロジー周辺機器 AI 30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

Apr 14, 2023 am 11:49 AM
グーグル モデル

人工知能の重要な目標は、強力な一般化機能を備えたモデルを開発することです。自然言語処理 (NLP) の分野では、事前トレーニングされた言語モデルがこの点で大きな進歩を遂げました。このようなモデルは、新しいタスクに適応するために微調整されることがよくあります。

最近、Google の研究者は、命令の微調整に対する拡張機能の影響を含む、さまざまな命令の微調整方法を分析しました。実験によると、命令の微調整はタスクの数とモデルのサイズに応じて実際に適切に拡張でき、最大 5,400 億のパラメーターのモデルで大きなメリットが得られることが示されており、将来の研究ではタスクの数とモデルのサイズがさらに拡大されるはずです。さらに、この研究では、モデルの推論実行能力に対する微調整の影響も分析されており、その結果は非常に魅力的です。

結果として得られた Flan-T5 には、1,800 を超える言語タスク向けに微調整された命令が含まれており、プロンプトと複数ステップの推論機能が大幅に向上しており、1,750 億個のパラメータのうち GPT-3 を超える可能性があります。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

#Google は大規模モデルの機能を向上させる方向性を見つけたようです。しかし、この研究は機械学習コミュニティの歓迎を集めただけでなく、Gary Marcus 氏の苦情も引き付けました。 Google のモデル Google の有名な科学者ジェフリー ヒントンの生年月日が間違ったのはなぜですか?彼は明らかに1947年生まれの古株だ。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

Google Brain の主任科学者であり、この論文の著者の 1 人であるクオック・リー氏は、すぐに状況を正すために出てきました。派遣労働者の写真は間違っていました。そして、Flan-T5 モデルは論文に含まれていませんでした。ジェフの生年月日を間違えましたが、それを証明する写真があります。

ちなみに、1963年生まれの有名なAI学者はユルゲン・シュミットフーバーです。

間違っているのは AI モデルではないので、Google の新しい手法が事前トレーニング済みモデルにどのような変化をもたらすかを見てみましょう。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。#論文: スケーリング命令 - 微調整された言語モデル

##論文アドレス: https://arxiv.org/abs/2210.11416

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

公開モデル: https://arxiv.org/abs/2210.11416 github.com/google-research/t5x/blob/main/docs/models.md#flan-t5-checkpoints


  • この調査では 540B パラメータ モデルを使用しますFlan-PaLM をトレーニングすると、微調整タスクの数が 1800 以上に増加し、思考連鎖 (CoT; Wei et al., 2022b) データが含まれます。トレーニングされた Flan-PaLM は PaLM を上回り、複数のベンチマークで新しい SOTA に達しました。推論機能の点では、Flan-PaLM は CoT と自己一貫性 (Wang et al., 2022c) を活用して、大規模なマルチタスク言語理解で 75.2% の精度を達成できます (MMLU; Hendrycks et al., 2020)。レート。
  • さらに、Flan-PaLM は、一連の挑戦的なオープンエンド生成問題において PaLM を大幅に上回り、使いやすさが大幅に向上しました。
全体として、この Google の調査は、命令の微調整を使用してモデルのパフォーマンスを向上させる具体的な方法を示しています。

方法

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。 具体的には、この研究は主に、(1) タスクの数の拡大、(2) タスクの拡大など、指導の微調整に影響を与えるいくつかの側面に焦点を当てています。モデルのサイズ、および (3) 思考連鎖データを微調整します。

研究では、上記の側面による命令の微調整により、さまざまなモデル クラス (PaLM、T5、U-PaLM)、プロンプト設定 (ゼロ ショット、少数ショット、CoT)、および評価ベンチマークが大幅に改善されたことがわかりました。 MMLU、BBH、TyDiQA、MGSM、オープン世代)。たとえば、命令を微調整した Flan-PaLM 540B は、1.8K タスクで PALM 540B を大幅に上回ります (平均 9.4%)。 Flan-PaLM 540B は、5 つの MMLU で 75.2% など、いくつかのベンチマークで最先端のパフォーマンスを達成します。

研究者らは、PaLM 62B などの大型モデルと比較した場合でも強力な数ショット性能を達成する Flan-T5 チェックポイントも公開しました。全体として、命令の微調整は、事前トレーニングされた言語モデルのパフォーマンスと使いやすさを向上させるための一般的なアプローチです。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

図 1. 研究者は、1,800 を超えるタスクでさまざまな言語モデルを微調整しました。サンプル数 (ゼロまたは少数のサンプル) と思考チェーンの有無により、さまざまな評価シナリオにわたる一般化が可能になります。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

# 図 2. 微調整データには 473 のデータセット、146 のタスク カテゴリ、および合計が含まれます1836 のタスク。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

データの微調整とプログラムの微調整プロセスが完了した後、研究者は、タスクの影響に対するモデル サイズのパフォーマンス。まず、3 つのモデル サイズすべてにおいて、マルチタスク命令の微調整を行うと、微調整を行わない場合と比較してパフォーマンスが大幅に向上し、9.4% ~ 15.5% の範囲で向上します。次に、微調整タスクの数を増やすと、パフォーマンスが向上します。

最後に、モデル サイズを 1 桁増やす (8B → 62B または 62B → 540B) と、微調整されたモデルと非微調整されたモデルの両方のパフォーマンスが大幅に向上することがわかります。 -チューンドモデル。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

マルチタスク命令の微調整がモデル サイズ (パラメーターの量) と相対的な精度に及ぼす影響と、微調整タスクの数と規模の拡大 影響。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

微調整データ内のタスクの数を増やすと、ほとんどの点で Flan-PaLM が改善されます。パフォーマンスのベンチマークを評価します。

# 研究者らは、思考連鎖 (CoT) の注釈が付けられた 9 つのデータセットを微調整混合に含めることで、推論機能が向上することを実証しました。以下の表は、Flan-PaLM の CoT プロンプト機能が 4 つの評価ベンチマークで PaLM を上回っていることを示しています。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

この研究では、CoT データの命令を微調整することのもう 1 つの利点は、ゼロショット推論を達成できることであることがわかりました。 CoT は、わずか数個のサンプルを使用して独自に推論機能を生成しますが、正しく実装するには大規模なエンジニアリング調整が必要になる場合があります。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

図 6: 23 個の困難な BIG-Bench タスク (BBH) ゼロのセットでの PaLM と Flan-PaLMショットパフォーマンスオン。 Flan-PaLM では、「ステップごとに考えてみましょう」コマンドによってアクティブ化される思考連鎖 (CoT) の生成が必要です。

新しい手法の汎用性を実証するために、Google は T5、PaLM、U-PaLM をトレーニングし、8,000 万から 5,400 億パラメータの範囲のモデル サイズをカバーし、すべてのモデルがパフォーマンスを大幅に向上できることを発見しました。

30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。

#表 5. 命令微調整 (Flan) は、他の継続的な事前トレーニング方法よりもパフォーマンスを向上させます。

テスト後、命令の微調整により、すべてのモデル タイプの正規化された平均パフォーマンスが大幅に向上し、T5 モデルは、命令の微調整を行わなかったモデルと比較して恩恵を受けました。微調整されたモデルがほとんどです。これらの結果は、一部のベンチマークでは非常に強力です。たとえば、Flan-T5-XL は、わずか 30 億のパラメーターで 47.6% の MMLU スコアを達成し、1,750 億のパラメーターでの GPT-3 の 43.9% スコアを上回りました。

NLP ベンチマークに加えて、言語モデルは自由形式の質問リクエストに対する長い形式の回答を生成できます。この点において、標準的な NLP ベンチマークとその評価に使用される自動化された指標は、人間の好みを測定するには不十分です。研究者らはこれを評価し、190 例からなる評価セットを作成しました。評価セットは、創造性、文脈上の推論、複雑な推論、計画、説明という、それぞれ 20 問からなる 5 つの難しいカテゴリにわたって、ゼロショット方式でモデルに提示される質問で構成されます。

これらの例のうち 60 個 (複雑な推論、計画、説明のカテゴリーから) について、研究では思考連鎖トリガー フレーズ (例: 「段階的に考えてみましょう」) とのリンクを作成しました。 .”)、CoT でゼロショットを有効にして微調整が行われたかどうかの別の評価として。前述の 160 個のゼロショット入力に加えて、この研究には、指導による微調整のない強力な言語モデルが良好に機能することが示されている少数ショット機能をテストするための 30 個の入力も含まれています。

研究者らは、命令の微調整とスケール拡張の両方で大規模な言語モデルのパフォーマンスを継続的に向上させることができ、微調整は推論機能にとって重要であり、モデルの機能を一般化することもできると考えています。命令の微調整と UL2R などの他のモデル適応手法を組み合わせることで、Google はこの作業で最強のモデル Flan-U-PaLM を提案します。

重要なのは、命令の微調整は、モデル スケールの拡張のようなコンピューティング コストを大幅に増加させるものではありません。たとえば、PaLM 540B の場合、命令の微調整には事前トレーニング計算の 0.2% しか必要ありません。ただし、評価ベンチマーク全体の正規化平均を 9.4% 向上させることができます。ディレクティブ ナッジを使用する小規模なモデルは、ナッジを使用しない大きなモデルよりもパフォーマンスが優れている場合があります。

これらの理由から、研究者は、ほぼすべての事前トレーニング済み言語モデルに対して命令を微調整することを推奨しています。

以上が30 億は GPT-3 の 1,750 億を上回りました。Google の新しいモデルは激しい議論を引き起こしましたが、ヒントンの年齢は間違っていました。の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

Deepseekをコメントする方法 Deepseekをコメントする方法 Feb 19, 2025 pm 05:42 PM

DeepSeekは、強力な情報を取得することですが、その不利な点は遅いことです。

DeepSeekを検索する方法 DeepSeekを検索する方法 Feb 19, 2025 pm 05:39 PM

DeepSeekは、特定のデータベースまたはシステムでのみ検索する独自の検索エンジンであり、より速く、より正確です。それを使用する場合、ユーザーはドキュメントを読み、さまざまな検索戦略を試し、ユーザーエクスペリエンスに関するヘルプを求めてフィードバックを求めて、利点を最大限に活用することをお勧めします。

セサミオープンドア交換Webページ登録リンクゲートトレーディングアプリ登録Webサイト最新 セサミオープンドア交換Webページ登録リンクゲートトレーディングアプリ登録Webサイト最新 Feb 28, 2025 am 11:06 AM

この記事では、SESAME Open Exchange(gate.io)Webバージョンの登録プロセスとGate Tradingアプリを詳細に紹介します。 Web登録であろうとアプリの登録であろうと、公式Webサイトまたはアプリストアにアクセスして、本物のアプリをダウンロードし、ユーザー名、パスワード、電子メール、携帯電話番号、その他の情報を入力し、電子メールまたは携帯電話の確認を完了する必要があります。

Bybit Exchangeリンクを直接ダウンロードしてインストールできないのはなぜですか? Bybit Exchangeリンクを直接ダウンロードしてインストールできないのはなぜですか? Feb 21, 2025 pm 10:57 PM

Bybit Exchangeリンクを直接ダウンロードしてインストールできないのはなぜですか? BYBITは、ユーザーにトレーディングサービスを提供する暗号通貨交換です。 Exchangeのモバイルアプリは、次の理由でAppStoreまたはGooglePlayを介して直接ダウンロードすることはできません。1。AppStoreポリシーは、AppleとGoogleがApp Storeで許可されているアプリケーションの種類について厳しい要件を持つことを制限しています。暗号通貨交換アプリケーションは、金融サービスを含み、特定の規制とセキュリティ基準を必要とするため、これらの要件を満たしていないことがよくあります。 2。法律と規制のコンプライアンス多くの国では、暗号通貨取引に関連する活動が規制または制限されています。これらの規制を遵守するために、BYBITアプリケーションは公式Webサイトまたはその他の認定チャネルを通じてのみ使用できます

セサミオープンドアトレーディングプラットフォームダウンロードモバイルバージョンgateioトレーディングプラットフォームのダウンロードアドレス セサミオープンドアトレーディングプラットフォームダウンロードモバイルバージョンgateioトレーディングプラットフォームのダウンロードアドレス Feb 28, 2025 am 10:51 AM

アプリをダウンロードしてアカウントの安全を確保するために、正式なチャネルを選択することが重要です。

Crypto Digital Asset Trading App(2025グローバルランキング)に推奨されるトップ10 Crypto Digital Asset Trading App(2025グローバルランキング)に推奨されるトップ10 Mar 18, 2025 pm 12:15 PM

この記事では、Binance、Okx、Gate.io、Bitflyer、Kucoin、Bybit、Coinbase Pro、Kraken、Bydfi、Xbit分散化された交換など、注意を払う価値のある上位10の暗号通貨取引プラットフォームを推奨しています。これらのプラットフォームには、トランザクションの数量、トランザクションの種類、セキュリティ、コンプライアンス、特別な機能の点で独自の利点があります。適切なプラットフォームを選択するには、あなた自身の取引体験、リスク許容度、投資の好みに基づいて包括的な検討が必要です。 この記事があなたがあなた自身に最適なスーツを見つけるのに役立つことを願っています

セサミオープンドアエクスチェンジウェブページログイン最新バージョンgateio公式ウェブサイトの入り口 セサミオープンドアエクスチェンジウェブページログイン最新バージョンgateio公式ウェブサイトの入り口 Mar 04, 2025 pm 11:48 PM

ログインステップやパスワード回復プロセスなど、セサミオープンエクスチェンジWebバージョンのログイン操作の詳細な紹介も、ログイン障害、ページを開くことができず、プラットフォームにスムーズにログインするのに役立つ検証コードを受信できません。

Binance Binance公式Webサイト最新バージョンログインポータル Binance Binance公式Webサイト最新バージョンログインポータル Feb 21, 2025 pm 05:42 PM

Binance Webサイトログインポータルの最新バージョンにアクセスするには、これらの簡単な手順に従ってください。公式ウェブサイトに移動し、右上隅の[ログイン]ボタンをクリックします。既存のログインメソッドを選択してください。「登録」してください。登録済みの携帯電話番号または電子メールとパスワードを入力し、認証を完了します(モバイル検証コードやGoogle Authenticatorなど)。検証が成功した後、Binance公式WebサイトLogin Portalの最新バージョンにアクセスできます。

See all articles