ホームページ テクノロジー周辺機器 AI DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?

DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?

Nov 02, 2023 am 09:13 AM
deepmind プロジェクト convnets

#この論文では、スケールアップされた NFNet を評価し、大規模な問題では ConvNet のパフォーマンスが ViT よりも悪いという考えに異議を唱えます。

深層学習の初期の成功は、畳み込みニューラル ネットワーク (ConvNet) の開発に起因すると考えられます。 ConvNet は、10 年近くにわたってコンピューター ビジョンのベンチマークを支配してきました。しかし、近年ではViT(ビジョントランスフォーマー)に置き換わるケースが増えています。

多くの人は、ConvNet は小規模または中規模のデータ セットでは良好なパフォーマンスを発揮しますが、より大規模なネットワーク サイズのデータ​​ セットでは ViT と競合できないと考えています。

同時に、CV コミュニティは、特定のデータセット (ImageNet など) でランダムに初期化されたネットワークのパフォーマンスを評価することから、ネットワークから収集された大規模な一般データセットで事前トレーニングされたネットワークのパフォーマンスを評価することに移行しました。これは重要な疑問につながります。ビジョン トランスフォーマーは、同様の計算予算の下で、事前トレーニングされた ConvNets アーキテクチャよりも優れたパフォーマンスを発揮しますか?

この記事では、Google DeepMind の研究者がこの問題を研究しました。彼らは、異なるスケールの JFT-4B データセット上で複数の NFNet モデルを事前トレーニングすることにより、ImageNet 上の ViT と同様のパフォーマンスを獲得しました。

DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?
ペーパーリンクアドレス: https://arxiv.org /pdf/2310.16764.pdf

この論文の調査では、0.4k ~ 110k の TPU-v4 コア コンピューティング時間の事前トレーニング コンピューティング予算の状況と、NFNet モデル ファミリの深さと幅の増加を活用した状況について説明します。一連のネットワーク トレーニングを実行します。研究によると、ホールドアウト損失とコンピューティング予算の間には対対対数拡大率 (スケーリング則) があることが判明しました。

たとえば、この記事は、TPU-v4 コア時間で実行される JFT-4B に基づいています (コア時間)は 0.4k から 110k までスケールされ、NFNet で事前トレーニングされました。微調整後、最大のモデルは ImageNet Top-1 で 90.4% の精度を達成し、同じ計算量の下で事前トレーニングされた ViT モデルと競合しました

DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?
次のように言えます。 、この論文は、スケールアップされた NFNet を評価することによって、大規模なデータセットでは ConvNet のパフォーマンスが ViT よりも悪いという概念に異議を唱えます。さらに、十分なデータと計算があれば、ConvNet は競争力を維持し、モデル設計とリソースはアーキテクチャよりも重要です。

この研究を見て、チューリング賞受賞者のヤン・ルカン氏は次のように述べています。「一定の計算量の下では、ViT と ConvNets は計算的に同等です。ViTs はコンピューター ビジョンで目覚ましい結果を達成しましたが、印象的な成功ですが、私の意見では公正に評価した場合、事前トレーニングされた ViT が事前トレーニングされた ConvNet よりも優れているという強力な証拠はありません。」

DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?
しかし、一部のネチズンは、LeCun のコメントに対して、ViT を使用することは効果的であると信じているとコメントしました。マルチモーダル モデルは依然として研究において有利である可能性があります

Google DeepMind の研究者らは、ConvNets が消えることはないと述べています

DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?
次に、具体的なコンテンツを見てみましょう紙の。

事前トレーニングされた NFNet は拡張則に従う

この記事では、JFT-4B でさまざまな深さと幅の一連の NFNet モデルをトレーニングしました。

図 2 に示すように、検証損失はトレーニング モデルの計算量に直線的に関係しており、言語モデリングに Transformer を使用したときに観察される対数対対展開則と一致しています。計算バジェットが増加するにつれて、(検証損失を最小限に抑えるための) 最適なモデル サイズと最適なエポック バジェットも増加します。

DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?
# 以下のグラフでは、最適な学習がわかります。さまざまなエポックバジェットにわたって 3 つのモデルで観察されたレート (つまり、検証損失の最小化)。研究者らは、エポックバジェットが低い場合、NFNet ファミリのモデルはすべて、ほぼ 1.6 という同様の最適学習率を示すことを発見しました。ただし、最適な学習率はエポック バジェットが増加するにつれて減少し、モデルが大きくなると減少速度が速くなります。研究者らは、最適な学習率はモデルサイズとエポックバジェットの増加に伴ってゆっくりと単調に減少すると仮定できるため、試行間で学習率を効果的に調整できると述べています。
DeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?

書き直す必要があるのは次のとおりです。図 2 の事前トレーニング済みモデルの一部は期待どおりに動作しなかったことに注意してください。研究チームは、この状況の理由は、トレーニングの実行がプリエンプト/再開された場合、データ読み込みプロセスで各トレーニング サンプルが各エポックで 1 回サンプリングできることを保証できないためであると考えています。トレーニングの実行が複数回再開されると、一部のトレーニング サンプルがアンダーサンプリングされる可能性があります。

NFNet と ViT

ImageNet での実験では、微調整後のパフォーマンスが示されています。 NFNet と Vision Transformer の効果は非常に優れています

具体的には、この研究では、ImageNet 上で事前トレーニングされた NFNet を微調整し、上の図 1 に示すように、事前トレーニングの計算と Top-1 エラーの関係をプロットしました。

予算が増加するにつれて、ImageNet Top-1 の精度は向上し続けます。その中で、最も高価な事前トレーニング モデルは NFNet-F7 です。これは 8 エポックで事前トレーニングされ、ImageNet Top-1 で 90.3% の精度を持っています。事前トレーニングと微調整には、約 110,000 TPU-v4 コア時間と 1.6,000 TPU-v4 コア時間が必要です。さらに、微調整中に追加の繰り返し強化技術を導入すると、90.4% のトップ 1 精度を達成できます。 NFNet は大規模な事前トレーニングから大きなメリットをもたらします。

2 つのモデル アーキテクチャ NFNet と ViT の間には明らかな違いがあるにもかかわらず、事前トレーニングされた NFNet と事前トレーニングされた ViT はパフォーマンスにおいて同等です。たとえば、210k TPU-v3 コア時間で JFT-3B を事前トレーニングした後、ViT-g/14 は ImageNet で 90.2% というトップ 1 の精度を達成しましたが、コア時間後には 500k TPU-v3 以上で JFT-3B をトレーニングしました。事前トレーニングの場合、ViT-G/14 は 90.45% のトップ 1 精度を達成しました。

この記事では、TPU-v4 でのこれらのモデルの事前トレーニング速度を評価し、ViT-g/14 120k TPU を推定します。事前トレーニングには v4 コア時間が必要ですが、ViTG/14 では 280,000 TPU-v4 コア時間が必要となり、SoViT-400m/14 では 130,000 TPU-v4 コア時間が必要になります。このペーパーでは、これらの推定値を使用して、図 1 の ViT と NFNet の事前トレーニング効率を比較します。この調査では、NFNet は TPU-v4 用に最適化されており、他のデバイスで評価するとパフォーマンスが低下することが指摘されています。

最後に、この論文では、JFT-4B では事前トレーニングされたチェックポイントが検証損失を最小限に抑えますが、微調整後は ImageNet で常に最高のトップ 1 精度を達成するとは限らないことを指摘します。特に、この論文では、事前トレーニングの計算量が固定されている場合、微調整メカニズムはわずかに大きなモデルとわずかに小さいエポック量を選択する傾向があることを発見しました。直観的には、モデルが大きいほど処理能力が大きいため、新しいタスクへの適応力が高くなります。場合によっては、(事前トレーニング中の)学習率を少し大きくすると、微調整後のパフォーマンスが向上する可能性もあります

以上がDeepMind: 畳み込みネットワークが ViT より劣ると誰が言いましたか?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました DeepMind ロボットが卓球をすると、フォアハンドとバックハンドが空中に滑り出し、人間の初心者を完全に打ち負かしました Aug 09, 2024 pm 04:01 PM

でももしかしたら公園の老人には勝てないかもしれない?パリオリンピックの真っ最中で、卓球が注目を集めています。同時に、ロボットは卓球のプレーにも新たな進歩をもたらしました。先ほど、DeepMind は、卓球競技において人間のアマチュア選手のレベルに到達できる初の学習ロボット エージェントを提案しました。論文のアドレス: https://arxiv.org/pdf/2408.03906 DeepMind ロボットは卓球でどれくらい優れていますか?おそらく人間のアマチュアプレーヤーと同等です: フォアハンドとバックハンドの両方: 相手はさまざまなプレースタイルを使用しますが、ロボットもそれに耐えることができます: さまざまなスピンでサーブを受ける: ただし、ゲームの激しさはそれほど激しくないようです公園の老人。ロボット、卓球用

ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス ControlNet の作者がまたヒット作を出しました!写真から絵画を生成し、2 日間で 1.4,000 個のスターを獲得する全プロセス Jul 17, 2024 am 01:56 AM

これも Tusheng のビデオですが、PaintsUndo は別の道を歩んでいます。 ControlNet 作者 LvminZhang が再び生き始めました!今回は絵画の分野を目指します。新しいプロジェクト PaintsUndo は、開始されて間もなく 1.4kstar を獲得しました (まだ異常なほど上昇しています)。プロジェクトアドレス: https://github.com/lllyasviel/Paints-UNDO このプロジェクトを通じて、ユーザーが静止画像を入力すると、PaintsUndo が線画から完成品までのペイントプロセス全体のビデオを自動的に生成するのに役立ちます。 。描画プロセス中の線の変化は驚くべきもので、最終的なビデオ結果は元の画像と非常によく似ています。完成した描画を見てみましょう。

オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します オープンソース AI ソフトウェア エンジニアのリストのトップに立つ UIUC のエージェントレス ソリューションは、SWE ベンチの実際のプログラミングの問題を簡単に解決します Jul 17, 2024 pm 10:02 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com この論文の著者は全員、イリノイ大学アーバナ シャンペーン校 (UIUC) の Zhang Lingming 教師のチームのメンバーです。博士課程4年、研究者

OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる OpenAI Super Alignment チームの遺作: 2 つの大きなモデルがゲームをプレイし、出力がより理解しやすくなる Jul 19, 2024 am 01:29 AM

AIモデルによって与えられた答えがまったく理解できない場合、あなたはそれをあえて使用しますか?機械学習システムがより重要な分野で使用されるにつれて、なぜその出力を信頼できるのか、またどのような場合に信頼してはいけないのかを実証することがますます重要になっています。複雑なシステムの出力に対する信頼を得る方法の 1 つは、人間または他の信頼できるシステムが読み取れる、つまり、考えられるエラーが発生する可能性がある点まで完全に理解できる、その出力の解釈を生成することをシステムに要求することです。見つかった。たとえば、司法制度に対する信頼を築くために、裁判所に対し、決定を説明し裏付ける明確で読みやすい書面による意見を提供することを求めています。大規模な言語モデルの場合も、同様のアプローチを採用できます。ただし、このアプローチを採用する場合は、言語モデルが

RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています RLHF から DPO、TDPO に至るまで、大規模なモデル アライメント アルゴリズムはすでに「トークンレベル」になっています Jun 24, 2024 pm 03:04 PM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com 人工知能の開発プロセスにおいて、大規模言語モデル (LLM) の制御とガイダンスは常に中心的な課題の 1 つであり、これらのモデルが両方とも確実に機能することを目指しています。強力かつ安全に人類社会に貢献します。初期の取り組みは人間のフィードバックによる強化学習手法に焦点を当てていました (RL

arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています arXiv 論文は「弾幕」として投稿可能、スタンフォード alphaXiv ディスカッション プラットフォームはオンライン、LeCun は気に入っています Aug 01, 2024 pm 05:18 PM

乾杯!紙面でのディスカッションが言葉だけになると、どんな感じになるでしょうか?最近、スタンフォード大学の学生が、arXiv 論文のオープン ディスカッション フォーラムである alphaXiv を作成しました。このフォーラムでは、arXiv 論文に直接質問やコメントを投稿できます。 Web サイトのリンク: https://alphaxiv.org/ 実際、URL の arXiv を alphaXiv に変更するだけで、alphaXiv フォーラムの対応する論文を直接開くことができます。この Web サイトにアクセスする必要はありません。その中の段落を正確に見つけることができます。論文、文: 右側のディスカッション エリアでは、ユーザーは論文のアイデアや詳細について著者に尋ねる質問を投稿できます。たとえば、次のような論文の内容についてコメントすることもできます。

リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した リーマン予想の大きな進歩!陶哲軒氏はMITとオックスフォードの新しい論文を強く推薦し、37歳のフィールズ賞受賞者も参加した Aug 05, 2024 pm 03:32 PM

最近、2000年代の7大問題の一つとして知られるリーマン予想が新たなブレークスルーを達成した。リーマン予想は、数学における非常に重要な未解決の問題であり、素数の分布の正確な性質に関連しています (素数とは、1 とそれ自身でのみ割り切れる数であり、整数論において基本的な役割を果たします)。今日の数学文献には、リーマン予想 (またはその一般化された形式) の確立に基づいた 1,000 を超える数学的命題があります。言い換えれば、リーマン予想とその一般化された形式が証明されれば、これらの 1,000 を超える命題が定理として確立され、数学の分野に重大な影響を与えることになります。これらの命題の一部も有効性を失います。 MIT数学教授ラリー・ガスとオックスフォード大学から新たな進歩がもたらされる

最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです 最初の Mamba ベースの MLLM が登場しました!モデルの重み、トレーニング コードなどはすべてオープンソースです Jul 17, 2024 am 02:46 AM

AIxivコラムは、当サイトが学術的・技術的な内容を掲載するコラムです。過去数年間で、このサイトの AIxiv コラムには 2,000 件を超えるレポートが寄せられ、世界中の主要な大学や企業のトップ研究室がカバーされ、学術交流と普及を効果的に促進しています。共有したい優れた作品がある場合は、お気軽に寄稿するか、報告のために当社までご連絡ください。提出電子メール: liyazhou@jiqizhixin.com; zhaoyunfeng@jiqizhixin.com。はじめに 近年、さまざまな分野でマルチモーダル大規模言語モデル (MLLM) の適用が目覚ましい成功を収めています。ただし、多くの下流タスクの基本モデルとして、現在の MLLM はよく知られた Transformer ネットワークで構成されています。

See all articles