目次
ViT の導入により、ディープ モデルのトレーニング方法はますます複雑になりました。一般的なトレーニング手法には、複雑なデータ拡張 (MixUp、CutMix、AutoRand など)、ラベル処理 (ラベル スムージングやノイズ ラベルなど)、モデル パラメーターの移動平均、ランダム ネットワーク深度、ドロップアウトなどが含まれます。これらの手法を組み合わせて適用することで、モデルの一般化と堅牢性が向上しましたが、それに伴い、モデル トレーニングの計算量もますます増大しています。
オプティマイザの収束速度を高速化する最も直接的な方法は、インパルスを導入することです。近年提案されたディープ モデル オプティマイザーはすべて、Adam で使用されているインパルス パラダイムに従っています -
1. CV シナリオ
ホームページ テクノロジー周辺機器 AI ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

Apr 11, 2023 pm 09:40 PM
モデル 電車

Google が Vision Transformer (ViT) を提案して以来、ViT は徐々に多くのビジュアル タスクのデフォルト バックボーンになってきました。 ViT 構造により、SoTA は画像分類、セグメンテーション、検出、認識などを含む多くの視覚タスクに対してさらに改良されました。

ただし、ViT をトレーニングするのは簡単ではありません。より複雑なトレーニング手法が必要になることに加えて、モデルのトレーニングに必要な計算量も以前の CNN よりもはるかに多くなることがよくあります。最近、シンガポール Sea AI LAB (SAIL) と北京大学 ZERO Lab の研究チームが共同で、 半分の計算量 train で ViT を完了できる新しい ディープ モデル オプティマイザー Adan を提案しました。 。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

紙のリンク: https://arxiv.org/pdf/2208.06677.pdf

##コードリンク: https://github.com/sail-sg/Adan

さらに、同じ計算量の下で、Adan

複数のシナリオ (CV、NLP、RL

を含む)、複数のトレーニング方法 (教師ありおよび自己教師あり)、および 複数のネットワーク構造/アルゴリズム (Swin、ViT、ResNet、ConvNext) に取り組んできました。 、MAE、LSTM、BERT、Transformer-XL、PPO アルゴリズム)、すべて 達成されたパフォーマンスの向上コード、構成ファイル、トレーニング ログはすべてオープン ソースです。

ディープ モデルのトレーニング パラダイムとオプティマイザー

ViT の導入により、ディープ モデルのトレーニング方法はますます複雑になりました。一般的なトレーニング手法には、複雑なデータ拡張 (MixUp、CutMix、AutoRand など)、ラベル処理 (ラベル スムージングやノイズ ラベルなど)、モデル パラメーターの移動平均、ランダム ネットワーク深度、ドロップアウトなどが含まれます。これらの手法を組み合わせて適用することで、モデルの一般化と堅牢性が向上しましたが、それに伴い、モデル トレーニングの計算量もますます増大しています。

ImageNet 1k では、トレーニング エポックの数が、ResNet によって提案されたばかりの 90 から、ViT のトレーニングに一般的に使用される 300 に増加しました。 MAE や ViT などの一部の自己教師あり学習モデルでも、事前トレーニング エポックの数は 1.6k に達しています。トレーニング エポックの増加はトレーニング時間が大幅に延長されることを意味し、学術研究や産業での実装のコストが大幅に増加します。現時点での一般的な解決策は、トレーニング バッチ サイズを増やし、並列トレーニングを支援してトレーニング時間を短縮することですが、それに伴う問題は、多くの場合、バッチ サイズが大きいとパフォーマンスの低下を意味し、バッチ サイズが大きくなるほど、パフォーマンスの低下がより明らかになるということです。状況。

これは主に、バッチ サイズが増加するにつれてモデル パラメーターの更新数が急激に減少するためです。現在のオプティマイザは、複雑なトレーニング パラダイムの下では、少数の更新でモデルの迅速なトレーニングを達成できず、これがモデル トレーニング エポック数の増加をさらに悪化させます。

では、より少ないパラメーター更新でディープ モデルをより速く、より適切にトレーニングできる新しいオプティマイザーはあるのでしょうか?トレーニング エポックの数を減らしながら、バッチ サイズの増加による悪影響も軽減できるでしょうか?

無視されるインパルス

オプティマイザの収束速度を高速化する最も直接的な方法は、インパルスを導入することです。近年提案されたディープ モデル オプティマイザーはすべて、Adam で使用されているインパルス パラダイムに従っています -

Heavy Sphere Method

:

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案 ここで、 g_kはランダム ノイズ、m_k はモーメント、eta は学習率です。アダムは、m_k の更新を累積形式から移動平均形式に変更し、学習率をスケールするために 2 次モーメント (n_k) を導入しました。つまり、

しかし、Adam がオリジナルの ViT のトレーニングに失敗したため、その改良版 AdamW が徐々に ViT や ConvNext のトレーニングに最初に選択されるようになりました。ただし、AdamW は Adam のインパルス パラダイムを変更しないため、バッチ サイズが 4,096 を超えると、AdamW によってトレーニングされた ViT のパフォーマンスが急激に低下します。

伝統的な凸最適化の分野では、ヘビー ボール法と同じくらい有名なインパルス手法があります - Nesterov インパルス アルゴリズム :

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

Nesterov インパルス アルゴリズムは、滑らかで一般に凸の問題では重力球法よりも理論上の収束速度が速く、理論的にはより大きなバッチ サイズにも耐えることができます。 。加重ボール法とは異なり、Nesterov アルゴリズムは現在の点での勾配を計算しませんが、力積を使用して外挿点を見つけ、この点での勾配を計算した後に力積を累積します。

外挿点は、Nesterov アルゴリズムが現在の点の周囲の幾何学的情報を事前に認識するのに役立ちます。この特性により、ネステロフ インパルスは、単に過去のインパルスに依存して鋭い局所最小点をバイパスするのではなく、事前に周囲の勾配を観察することで調整されるため、複雑なトレーニング パラダイムやモデル構造 (ViT など) により適しています。

Nesterov インパルス アルゴリズムには特定の利点がありますが、ディープ オプティマイザーで適用および検討されることはほとんどありません。主な理由の 1 つは、Nesterov アルゴリズムが外挿点での勾配を計算し、現在の点で更新する必要があるためです。この期間中に、複数のモデル パラメーターのリロードと外挿点での人工逆伝播 (BP) が必要になります。これらの不便さにより、ディープ モデル オプティマイザーでの Nesterov インパルス アルゴリズムの適用が大幅に制限されます。

Adan オプティマイザー

書き換えられた Nesterov インパルスを適応最適化アルゴリズムと組み合わせ、分離された重み減衰を導入することにより、最終的な Adan オプティマイザーを取得できます。外挿点を使用することで、Adan は周囲の勾配情報を事前に認識することができるため、鋭い極小領域から効率的に回避してモデルの一般化を高めることができます。

1) 適応ネステロフ インパルス

ネステロフ インパルスにおける複数のモデル パラメーターのオーバーロードの問題を解決するにはアルゴリズムの問​​題、研究者は最初に Nesterov を書き換えました:

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

書き換えられた Nesterov インパルス アルゴリズムが元のアルゴリズムと同等であることが証明でき、反復両者の点は相互に変換でき、最終的な収束点は同じになります。勾配の微分項を導入することにより、手動パラメータの過負荷と外挿点での人為的な血圧を回避できることがわかります。

書き直された Nesterov インパルス アルゴリズムと適応クラス オプティマイザーを組み合わせます。m_k の更新を累積形式から移動平均形式に置き換え、二次モーメントを使用して学習を調整します。 rate Zoom:

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

これまでのところ、Adan のアルゴリズムの基本バージョンを入手しました。

2) 勾配差のインパルス

m_k の更新により、勾配とTogether では勾配の差を表現できますが、実際のシナリオでは、異なる物理的意味を持つ 2 つのアイテムを別々に処理する必要があることが多いため、研究者は勾配の差のインパルス v_k を導入します。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

ここでは、勾配の力積とその差に対して異なる力積/平均係数を設定します。勾配差分項は、隣接する勾配に一貫性がない場合、オプティマイザの更新を遅くする可能性があり、逆に、勾配の方向が一貫している場合、更新を高速化することができます。

3) 分離された重み減衰

###

L2 重み正則化を使用した目的関数の場合、現在一般的な AdamW オプティマイザーは、L2 正則化とトレーニング損失を分離することで、ViT および ConvNext でのパフォーマンスの向上を達成しました。ただし、AdamW が使用するデカップリング手法はヒューリスティックに偏っており、現時点ではその収束の理論的な保証はありません。

L2 規則性を分離するという考えに基づいて、分離された重み減衰戦略も Adan に導入されています。現時点では、Adan の各反復は、最適化目標 F の一次近似を最小限に抑えていると見なすことができます。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

#L2 の重みにより、 F 正則化は非常に単純かつスムーズであるため、一次近似は必要ありません。したがって、トレーニング損失の一次近似のみを実行し、L2 重み正則化を無視できます。その場合、Adan の最後の反復は次のようになります。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

興味深いことに、学習率ηが 0 に近い場合、AdamW の更新基準は Adan 更新基準の一次近似であることがわかります。したがって、本来のヒューリスティックな改善ではなく、近位演算子の観点から、Adan または AdamW に合理的な説明を与えることができます。

4) Adan オプティマイザー

2) と 3) の 2 つの改善点を Adan の基本バージョンに組み合わせます。以下のAdanオプティマイザを取得できます。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

Adan は、適応オプティマイザー、Nesterov インパルス、および分離された重み減衰戦略の利点を組み合わせており、より大きな学習率とバッチ サイズに耐えることができ、モデルパラメータの動的L2正則化を実装します。

#5) 収束分析

##ここでは、複雑な数学的分析プロセスを省略し、結論のみを示します。

定理: ヘッセ行列の滑らかな条件が与えられる場合と与えられない場合のどちらの場合でも、Adan オプティマイザーの収束速度は、非凸確率的最適化問題ですでに達成されているレベルに達することができます。理論的な下限は既知であり、この結論は分離された重み減衰戦略でも依然として当てはまります。 #実験結果

1. CV シナリオ

1) 教師あり学習 — —ViT モデルViT モデルでは、研究者は ViT および Swin 構造で Adan のパフォーマンスをテストしました。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案たとえば、ViT-small、ViT-base、Swin-tiny、および Swin-base では、Adan は計算リソースの半分は SoTA オプティマイザーによって得られた結果に近く、同じ計算量の下では、Adan は両方の ViT モデルで大きな利点を示します。

さらに、Adan のパフォーマンスは大きなバッチ サイズでもテストされました。を参照してください。Adan はさまざまなバッチ サイズで適切にパフォーマンスを発揮し、大きなバッチ サイズ用に設計されたオプティマイザー (LAMB) よりも優れた利点もあります。

2) 教師あり学習 - CNN モデルViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

研究者らは、トレーニングがより困難な ViT モデルに加えて、従来の ResNet やより高度な ConvNext など、鋭い局所最小点が比較的少ない CNN モデルでも Adan のパフォーマンスをテストしました。結果は次のとおりです。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

ResNet であっても ConvNext であっても、Adan は約 2/3 以内に SoTA を超えるパフォーマンスを達成できることがわかります。トレーニングの時代の。

3) 教師なし学習

教師なしトレーニング フレームワークの下で、研究者は、 Adan は、提案されている最新の MAE でテストされました。結果は次のとおりです。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

教師あり学習の結論と一致して、Adan は元の SoTA と同等かそれを上回る計算量の半分しか消費しません。オプティマイザーであり、トレーニング エポックが小さいほど、Adan の利点がより明白になります。

#2. NLP シナリオ

1) 教師あり学習

NLP の教師あり学習タスクで、古典的な LSTM と高度な Transformer-XL での Adan のパフォーマンスを観察してください。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

#Adan は、上記の 2 つのネットワークで一貫した優位性を示しています。そして、Transformer-XL の場合、Adan はデフォルトの Adam オプティマイザーと同等のトレーニング ステップ数を半分にしました。

2) 教師なし学習

Adan の教師なし学習を NLP シナリオでテストするにはタスクのモデルトレーニングステータス。研究者らは BERT をゼロからトレーニングしました。1000,000 回の事前トレーニング反復の後、Adan でトレーニングされたモデルのパフォーマンスが GLUE データセットの 7 つのサブタスクでテストされ、結果は次のとおりでした。

#Adan は、テストした 7 つの単語と文の分類タスクすべてで大きな優位性を示しました。 Adan によってトレーニングされた BERT ベースのモデルの結果は、一部のサブタスク (RTE、CoLA、SST-2 など) については Adam によってトレーニングされた BERT-large モデルをも上回っていたことは言及する価値があります。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案

#3. RL シナリオ

研究者らは、RL で一般的に使用される PPO アルゴリズムのオプティマイザーを Adan に置き換え、4 ゲームで Adan の MuJoCo エンジンのパフォーマンスをテストしました。 4 つのゲームでは、Adan をネットワーク オプティマイザーとして使用する PPO アルゴリズムにより、常に高い報酬を得ることができます。

Adan は、RL ネットワーク トレーニングでも大きな可能性を示しています。

ViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案結論と展望

Adan オプティマイザーは、現在のディープ モデル オプティマイザーに新しいインパルス パラダイムを導入します。複雑なトレーニング パラダイムの下で、少ない更新でモデルの高速トレーニングを実現します。

実験により、

Adan はわずか 1/2 ~ 2/3 の計算量で既存の SoTA オプティマイザーと同等にできることがわかりました。

Adan は、複数のシナリオ (CV、NLP、RL を含む)、複数のトレーニング方法 (教師ありおよび自己教師あり)、および複数のネットワーク構造 (ViT、CNN、LSTM、Transformer など) で使用されます。 .)、すべてがパフォーマンスに大きな利点を示しています。さらに、Adan オプティマイザーの収束速度は、非凸確率的最適化の理論的下限に達しました。

以上がViTとMAEをトレーニングすると計算量が半分に! Seaと北京大学が共同で深層モデルに使用できる効率的なオプティマイザ「Adan」を提案の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! オープンソース!ゾーイデプスを超えて! DepthFM: 高速かつ正確な単眼深度推定! Apr 03, 2024 pm 12:04 PM

0.この記事は何をするのですか?私たちは、多用途かつ高速な最先端の生成単眼深度推定モデルである DepthFM を提案します。従来の深度推定タスクに加えて、DepthFM は深度修復などの下流タスクでも最先端の機能を実証します。 DepthFM は効率的で、いくつかの推論ステップ内で深度マップを合成できます。この作品について一緒に読みましょう〜 1. 論文情報タイトル: DepthFM: FastMonocularDepthEstimationwithFlowMatching 著者: MingGui、JohannesS.Fischer、UlrichPrestel、PingchuanMa、Dmytr

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました Apr 09, 2024 am 11:52 AM

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! May 06, 2024 pm 04:13 PM

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行​​い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Kuaishou バージョンの Sora「Ke Ling」がテスト用に公開されています。120 秒以上のビデオを生成し、物理学をより深く理解し、複雑な動きを正確にモデル化できます。 Jun 11, 2024 am 09:51 AM

何?ズートピアは国産AIによって実現するのか?ビデオとともに公開されたのは、「Keling」と呼ばれる新しい大規模な国産ビデオ生成モデルです。 Sora も同様の技術的ルートを使用し、自社開発の技術革新を多数組み合わせて、大きく合理的な動きをするだけでなく、物理世界の特性をシミュレートし、強力な概念的結合能力と想像力を備えたビデオを制作します。データによると、Keling は、最大 1080p の解像度で 30fps で最大 2 分の超長時間ビデオの生成をサポートし、複数のアスペクト比をサポートします。もう 1 つの重要な点は、Keling は研究所が公開したデモやビデオ結果のデモンストレーションではなく、ショートビデオ分野のリーダーである Kuaishou が立ち上げた製品レベルのアプリケーションであるということです。さらに、主な焦点は実用的であり、白紙小切手を書かず、リリースされたらすぐにオンラインに移行することです。Ke Ling の大型モデルは Kuaiying でリリースされました。

FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム Apr 26, 2024 am 11:37 AM

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

See all articles