目次
ControlNet が ICCV で最優秀論文を受賞しました
ホームページ テクノロジー周辺機器 AI ICCV'23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

ICCV'23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

Oct 04, 2023 pm 08:37 PM
モデル

フランスのパリで開催されたコンピュータービジョンのトップカンファレンス「ICCV 2023」が閉幕しました。

今年の論文賞はまさに「神と神の戦い」です。

たとえば、最優秀論文賞を受賞した 2 つの論文には、ヴィンセント グラフ AI-ControlNet の分野を覆した研究が含まれています。

ControlNet はオープンソースになって以来、GitHub で 24,000 個のスターを獲得しています。拡散モデルに関するものであろうと、コンピュータ ビジョンの分野全体に関するものであろうと、この論文の賞は当然のことです

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

そして、最優秀論文賞の佳作は Gave に授与されます。もう 1 つの同様に有名な論文、Meta の "Split Everything" モデル SAM。

「Segment Everything」は、発売以来、FastSAM、LISA、SegGPT などの多くの後発モデルを含む、さまざまな画像セグメンテーション AI モデルの「ベンチマーク」となっており、そのすべてが有効性の参照ベンチマークとして使用しています。テスト中です。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

論文のノミネートはどれも非常に強力ですが、この ICCV 2023 の競争はどれくらい熾烈ですか?

ICCV 2023 には合計 8,068 件の論文が投稿されましたが、採択されたのは約 4 分の 1、つまり 2,160 件の論文のみでした。

論文の 10% 近くが中国からのもので、大学以外にも、SenseTime や Joint Laboratories などの産業機関が 49 件の論文を ICCV 2023 に選出し、Megvii は 14 件の論文を選出しています。

ICCV 2023 賞を受賞した論文を見てみましょう

ControlNet が ICCV で最優秀論文を受賞しました

まず、今年の最優秀論文賞を見てみましょう(3 月

マー賞

(マー賞) としても知られる ICCV 最優秀論文の 2 つの論文は、2 年ごとに選出され、最優秀論文として知られています。コンピュータ ビジョンの分野で最高の栄誉の 1 つ。

この賞は、コンピューター ビジョン分野の先駆者であり、計算神経科学の創始者であるデイビッド マーにちなんで名付けられました。

最初の最優秀論文賞の受賞者は、スタンフォード大学の「Modeling Text to Image Diffusion」です。条件付き制御の追加》

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

##この論文では、

ControlNet というモデルを提案します。これは、事前トレーニングされた拡散モデルに追加の入力を追加するだけで済みます。その生成の詳細を制御できます。

ここでの入力には、スケッチ、エッジ画像、セマンティック セグメンテーション画像、人体のキー ポイントの特徴、ハフ変換検出直線、深度マップ、人骨など、さまざまな種類があります。いわゆる「 AI は手を描くことができます」、コア技術はこの記事から来ています。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

その考え方とアーキテクチャは次のとおりです。

制御ネットワークは、最初に拡散モデルの重みをコピーして、「トレーニング可能なコピー」を取得します。

対照的に、元の拡散モデルは数十億の画像で事前トレーニングされているため、パラメーターは「ロック」されています。そして、この「トレーニング可能なコピー」は、条件付き制御を学習するために、特定のタスクの小さなデータセットでトレーニングするだけで済みます。

データ量が非常に少ない場合 (画像が 50,000 枚以下)、トレーニング後にモデルによって生成される条件付き制御は非常に優れています。

1×1 畳み込み層によって接続され、「ロックされたモデル」と「トレーニング可能なコピー」は「0 畳み込み層」と呼ばれる構造を形成します。この 0 畳み込み層の重みとバイアスは 0 に初期化されるため、トレーニング プロセス中に拡散モデルの微調整の速度に近い非常に高速な速度を得ることができ、個人用デバイスでもトレーニングすることができます

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

たとえば、200,000 の画像データを使用して Nvidia RTX 3090TI をトレーニングする場合、所要時間はわずか 1 週間未満です。

Zhang Lumin が筆頭著者です。 ControlNet 論文の著者であり、現在はスタンフォード大学の博士課程の学生です。 ControlNet に加えて、彼は Style2Paints や Fooocus などの有名な作品も作成しました。

論文アドレス: https://arxiv.org/abs/2302.05543

2 番目の論文「トロント大学の「パッシブ超広帯域単一光子イメージング」。

この論文は選考委員会によって「このテーマに関して最も驚くべき論文」と呼ばれ、審査員の一人が「彼がそのようなことを試みようと考えるのはほとんど不可能だった」と述べたほどです。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

この論文の要約は次のとおりです:

この論文では、動的なシーンを極端な時間スケール (秒からピコ秒​​まで) で同時に画像化する方法について説明します。受動的(大量の光信号を積極的に送信することなく)であり、非常にまばらな光の状況で発生し、光源からのタイミング信号に依存しません。

単一光子カメラ用の既存のオプティカル フロー推定技術はこの範囲では機能しないため、この論文では、確率微積分のアイデアに基づいてピクセルの時変オプティカル フローを再構築するオプティカル フロー検出理論を開発します。光子検出タイムスタンプのストリーム内。

この理論に基づいて、この論文は主に次の 3 つのことを行っています。
(1) 低オプティカル フロー条件下では、パッシブ自走単一光​​子波長検出器カメラが達成可能な周波数帯域幅、スパニング特性を持っていることを示します。 DC から 31 GHz までのスペクトル全体;
(2) 統計的に有意なサポートを備えた周波数のタイムスタンプ データをスキャンするための新しいフーリエ ドメイン オプティカル フロー再構成アルゴリズムを導き出します;
( 3) アルゴリズムのノイズ モデルがたとえ非常に低いフォトン数または無視できないデッドタイムの​​場合。

著者らは、いくつかの前例のない機能を含む、この非同期イメージング手法の可能性を実験的に実証しました。
(1) 同期がない場合 (電球、プロジェクター、マルチパルス レーザーなど) 、異なる速度で動作する光源によって同時に照らされる画像シーン;
(2) パッシブ非視線ビデオ収集;
(3) 超広帯域ビデオを録画、30 Hz で再生可能日常の動きを示すだけでなく、10 億分の 1 秒で再生して光がどのように伝わるかを示すこともできます。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

この論文の最初の著者である Mian Wei は、トロント大学の博士課程の学生です。彼の研究方向はコンピュテーショナル フォトグラフィーです。現在の研究関心は、コンピュータの改善にあります。アクティブイルミネーションイメージング技術に基づくビジョンアルゴリズム。

論文を表示するには、次のリンクをクリックしてください: https://openaccess.thecvf.com/content/ICCV2023/papers/Wei_Passive_Ultra-wideband_Single-Photon_Imaging_ICCV_2023_paper.pdf

# #「Segmentation Everything」が佳作を受賞

今回のカンファレンスでは、注目を集めたControNetに加え、Metaの「Split Everything」モデルもBest Paper Awardの佳作を受賞し、期待の高い論文となりました。トピック

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

#この論文では、1,100 万の画像に 10 億を超えるマスクを含む現在最大の画像セグメンテーション データ セットを提案するだけでなく、SAM モデルも提案します。目に見えない画像を素早くセグメント化できるように訓練されました。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

SAM は、これまでの断片化された画像セグメンテーション モデルと比較して、このシリーズのモデルの機能が「統合」されていると言え、さまざまなタスクに有効です。パフォーマンス。

このオープンソース モデルは現在 GitHub で 38.8k スターを獲得しており、セマンティック セグメンテーションの分野における「ベンチマーク」であると言えます

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

論文アドレス: https://arxiv.org/abs/2304.02643
プロジェクトのホームページ: https://segment-anything.com/

学生内Google の「Track Everything」モデルは機能します。

記事のタイトルのように、このモデルは、画像内の任意の場所にある任意の

(複数) オブジェクトのピクセル レベルの追跡を実行できます。同時に。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

このプロジェクトの筆頭著者は、コーネル大学の中国人博士、Qianqian Wang で、現在 UCB で博士研究員として研究を行っています。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

論文アドレス: https://arxiv.org/abs/2306.05422
プロジェクトのホームページ: https://omnimotion. github.io/

開会式では、PAMITC 委員会のメンバーから寄付された特別賞も発表され、委員会は 2 つのコンピュータ ビジョン分野の会議 (CVPR および WACV) に賞を寄付しました。内部:

ヘルムホルツ賞: 10 年前にコンピュータ ビジョン研究に大きな影響を与えた ICCV 論文
  • エバリンガム賞: コンピュータ ビジョン分野の進歩
  • 優秀研究者: コンピュータ ビジョンの進歩に多大な貢献をした研究者
  • ローゼンフェルド生涯功労賞: 長いキャリアにわたってコンピュータ ビジョンの分野に多大な貢献をした研究者

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありましたヘルムホルツ賞を受賞した科学者は、Meta AI のメンバーである中国の科学者ヘン ワンと Google のコーデリア シュミットです。

彼らは、2013 年に発表された行動に関する記事に基づいています。特定された論文がこの賞を受賞しました。

当時、二人はフランス国立コンピューティング・オートメーション研究所(フランス語略称:INRIA)のリア研究室に所属しており、シュミットは当時の研究室のリーダーでした。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

論文を表示するには、次のリンクをクリックしてください: https://ieeexplore.ieee.org/document/6751553

エヴァリンガム賞が授与されました 2 つのチームに授与されました

最初のグループの勝者は、Google の Samer Agarwal、Keir Mierle とそのチームです

2 人の受賞者は、ワシントン大学とワシントン大学を卒業しましたその成果は、コンピュータ ビジョンの分野で広く使用されているオープン ソースの C ライブラリ Ceres Solver

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

を開発することです。プロジェクトのホームページのリンク: http ://ceres-solver.org /

もう 1 つの受賞結果は、COCO データ セットです。これには、多数の画像と注釈が含まれ、豊富なコンテンツとタスクがあり、重要なデータです。コンピューター ビジョン モデルをテストするために設定されています。

このデータ セットは Microsoft によって提案されました。関連論文の筆頭著者は中国人科学者 Tsung-Yi Lin です。彼はコーネル大学で博士号を取得し卒業し、現在は NVIDIA Labs で研究者として働いています。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました
ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありました

論文アドレス: https://arxiv.org/abs/1405.0312

プロジェクトのホームページ: https://cocodataset.org/
優秀研究者の栄誉を受賞したのは、ドイツのマックス・プランク研究所のマイケル・ブラック教授とジョンズ・ホプキンス大学のラマ・チェラッパ教授の2名です。

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありましたMIT のテッド アデルソン教授が生涯功績賞を受賞しました

ICCV23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありましたあなたの論文は ICCV 2023 に受理されましたか? まだですか?今年の賞の選考についてどう思いますか?

以上がICCV'23論文賞「Fighting of Gods」! Meta Divide Everything と ControlNet が共同で選ばれました、審査員を驚かせた記事がもう 1 つありましたの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです 世界で最も強力なオープンソース MoE モデルが登場。GPT-4 に匹敵する中国語機能を備え、価格は GPT-4-Turbo のわずか 1% 近くです May 07, 2024 pm 04:13 PM

従来のコンピューティングを超える能力を備えているだけでなく、より低コストでより効率的なパフォーマンスを実現する人工知能モデルを想像してみてください。これは SF ではありません。世界で最も強力なオープンソース MoE モデルである DeepSeek-V2[1] が登場しました。 DeepSeek-V2 は、経済的なトレーニングと効率的な推論の特徴を備えた強力な専門家混合 (MoE) 言語モデルです。これは 236B のパラメータで構成されており、そのうち 21B は各マーカーをアクティブにするために使用されます。 DeepSeek67B と比較して、DeepSeek-V2 はパフォーマンスが優れていると同時に、トレーニング コストを 42.5% 節約し、KV キャッシュを 93.3% 削減し、最大生成スループットを 5.76 倍に高めます。 DeepSeek は一般的な人工知能を研究する会社です

AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました AI が数学研究を破壊する!フィールズ賞受賞者で中国系アメリカ人の数学者が上位 11 件の論文を主導 | テレンス・タオが「いいね!」しました Apr 09, 2024 am 11:52 AM

AI は確かに数学を変えつつあります。最近、この問題に細心の注意を払っている陶哲軒氏が『米国数学協会会報』(米国数学協会会報)の最新号を送ってくれた。 「機械は数学を変えるのか?」というテーマを中心に、多くの数学者が意見を述べ、そのプロセス全体は火花に満ち、ハードコアで刺激的でした。著者には、フィールズ賞受賞者のアクシャイ・ベンカテシュ氏、中国の数学者鄭楽軍氏、ニューヨーク大学のコンピューター科学者アーネスト・デイビス氏、その他業界で著名な学者を含む強力な顔ぶれが揃っている。 AI の世界は劇的に変化しています。これらの記事の多くは 1 年前に投稿されたものです。

こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 こんにちは、電気アトラスです!ボストン・ダイナミクスのロボットが復活、180度の奇妙な動きにマスク氏も恐怖 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas は正式に電動ロボットの時代に突入します!昨日、油圧式アトラスが歴史の舞台から「涙ながらに」撤退したばかりですが、今日、ボストン・ダイナミクスは電動式アトラスが稼働することを発表しました。ボストン・ダイナミクス社は商用人型ロボットの分野でテスラ社と競争する決意を持っているようだ。新しいビデオが公開されてから、わずか 10 時間ですでに 100 万人以上が視聴しました。古い人が去り、新しい役割が現れるのは歴史的な必然です。今年が人型ロボットの爆発的な年であることは間違いありません。ネットユーザーは「ロボットの進歩により、今年の開会式は人間のように見え、人間よりもはるかに自由度が高い。しかし、これは本当にホラー映画ではないのか?」とコメントした。ビデオの冒頭では、アトラスは仰向けに見えるように地面に静かに横たわっています。次に続くのは驚くべきことです

MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました MLP に代わる KAN は、オープンソース プロジェクトによって畳み込みまで拡張されました Jun 01, 2024 pm 10:03 PM

今月初め、MIT やその他の機関の研究者らは、MLP に代わる非常に有望な代替案である KAN を提案しました。 KAN は、精度と解釈可能性の点で MLP よりも優れています。また、非常に少数のパラメーターを使用して、多数のパラメーターを使用して実行する MLP よりも優れたパフォーマンスを発揮できます。たとえば、著者らは、KAN を使用して、より小規模なネットワークと高度な自動化で DeepMind の結果を再現したと述べています。具体的には、DeepMind の MLP には約 300,000 個のパラメーターがありますが、KAN には約 200 個のパラメーターしかありません。 KAN は、MLP が普遍近似定理に基づいているのに対し、KAN はコルモゴロフ-アーノルド表現定理に基づいているのと同様に、強力な数学的基礎を持っています。以下の図に示すように、KAN は

Google は大喜び: JAX のパフォーマンスが Pytorch や TensorFlow を上回りました! GPU 推論トレーニングの最速の選択肢となる可能性があります Google は大喜び: JAX のパフォーマンスが Pytorch や TensorFlow を上回りました! GPU 推論トレーニングの最速の選択肢となる可能性があります Apr 01, 2024 pm 07:46 PM

Google が推進する JAX のパフォーマンスは、最近のベンチマーク テストで Pytorch や TensorFlow のパフォーマンスを上回り、7 つの指標で 1 位にランクされました。また、テストは最高の JAX パフォーマンスを備えた TPU では行われませんでした。ただし、開発者の間では、依然として Tensorflow よりも Pytorch の方が人気があります。しかし、将来的には、おそらくより大規模なモデルが JAX プラットフォームに基づいてトレーニングされ、実行されるようになるでしょう。モデル 最近、Keras チームは、ネイティブ PyTorch 実装を使用して 3 つのバックエンド (TensorFlow、JAX、PyTorch) をベンチマークし、TensorFlow を使用して Keras2 をベンチマークしました。まず、主流のセットを選択します

テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! テスラのロボットは工場で働く、マスク氏:手の自由度は今年22に達する! May 06, 2024 pm 04:13 PM

テスラのロボット「オプティマス」の最新映像が公開され、すでに工場内で稼働可能となっている。通常の速度では、バッテリー(テスラの4680バッテリー)を次のように分類します:公式は、20倍の速度でどのように見えるかも公開しました - 小さな「ワークステーション」上で、ピッキング、ピッキング、ピッキング:今回は、それがリリースされたハイライトの1つビデオの内容は、オプティマスが工場内でこの作業を完全に自律的に行​​い、プロセス全体を通じて人間の介入なしに完了するというものです。そして、オプティマスの観点から見ると、自動エラー修正に重点を置いて、曲がったバッテリーを拾い上げたり配置したりすることもできます。オプティマスのハンドについては、NVIDIA の科学者ジム ファン氏が高く評価しました。オプティマスのハンドは、世界の 5 本指ロボットの 1 つです。最も器用。その手は触覚だけではありません

FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム FisheyeDetNet: 魚眼カメラに基づいた最初のターゲット検出アルゴリズム Apr 26, 2024 am 11:37 AM

目標検出は自動運転システムにおいて比較的成熟した問題であり、その中でも歩行者検出は最も初期に導入されたアルゴリズムの 1 つです。ほとんどの論文では非常に包括的な研究が行われています。ただし、サラウンドビューに魚眼カメラを使用した距離認識については、あまり研究されていません。放射状の歪みが大きいため、標準のバウンディング ボックス表現を魚眼カメラに実装するのは困難です。上記の説明を軽減するために、拡張バウンディング ボックス、楕円、および一般的な多角形の設計を極/角度表現に探索し、これらの表現を分析するためのインスタンス セグメンテーション mIOU メトリックを定義します。提案された多角形モデルの FisheyeDetNet は、他のモデルよりも優れたパフォーマンスを示し、同時に自動運転用の Valeo 魚眼カメラ データセットで 49.5% の mAP を達成しました。

DualBEV: BEVFormer および BEVDet4D を大幅に上回る、本を開いてください! DualBEV: BEVFormer および BEVDet4D を大幅に上回る、本を開いてください! Mar 21, 2024 pm 05:21 PM

この論文では、自動運転においてさまざまな視野角 (遠近法や鳥瞰図など) から物体を正確に検出するという問題、特に、特徴を遠近法 (PV) 空間から鳥瞰図 (BEV) 空間に効果的に変換する方法について検討します。 Visual Transformation (VT) モジュールを介して実装されます。既存の手法は、2D から 3D への変換と 3D から 2D への変換という 2 つの戦略に大別されます。 2D から 3D への手法は、深さの確率を予測することで高密度の 2D フィーチャを改善しますが、特に遠方の領域では、深さ予測に固有の不確実性により不正確さが生じる可能性があります。 3D から 2D への方法では通常、3D クエリを使用して 2D フィーチャをサンプリングし、Transformer を通じて 3D と 2D フィーチャ間の対応のアテンション ウェイトを学習します。これにより、計算時間と展開時間が増加します。

See all articles