ホームページ > テクノロジー周辺機器 > AI > 25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

WBOY
リリース: 2024-04-30 16:50:14
転載
972 人が閲覧しました

原題: NeRF-XL: Scaling NeRFs with Multiple GPUs

論文リンク: https://research.nvidia.com/labs/toronto-ai/nerfxl/assets/nerfxl.pdf

プロジェクトリンク: https:/ / /research.nvidia.com/labs/toronto-ai/nerfxl/

著者の所属: NVIDIA カリフォルニア大学バークレー校

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

論文のアイデア:

この論文は、原理である NeRF-XL を提案します。複数のグラフィックス プロセッシング ユニット (GPU) にニューラル レイ フィールド (NeRF) を分散する方法。これにより、任意の大きな容量で NeRF のトレーニングとレンダリングが可能になります。この論文ではまず、大規模なシーンを複数の独立してトレーニングされた NeRF に分解するいくつかの既存の GPU 手法 [9、15、17] をレビューし、トレーニングに追加のコンピューティング リソース (GPU) を使用すると再構成の改善が妨げられる、これらの手法に関するいくつかの基本的な問題を特定します。品質。 NeRF-XL はこれらの問題を解決し、より多くのハードウェアを使用するだけで、任意の数のパラメータを持つ NeRF をトレーニングおよびレンダリングできるようにします。私たちのアプローチの中核は、新しい分散トレーニングとレンダリングの定式化です。これは数学的には古典的な単一 GPU の場合と同等であり、GPU 間の通信を最小限に抑えます。任意の多数のパラメータで NeRF のロックを解除することにより、私たちの方法は NeRF の GPU スケーリング則を初めて明らかにし、パラメータの数が増加するにつれて再構成品質が向上し、使用される GPU の増加に伴って速度が向上することを示しています。この論文は、約 258K の画像を含み、25 平方キロメートルの市街地をカバーする MatrixCity [5] を含む、さまざまなデータセットに対する NeRF-XL の有効性を実証します。

紙のデザイン:

新しい視点合成の最近の進歩により、神経放射場 (NeRF) を捕捉する能力が大幅に向上し、プロセスがよりアクセスしやすくなりました。これらの進歩により、より大きなシーンとその中のより細かいディテールを再構築できるようになります。空間スケールを拡大する (例: 数キロにわたる都市景観をキャプチャする) か、詳細レベルを高める (例: 野原の草の葉をスキャンする) かにかかわらず、キャプチャされたシーンの範囲を広げるには、より多くの情報を NeRF に組み込む必要があります。正確な再構成を実現します。したがって、情報が豊富なシーンの場合、再構築に必要なトレーニング可能なパラメーターの数が 1 つの GPU のメモリ容量を超える可能性があります。

この論文では、複数の GPU 全体にニューラル放射状シーン (NeRF) を効率的に分散するための原則に基づいたアルゴリズムである NeRF-XL を提案します。本記事の手法を利用すれば、ハードウェアリソースを増やすだけで、情報量の多いシーン(大規模かつ高精細なシーンを含む)を撮影できるようになります。 NeRF-XL の中核は、一連の互いに素な空間領域に NeRF パラメータを割り当て、それらを GPU 全体で共同トレーニングすることです。逆方向伝播で勾配を同期する従来の分散トレーニング プロセスとは異なり、私たちの方法では順方向伝播で情報を同期するだけで済みます。さらに、分散設定で方程式と関連する損失項を注意深くレンダリングすることで、GPU 間で必要なデータ転送を大幅に削減します。この斬新な書き換えにより、トレーニングとレンダリングの効率が向上します。この方法の柔軟性とスケーラビリティにより、この記事では複数の GPU を効率的に最適化し、複数の GPU を使用して効率的なパフォーマンスの最適化を行うことができます。

私たちの研究は、独立した立体視 NeRF のセットをトレーニングすることで大規模なシーンをモデル化する GPU アルゴリズムを採用した最近のアプローチとは対照的です [9、15、17]。これらの方法では GPU 間の通信は必要ありませんが、各 NeRF は背景領域を含む空間全体をモデル化する必要があります。これにより、GPU の数が増加するにつれて、モデル容量の冗長性が高まります。さらに、これらの方法ではレンダリング時に NeRF をブレンドする必要があるため、視覚的な品質が低下し、重複領域にアーティファクトが生じます。したがって、NeRF-XL とは異なり、これらの方法はトレーニングでより多くのモデル パラメーター (より多くの GPU に相当) を使用し、視覚的な品質の向上を達成できません。

この論文では、街頭スキャン、ドローン上空飛行、物体中心のビデオなど、さまざまな撮影ケースを通じて私たちのアプローチの有効性を実証しています。ケースの範囲は、小規模なシーン (10 平方メートル) から都市全体 (25 平方キロメートル) まで多岐にわたります。私たちの実験では、より多くのコンピューティング リソースを最適化プロセスに割り当てると、NeRF-XL のビジュアル品質 (PSNR で測定) とレンダリング速度が向上し始めることがわかりました。したがって、NeRF-XL を使用すると、あらゆる空間スケールと詳細のシーンで任意の容量で NeRF をトレーニングすることが可能になります。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 1: この記事の原理ベースのマルチ GPU 分散トレーニング アルゴリズムは、NeRF を任意の大規模なスケールに拡張できます。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 2: 独立したトレーニングとマルチ GPU の共同トレーニング。複数の NeRF [9、15、18] を個別にトレーニングするには、各 NeRF が焦点領域とその周囲環境の両方をモデル化する必要があり、これがモデル容量の冗長性につながります。対照的に、私たちの共同トレーニング方法は重複しない NeRF を使用するため、冗長性がありません。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 3: 独立したトレーニングでは、新しい視点を統合するときにブレンディングが必要です。ブレンディングが 2D [9、15] で実行されるか、3D [18] で実行されるかにかかわらず、レンダリングにブラーが導入されます。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 4: 独立したトレーニングにより、さまざまなカメラの最適化が行われます。 NeRF では、不正確なカメラ自体、または他のすべてのカメラ、および基礎となる 3D シーンを変換することでカメラの最適化を実現できます。したがって、カメラの最適化とともに複数の NeRF を個別にトレーニングすると、カメラの補正とシーンのジオメトリに不一致が生じる可能性があり、ハイブリッド レンダリングにさらなる困難をもたらします。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 5: 3D ブレンドによって発生する可能性のある視覚的なアーティファクト。左側の画像は、2 つの GPU を使用してトレーニングされた MegaNeRF の結果を示しています。 0% オーバーラップでは、独立したトレーニングにより境界にアーティファクトが表示されますが、15% オーバーラップでは、3D ブレンディングにより重大なアーティファクトが表示されます。右側の画像は、このアーティファクトの原因を示しています。独立してトレーニングされた各 NeRF は正しい色をレンダリングしますが、ブレンドされた NeRF は正しい色レンダリングを保証しません。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 6: この記事のトレーニング プロセス。私たちの方法では、すべての GPU 上で複数の NeRF を共同でトレーニングし、各 NeRF が互いに素な空間領域をカバーします。 GPU 間の通信は前方パスでのみ発生し、後方パスでは発生しません (灰色の矢印で示されている)。 (a) この論文は、各 NeRF を評価してサンプルの色と濃度を取得し、これらの値を他のすべての GPU にブロードキャストしてグローバル ボリューム レンダリングを行うことで実装できます (セクション 4.2 を参照)。 (b) ボリューム レンダリング方程式を書き直すことにより、この論文はデータ送信量をレイごとに 1 つの値に大幅に削減し、効率を向上させることができます (セクション 4.3 を参照)。

実験結果:

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 7: 定性的比較。以前の研究と比較して、私たちの方法はマルチ GPU 構成を効果的に活用し、あらゆる種類のデータのパフォーマンスを向上させます。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 8: 定量的な比較。独立したトレーニングに基づいた以前の研究では、追加の GPU を追加してもパフォーマンスの向上を達成できませんでしたが、私たちの方法ではトレーニング リソースが増加するにつれてレンダリングの品質と速度が向上しました。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 9: この記事のメソッドのスケーラビリティ。 GPU の数が増えると、より多くの学習可能なパラメーターが可能になり、その結果、モデルの容量が増加し、品質が向上します。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 10: 大規模キャプチャでのその他のレンダリング結果。このペーパーでは、より多くの GPU を使用して、より大規模にキャプチャされたデータ セットに対するメソッドの堅牢性をテストします。これらのデータのビデオ ツアーについては、この記事の Web ページを参照してください。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 11: University4 データセット上の PyTorch DDP との比較。 PyTorch Distributed Data Parallel (DDP) は、GPU 全体に光を分散することでレンダリングを高速化するように設計されています。対照的に、私たちの方法は GPU 全体にパラメータを分散し、クラスター内の単一 GPU のメモリ制限を突破し、モデルの容量を拡張して品質を向上させることができます。

25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!

図 12: University4 の同期コスト。パーティションベースのボリューム レンダリング (セクション 4.3 を参照) では、元のサンプルベースの通信 (セクション 4.2 を参照) よりもはるかに安価なタイルベースの通信が可能になるため、より高速なレンダリングが可能になります。

概要:

要約すると、この論文は、大規模なシーンを独立してトレーニングされた NeRF (神経放射場) に分解する既存の方法を再検討し、追加のコンピューティング リソース (GPU) の問題の効果的な利用を妨げる重大な障壁を発見します。これは、マルチ GPU セットアップを活用して大規模な NeRF パフォーマンスを向上させるという中心的な目標に矛盾します。したがって、このホワイト ペーパーでは、マルチ GPU セットアップを効率的に活用し、重複しない複数の NeRF を共同トレーニングすることで、あらゆる規模で NeRF のパフォーマンスを向上できる原則に基づいたアルゴリズムである NeRF-XL を紹介します。重要なのは、私たちの方法はヒューリスティック ルールに依存せず、マルチ GPU 設定で NeRF のスケーリング則に従い、さまざまな種類のデータに適用できることです。

引用:

りー

以上が25平方キロメートルという史上最大規模の再建! NeRF-XL:マルチカード合同トレーニングが実に効果的!の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

関連ラベル:
ソース:51cto.com
このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
最新の問題
人気のチュートリアル
詳細>
最新のダウンロード
詳細>
ウェブエフェクト
公式サイト
サイト素材
フロントエンドテンプレート