自動運転の LIDAR と視覚融合認識を理解するための 1 つの記事
2022年は知能運転のL2からL3/L4への移行期であり、より高度な知能運転の量産化を進める自動車メーカーが増え、自動車知能化の時代が静かに到来しています。
LiDAR ハードウェアの技術向上、自動車グレードの量産化とコスト削減、高度なインテリジェント運転機能により、乗用車分野での LiDAR の量産化が促進されています。今年は数多くの LiDAR 搭載モデルが納入される予定であり、2022 年は「路上 LIDAR 元年」としても知られています。
01 Lidar センサーと画像センサー
Lidar は、物体の 3 次元位置を正確に取得するために使用されるセンサーです。レーザー検出と測距。目標の輪郭測定と汎用障害物検出における優れた性能により、L4自動運転の中核構成となりつつあります。
ただし、LIDAR の測距範囲 (通常は約 200 メートル、各メーカーの量産モデルではインジケーターが異なります) の知覚範囲は、ライダーの認識範囲よりもはるかに小さくなります。イメージセンサー。
また、角度分解能 (通常 0.1° または 0.2°) が比較的小さいため、点群の分解能はイメージ センサーの分解能よりもはるかに小さくなります。画像上の点が非常にまばらであるため、画像化することさえできない場合があります。点群ターゲット検出の場合、アルゴリズムが実際に使用できる有効点群距離はわずか約 100 メートルです。
画像センサーは、高フレーム レートと高解像度で複雑な周囲情報を取得でき、安価です。異なる FOV と解像度を持つ複数のセンサーを、異なる距離と範囲に配置できます。解像度は 2K ~ 4K に達します。
しかし、イメージ センサーはパッシブ センサーであり、奥行き認識が不十分で測距精度が低いため、特に過酷な環境ではセンシング作業の難易度が大幅に高まります。
強い光、夜間の低照度、雨、雪、霧、その他の天候や光環境に直面して、インテリジェントな運転にはセンサー アルゴリズムに対する高い要件が求められます。 LIDAR は周囲光の影響を受けませんが、距離測定は浸水した道路やガラスの壁などの影響を大きく受けます。
LIDAR とイメージ センサーにはそれぞれ独自の長所と短所があることがわかります。ほとんどの高レベルのスマート運転乗用車は、互いの利点を補完し、冗長性を統合するために、さまざまなセンサーを統合することを選択します。
このような融合センシングソリューションは、高度な自動運転のキーテクノロジーの1つでもあります。
02 深層学習に基づく点群と画像の融合知覚
点群と画像の融合は、MSF のマルチセンサー フュージョンに属します。 ) 技術分野では、従来のランダム手法と深層学習手法があり、融合システムにおける情報処理の抽象化レベルに応じて主に 3 つのレベルに分けられます。 ##データ層融合 (Early Fusion)
センサー観測データを融合し、融合したデータから特徴を抽出して識別します。 3D ターゲット検出では、PointPainting (CVPR20) がこのメソッドを採用しています。PointPainting メソッドは、最初に画像上でセマンティック セグメンテーションを実行し、ポイントから画像へのピクセル マトリックスを介してセグメント化された特徴を点群にマッピングし、次に「ポイントを描画」します。点群は 3D 点群検出器に送信され、ターゲット ボックスで回帰が実行されます。
フィーチャー レイヤー フュージョン (ディープ フュージョン)
まず、各センサーから得られる観測データから自然データの特徴を抽出し、それらの特徴を融合して識別します。深層学習に基づく融合手法では、点群と画像ブランチの両方に特徴抽出器を使用し、画像ブランチと点群ブランチのネットワークを順方向フィードバックレベルでレベルごとに意味的に融合することで多次元の融合を実現します。スケール情報、セマンティック融合。 ディープラーニングに基づく特徴層融合手法は、複数のセンサー間の時空間同期に高い要求があり、一度同期がうまくいかないと、特徴融合の効果に直接影響を及ぼします。同時に、スケールや視野角の違いにより、LiDAR と画像の機能融合で 1 1>2 の効果を達成することは困難です。
#意思決定層融合 (Late Fusion)
## 最初の 2 つと比較すると、これは最も単純な融合方法です。データ層やフィーチャ層で融合するのではなく、ターゲットレベルで融合するため、異なるセンサー ネットワーク構造は相互に影響せず、個別にトレーニングして組み合わせることができます。
意思決定層で融合された 2 種類のセンサーと検出器は互いに独立しているため、センサーが故障した場合でもセンサーの冗長処理を実行でき、エンジニアリングの堅牢性が向上します。優れている。
LIDAR と視覚融合認識テクノロジーの継続的な反復と、ナレッジ シナリオと事例の継続的な蓄積により、自動運転のより安全で信頼性の高い未来をもたらすために、フルスタックのコンバージド コンピューティング ソリューションがますます登場しています。
以上が自動運転の LIDAR と視覚融合認識を理解するための 1 つの記事の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

メモ帳++7.3.1
使いやすく無料のコードエディター

SublimeText3 中国語版
中国語版、とても使いやすい

ゼンドスタジオ 13.0.1
強力な PHP 統合開発環境

ドリームウィーバー CS6
ビジュアル Web 開発ツール

SublimeText3 Mac版
神レベルのコード編集ソフト(SublimeText3)

ホットトピック









上記と著者の個人的な理解 3 次元ガウシアンプラッティング (3DGS) は、近年、明示的な放射線フィールドとコンピューター グラフィックスの分野で出現した革新的なテクノロジーです。この革新的な方法は、数百万の 3D ガウスを使用することを特徴とし、主に暗黙的な座標ベースのモデルを使用して空間座標をピクセル値にマッピングする神経放射線場 (NeRF) 方法とは大きく異なります。明示的なシーン表現と微分可能なレンダリング アルゴリズムにより、3DGS はリアルタイム レンダリング機能を保証するだけでなく、前例のないレベルの制御とシーン編集も導入します。これにより、3DGS は、次世代の 3D 再構築と表現にとって大きな変革をもたらす可能性のあるものとして位置付けられます。この目的を達成するために、私たちは 3DGS 分野における最新の開発と懸念について初めて体系的な概要を提供します。

昨日の面接で、ロングテール関連の質問をしたかと聞かれたので、簡単にまとめてみようと思いました。自動運転のロングテール問題とは、自動運転車におけるエッジケース、つまり発生確率が低い考えられるシナリオを指します。認識されているロングテール問題は、現在、単一車両のインテリジェント自動運転車の運用設計領域を制限している主な理由の 1 つです。自動運転の基礎となるアーキテクチャとほとんどの技術的問題は解決されており、残りの 5% のロングテール問題が徐々に自動運転の開発を制限する鍵となってきています。これらの問題には、さまざまな断片的なシナリオ、極端な状況、予測不可能な人間の行動が含まれます。自動運転におけるエッジ シナリオの「ロング テール」とは、自動運転車 (AV) におけるエッジ ケースを指します。エッジ ケースは、発生確率が低い可能性のあるシナリオです。これらの珍しい出来事

0.前面に書かれています&& 自動運転システムは、さまざまなセンサー (カメラ、ライダー、レーダーなど) を使用して周囲の環境を認識し、アルゴリズムとモデルを使用することにより、高度な知覚、意思決定、および制御テクノロジーに依存しているという個人的な理解リアルタイムの分析と意思決定に。これにより、車両は道路標識の認識、他の車両の検出と追跡、歩行者の行動の予測などを行うことで、安全な運行と複雑な交通環境への適応が可能となり、現在広く注目を集めており、将来の交通分野における重要な開発分野と考えられています。 。 1つ。しかし、自動運転を難しくしているのは、周囲で何が起こっているかを車に理解させる方法を見つけることです。これには、自動運転システムの 3 次元物体検出アルゴリズムが、周囲環境にある物体 (位置を含む) を正確に認識し、記述することができる必要があります。

StableDiffusion3 の論文がついに登場しました!このモデルは2週間前にリリースされ、Soraと同じDiT(DiffusionTransformer)アーキテクチャを採用しており、リリースされると大きな話題を呼びました。前バージョンと比較して、StableDiffusion3で生成される画像の品質が大幅に向上し、マルチテーマプロンプトに対応したほか、テキスト書き込み効果も向上し、文字化けが発生しなくなりました。 StabilityAI は、StableDiffusion3 はパラメータ サイズが 800M から 8B までの一連のモデルであると指摘しました。このパラメーター範囲は、モデルを多くのポータブル デバイス上で直接実行できることを意味し、AI の使用を大幅に削減します。

自動運転では軌道予測が重要な役割を果たしており、自動運転軌道予測とは、車両の走行過程におけるさまざまなデータを分析し、将来の車両の走行軌跡を予測することを指します。自動運転のコアモジュールとして、軌道予測の品質は下流の計画制御にとって非常に重要です。軌道予測タスクには豊富な技術スタックがあり、自動運転の動的/静的知覚、高精度地図、車線境界線、ニューラル ネットワーク アーキテクチャ (CNN&GNN&Transformer) スキルなどに精通している必要があります。始めるのは非常に困難です。多くのファンは、できるだけ早く軌道予測を始めて、落とし穴を避けたいと考えています。今日は、軌道予測に関するよくある問題と入門的な学習方法を取り上げます。関連知識の紹介 1. プレビュー用紙は整っていますか? A: まずアンケートを見てください。

原題: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 論文リンク: https://arxiv.org/pdf/2402.02519.pdf コードリンク: https://github.com/HKUST-Aerial-Robotics/SIMPL 著者単位: 香港科学大学DJI 論文のアイデア: この論文は、自動運転車向けのシンプルで効率的な動作予測ベースライン (SIMPL) を提案しています。従来のエージェントセントとの比較

先頭と開始点に書かれている エンドツーエンドのパラダイムでは、統一されたフレームワークを使用して自動運転システムのマルチタスクを実現します。このパラダイムの単純さと明確さにも関わらず、サブタスクにおけるエンドツーエンドの自動運転手法のパフォーマンスは、依然としてシングルタスク手法に比べてはるかに遅れています。同時に、以前のエンドツーエンド手法で広く使用されていた高密度鳥瞰図 (BEV) 機能により、より多くのモダリティやタスクに拡張することが困難になります。ここでは、スパース検索中心のエンドツーエンド自動運転パラダイム (SparseAD) が提案されています。このパラダイムでは、スパース検索は、高密度の BEV 表現を使用せずに、空間、時間、タスクを含む運転シナリオ全体を完全に表します。具体的には、統合されたスパース アーキテクチャが、検出、追跡、オンライン マッピングなどのタスク認識のために設計されています。さらに、重い

この 1 か月間、いくつかのよく知られた理由により、私は業界のさまざまな教師やクラスメートと非常に集中的な交流をしてきました。この交換で避けられない話題は当然、エンドツーエンドと人気の Tesla FSDV12 です。この機会に、現時点での私の考えや意見を整理し、皆様のご参考とご議論に役立てたいと思います。エンドツーエンドの自動運転システムをどのように定義するか、またエンドツーエンドで解決することが期待される問題は何でしょうか?最も伝統的な定義によれば、エンドツーエンド システムとは、センサーから生の情報を入力し、関心のある変数をタスクに直接出力するシステムを指します。たとえば、画像認識では、従来の特徴抽出 + 分類子方式と比較して、CNN はエンドツーエンドと言えます。自動運転タスクでは、各種センサー(カメラ/LiDAR)からのデータを入力
