目次
最初の紹介とキーポイント
4.1 定義
4.2 重要度
6.5 カメラ外部パラメータ
8.4 4 つの座標系間の関係
ホームページ テクノロジー周辺機器 AI 座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

Oct 12, 2023 am 11:21 AM
テクノロジー オートパイロット

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

最初の紹介とキーポイント

この記事では主に、自動運転技術で一般的に使用されるいくつかの座標系と、それらがどのように完了するかを紹介します。関連と変換、そして最後に統合された環境モデルを構築します。ここでの焦点は、車両からカメラの剛体への変換 (外部パラメータ)、カメラから画像への変換 (内部パラメータ)、および画像からピクセル単位への変換を理解することです。 3D から 2D への変換には、対応する歪み、変換などが発生します。
ポイント:自車座標系カメラボディ座標系書き換える必要があるのは、平面座標系ピクセル座標系 難易度: 必須 画像の歪みを考慮して、画像平面上で歪み除去と歪みを補正します。

II はじめに

視覚システムには合計 4 つの座標系があります: ピクセル平面座標システム (u、v)、画像座標系 (x、y)、カメラ座標系 ()、および世界座標系 ()。各座標系の間には関連性があるため、画像のピクセル座標を通じて世界座標系の座標を特定する方法は、カメラのキャリブレーションを通じて解決する必要があります。重要なアルゴリズム部分は、

座標系変換にあります。そして、変換は 同次座標 の表現を通じて完了する必要があります。 3 つのセンサー座標系

3.1 カメラ座標系

カメラの機能は次のとおりです。色情報は 2 次元画像 に圧縮されます。カメラベースの

知覚アルゴリズム

は、車線、車両、歩行者などの 2 次元画像から 3 次元世界の要素と情報を抽出および復元し、それらの要素とそれ自体に対する相対位置を計算します。 知覚アルゴリズムとカメラに関係する座標系には画像座標系(ピクセル座標系)とカメラ座標系がありますが、書き換える必要があるのは平面座標系です 3.1.1 画像座標系 (またはピクセル座標系)

コンピュータに保存されている写真や画像の場合、通常は左上隅が原点となり、正の x 方向は右、y は下方向です。正の方向では、最も一般的に使用される単位は「ピクセル」です。画像座標系は、(Xv, Yv) とラベル付けされた 2 次元座標系です。

書き換える必要がある内容は次のとおりです。 3.1.2 カメラ座標系

画像座標系の x 軸は次のとおりです。 y 軸は右にあり、y 軸は右にあるため、カメラ座標系はレンズの主光軸の中心を原点とします。一般に、正の方向は x 軸の右方向、正の方向は y 軸の下方向、正の方向は z 軸の前方向です。このように、x 方向と y 方向は画像座標系の方向と一致し、z 方向は被写界深度を表します。カメラ座標系は (Xc, Yc)

書き換える必要があるものは次のとおりです。 3.1.3 書き換える必要があるのは次のとおりです: 平面座標系 (または撮像座標系) )

3 次元空間から 2 次元画像へのマッピング関係を 定量的に記述するために、書き換える必要があるものをグラフィックスで導入します: 平面座標系。これはカメラ座標系の平行移動です。中心は依然としてカメラの主光軸上にあります。光軸の中心からの距離は、カメラの焦点距離に等しいです。

カメラが光軸の中心より後ろにあることはわかっています。縮小された倒立像がフィルム上に現れます。これが実像面 (Xf、Yf) です。ただし、解析・計算の都合上、光軸中心よりも前に虚像面を設けます。仮想像面上の像は正立像であり、その大きさは実際の倒立像と同じです。書き換える必要があるのは平面座標系#です。

## 3.5 世界座標系 座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

##特定の状況に応じて、カメラによって導入される任意のオブジェクトを表すことができます。単位はメートル

世界座標系

、カメラ座標系

、画像座標系座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

、ピクセルです。座標システム

4 つのライダー座標系ライダー (光検出および測距) は、レーザー ビームを使用して物体の距離を測定する リモート センシング テクノロジー

。 360 度回転して光線を放射し、異なるターゲットの反射率に基づいて電気雲を形成します。自動運転やロボット工学の分野では、周囲環境の 3D 情報を取得するためのメインセンサーとして LiDAR がよく使用されます。ほとんどの場合、LiDAR 座標系は右手系ですが、具体的な定義は LiDAR の製造元によって異なる場合があります。

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

4.1 定義

XX 軸 : 通常、LIDAR の前を指します。レーザー ビームが真正面に発射されると、その方向からの距離測定により X 軸に正の値が生成されます。 Y 軸 : 通常、LIDAR の左側を指します。レーザー ビームが左に直接発射されると、その方向からの距離測定値は Y 軸に正の値を生成します。 Z 軸 : 通常、LIDAR の上、X 軸と Y 軸に垂直な点を指します。高さの測定は通常 Z 軸に沿って行われ、正の値はオブジェクトが LiDAR デバイスより高いことを表し、負の値はオブジェクトが LiDAR デバイスより低いことを表します。

4.2 重要度

  • 車載 LiDAR システムの 座標系は、車両座標系 と完全に一致していない可能性があります。と変換行列が必要なので、両者の間で座標変換を行います。
  • データ注釈、マップ生成、オブジェクト検出などのタスクには、 Lidar 座標系の明確な定義が必要です。
  • カメラなどの他のセンサーとの データ融合の場合、正しいデータの位置合わせと融合を実行するために、それぞれの座標系を知ることが重要です。
  • カメラ、レーダー、またはその他のセンサーとのデータ融合を実行する場合、通常、Lidar とこれらのセンサーの間の外部キャリブレーション パラメーター (回転行列や平行移動行列など) を知る必要があります。それらの間の座標変換。

5 つの自車座標系

センサーとオブジェクトの位置を記述するための一般環境での基準座標系を選択します

、この座標系を世界座標系と呼びますが、自車座標系は一般的に車体後軸の中心を原点とします(後軸の中心は相対的に変化しないため)車の揺れに合わせて) 、左前上または右前 上部の空間座標系では、左(右)はほぼ水平、正面はほぼ垂直、上部は地上の空間を指します。座標系は車の動きに合わせて移動します。 感知して出力する必要があるすべての下流ターゲットは、独自の車両座標系の下にある必要があり、BEV 視点ターゲットもこの座標系の下で参照されます

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

## 一般に、3 次元空間座標系は、3 つの直交軸 X、Y、Z を使用してオブジェクトの 座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題 位置

を表し、その周りの回転角度を使用します。これら 3 つの

直交軸 (ロール角、ピッチ角、ヨー角) は、物体の 姿勢を表します。時間座標系には 1 つの次元しかありません。表現の便宜上、通常、空間座標と時間座標を分けて説明します。 6 台のカメラの内部パラメータと外部パラメータ

6.1 カメラの内部パラメータ

内部パラメータは、次のことを決定するために使用されます。カメラの三次元空間から二次元空間への変換 次元画像の投影関係。主に カメラのメインポイント、カメラの焦点距離、歪み係数

の 3 つのパラメータが含まれています。内部パラメータは通常販売業者によって与えられ、カメラのキャリブレーションも実行できます。自動運転アプリケーションでは、

カメラの内部パラメータは定数であり、使用中に変化しません が、使用前に調整する必要があります。カメラの撮影プロセスは、 3 次元カメラ座標系から 2 次元座標系、つまり平面座標系にマッピングし、さらに画像座標系にマッピングするプロセスに抽象化できます。 6.2 焦点距離 (f)

画像

センサーとカメラのレンズ
    の間の距離を表します。 。通常、画像の x 軸と y 軸にそれぞれ対応する 2 つのパラメーター (
  • ) と () で表されます。 多くの場合、(
  • ) と仮定します。これは、ピクセルが両方向に正方形であることを意味します。
  • 6.3 主点

これは画像内の点であり、通常は画像の中心近くにあります。これは、画像平面に投影されたときの 3D 空間内の点に対応する 2D 点です。

    は通常、2 つのパラメータ (
  • ) と (
  • ) で表され、画像の x 軸と y 軸の座標に対応します。
  • 6.4 歪み係数

実際のカメラのレンズには歪みが生じ、画像の歪みを引き起こす可能性があります。一般的な歪みには、半径方向の歪みと接線方向の歪みが含まれます。

    一般的に使用される半径方向の歪み係数は (
  • ) です。
  • 接線方向の歪み係数は (
  • ) です。
  • 一般に、カメラの内部パラメータは行列で表すことができます:

#

この行列は通常、内部パラメータ行列またはカメラ行列と呼ばれます。

6.5 カメラ外部パラメータ

距離や奥行き情報の取得など、2 次元画像を通じて 3 次元カメラ座標系におけるオブジェクトの位置を推定します。 。 2 次元画像から 3 次元の距離情報を取得する . ワールド座標系でのオブジェクトの位置を取得する必要がある場合は、# の姿勢も知る必要があります。 ## ワールド座標系のカメラ。。この姿勢表現はカメラの外部パラメータと呼ばれ、カメラ座標とワールド座標系との相対的な位置関係を決定するために使用されます。自動運転アプリケーションでは、この位置関係を得るために一連のキャリブレーションと位置決め作業が必要になります。カメラは、他の座標系を基準にして行列を回転および平行移動します。回転の外部パラメータは、前述のオイラー角 [ヨー、パッチ、ロール] です。回転順序は一般に (z-y-x)、単位度です。平行移動の外部パラメータは、平行移動です。カメラからターゲット座標系までの距離、単位メートル

7 車両座標系と世界座標系

7.1 車両座標系

これは車両に固定された座標系です。
  • 通常、X 軸は車両の前方を指し、Y 軸は車両の右側 (合意に応じて左側) を指し、Z 軸は車両の上を指します。 。
  • この座標系の原点は、特定の用途や慣習に応じて、通常、車両の中心、車両の後車軸などの車両上の固定点に配置されます。
7.2 世界座標系

これは、物体や車両などの環境を記述するために使用される固定の世界座標系です。
  • ワールド座標系の原点と方向は、通常、特定のアプリケーションまたはシナリオに基づいて選択されます。たとえば、マップ上の固定点やシーンの中心に配置できます。
  • 世界座標系は、複数のエンティティに共通の参照フレームを提供し、エンティティ間の相対的な位置決めとナビゲーションを可能にします。
関係と変換:

- 車両は世界を移動するため、自車座標系と世界座標系の関係は時間となります。変化。 - これら 2 つの座標系間で変換するには、通常、変換行列または変換 (通常は回転と平行移動で構成されます) が必要です。この変換は、さまざまなセンサー (GPS、IMU、LiDAR など) およびアルゴリズム (SLAM など) を通じて取得できます。 - 変換は 4x4 の同次座標行列として表現できるため、ある座標系から別の座標系に変換できます。

自車座標系と世界座標系は多くの場合同じであり、この記事ではこのように理解しています。

8 つの座標系間の変換座標系の関係

8.1 ワールド座標系からカメラ座標系へ

オブジェクト間の座標系変換は、

回転変換の追加を表現できます。座標系のアップ平行移動変換

、ワールド座標系からカメラ座標系への変換関係も同様です。異なる軸の周りで異なる角度を回転すると、異なる回転行列が生成されます。 Z 軸を中心に θ を回転させる概略図:

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

##最後に、回転行列として簡単にまとめることができます。 座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

翻訳: カメラ座標点 () をワールド座標点まで移動し、移動距離は () です。

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

8.2 カメラ座標系を次のように変換します。画像座標系

カメラ座標系から画像座標系へは透視投影関係に属し、3Dから2Dに変換されます。ピンホールモデルの変化モデルと見ることもできます。三角形の相似定理を満たします。

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

8.3 画像座標系からピクセル座標系への変換

この場合、前の座標系変換とは異なり、この変換はありません。回転変換は行いますが、座標原点の位置と大きさが一致しないため、伸縮変換と平行移動変換を設計する必要があります

8.4 4 つの座標系間の関係

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

##最終的な変換関係を見ると、次の 3 つが挙げられます。次元座標点は、画像内の対応するピクセル点を見つけることができます。しかし、逆に、画像内の点から 3 次元空間内の対応する点を見つけることは問題になります。なぜなら、方程式の左辺の値がわからないからです。 # #赤いボックスは外部パラメータ、R と T はそれぞれ回転量と平行移動量です。内部パラメータはカメラ固有の属性であり、実際には焦点距離 f とピクセル サイズ dx、dy です。

9 つのまとめ座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題

自動運転のさまざまな座標系を整理し、それらの違いを示しました。自動運転の各種座標系の関係を求め、最終的にピクセル座標系とワールド座標系の変換関係を求めます。

元のリンク: https://mp.weixin.qq.com/s/tTRCjZBRZcnb59nX3FRR8w

以上が座標系の変換を本当にマスターしましたか?自動運転と切り離せないマルチセンサーの問題の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

このウェブサイトの声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

AI Hentai Generator

AI Hentai Generator

AIヘンタイを無料で生成します。

ホットツール

メモ帳++7.3.1

メモ帳++7.3.1

使いやすく無料のコードエディター

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

ゼンドスタジオ 13.0.1

ゼンドスタジオ 13.0.1

強力な PHP 統合開発環境

ドリームウィーバー CS6

ドリームウィーバー CS6

ビジュアル Web 開発ツール

SublimeText3 Mac版

SublimeText3 Mac版

神レベルのコード編集ソフト(SublimeText3)

なぜ自動運転ではガウス スプラッティングが非常に人気があるのに、NeRF は放棄され始めているのでしょうか? なぜ自動運転ではガウス スプラッティングが非常に人気があるのに、NeRF は放棄され始めているのでしょうか? Jan 17, 2024 pm 02:57 PM

上記と著者の個人的な理解 3 次元ガウシアンプラッティング (3DGS) は、近年、明示的な放射線フィールドとコンピューター グラフィックスの分野で出現した革新的なテクノロジーです。この革新的な方法は、数百万の 3D ガウスを使用することを特徴とし、主に暗黙的な座標ベースのモデルを使用して空間座標をピクセル値にマッピングする神経放射線場 (NeRF) 方法とは大きく異なります。明示的なシーン表現と微分可能なレンダリング アルゴリズムにより、3DGS はリアルタイム レンダリング機能を保証するだけでなく、前例のないレベルの制御とシーン編集も導入します。これにより、3DGS は、次世代の 3D 再構築と表現にとって大きな変革をもたらす可能性のあるものとして位置付けられます。この目的を達成するために、私たちは 3DGS 分野における最新の開発と懸念について初めて体系的な概要を提供します。

自動運転シナリオにおけるロングテール問題を解決するにはどうすればよいでしょうか? 自動運転シナリオにおけるロングテール問題を解決するにはどうすればよいでしょうか? Jun 02, 2024 pm 02:44 PM

昨日の面接で、ロングテール関連の質問をしたかと聞かれたので、簡単にまとめてみようと思いました。自動運転のロングテール問題とは、自動運転車におけるエッジケース、つまり発生確率が低い考えられるシナリオを指します。認識されているロングテール問題は、現在、単一車両のインテリジェント自動運転車の運用設計領域を制限している主な理由の 1 つです。自動運転の基礎となるアーキテクチャとほとんどの技術的問題は解決されており、残りの 5% のロングテール問題が徐々に自動運転の開発を制限する鍵となってきています。これらの問題には、さまざまな断片的なシナリオ、極端な状況、予測不可能な人間の行動が含まれます。自動運転におけるエッジ シナリオの「ロング テール」とは、自動運転車 (AV) におけるエッジ ケースを指します。エッジ ケースは、発生確率が低い可能性のあるシナリオです。これらの珍しい出来事

カメラかライダーを選択しますか?堅牢な 3D オブジェクト検出の実現に関する最近のレビュー カメラかライダーを選択しますか?堅牢な 3D オブジェクト検出の実現に関する最近のレビュー Jan 26, 2024 am 11:18 AM

0.前面に書かれています&& 自動運転システムは、さまざまなセンサー (カメラ、ライダー、レーダーなど) を使用して周囲の環境を認識し、アルゴリズムとモデルを使用することにより、高度な知覚、意思決定、および制御テクノロジーに依存しているという個人的な理解リアルタイムの分析と意思決定に。これにより、車両は道路標識の認識、他の車両の検出と追跡、歩行者の行動の予測などを行うことで、安全な運行と複雑な交通環境への適応が可能となり、現在広く注目を集めており、将来の交通分野における重要な開発分野と考えられています。 。 1つ。しかし、自動運転を難しくしているのは、周囲で何が起こっているかを車に理解させる方法を見つけることです。これには、自動運転システムの 3 次元物体検出アルゴリズムが、周囲環境にある物体 (位置を含む) を正確に認識し、記述することができる必要があります。

Stable Diffusion 3 の論文がついに公開され、アーキテクチャの詳細が明らかになりましたが、Sora の再現に役立つでしょうか? Stable Diffusion 3 の論文がついに公開され、アーキテクチャの詳細が明らかになりましたが、Sora の再現に役立つでしょうか? Mar 06, 2024 pm 05:34 PM

StableDiffusion3 の論文がついに登場しました!このモデルは2週間前にリリースされ、Soraと同じDiT(DiffusionTransformer)アーキテクチャを採用しており、リリースされると大きな話題を呼びました。前バージョンと比較して、StableDiffusion3で生成される画像の品質が大幅に向上し、マルチテーマプロンプトに対応したほか、テキスト書き込み効果も向上し、文字化けが発生しなくなりました。 StabilityAI は、StableDiffusion3 はパラメータ サイズが 800M から 8B までの一連のモデルであると指摘しました。このパラメーター範囲は、モデルを多くのポータブル デバイス上で直接実行できることを意味し、AI の使用を大幅に削減します。

自動運転と軌道予測についてはこの記事を読めば十分です! 自動運転と軌道予測についてはこの記事を読めば十分です! Feb 28, 2024 pm 07:20 PM

自動運転では軌道予測が重要な役割を果たしており、自動運転軌道予測とは、車両の走行過程におけるさまざまなデータを分析し、将来の車両の走行軌跡を予測することを指します。自動運転のコアモジュールとして、軌道予測の品質は下流の計画制御にとって非常に重要です。軌道予測タスクには豊富な技術スタックがあり、自動運転の動的/静的知覚、高精度地図、車線境界線、ニューラル ネットワーク アーキテクチャ (CNN&GNN&Transformer) スキルなどに精通している必要があります。始めるのは非常に困難です。多くのファンは、できるだけ早く軌道予測を始めて、落とし穴を避けたいと考えています。今日は、軌道予測に関するよくある問題と入門的な学習方法を取り上げます。関連知識の紹介 1. プレビュー用紙は整っていますか? A: まずアンケートを見てください。

nuScenes の最新 SOTA | SparseAD: スパース クエリは効率的なエンドツーエンドの自動運転に役立ちます。 nuScenes の最新 SOTA | SparseAD: スパース クエリは効率的なエンドツーエンドの自動運転に役立ちます。 Apr 17, 2024 pm 06:22 PM

先頭と開始点に書かれている エンドツーエンドのパラダイムでは、統一されたフレームワークを使用して自動運転システムのマルチタスクを実現します。このパラダイムの単純さと明確さにも関わらず、サブタスクにおけるエンドツーエンドの自動運転手法のパフォーマンスは、依然としてシングルタスク手法に比べてはるかに遅れています。同時に、以前のエンドツーエンド手法で広く使用されていた高密度鳥瞰図 (BEV) 機能により、より多くのモダリティやタスクに拡張することが困難になります。ここでは、スパース検索中心のエンドツーエンド自動運転パラダイム (SparseAD) が提案されています。このパラダイムでは、スパース検索は、高密度の BEV 表現を使用せずに、空間、時間、タスクを含む運転シナリオ全体を完全に表します。具体的には、統合されたスパース アーキテクチャが、検出、追跡、オンライン マッピングなどのタスク認識のために設計されています。さらに、重い

SIMPL: 自動運転向けのシンプルで効率的なマルチエージェント動作予測ベンチマーク SIMPL: 自動運転向けのシンプルで効率的なマルチエージェント動作予測ベンチマーク Feb 20, 2024 am 11:48 AM

原題: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 論文リンク: https://arxiv.org/pdf/2402.02519.pdf コードリンク: https://github.com/HKUST-Aerial-Robotics/SIMPL 著者単位: 香港科学大学DJI 論文のアイデア: この論文は、自動運転車向けのシンプルで効率的な動作予測ベースライン (SIMPL) を提案しています。従来のエージェントセントとの比較

エンドツーエンドおよび次世代の自動運転システムと、エンドツーエンドの自動運転に関する誤解について話しましょう。 エンドツーエンドおよび次世代の自動運転システムと、エンドツーエンドの自動運転に関する誤解について話しましょう。 Apr 15, 2024 pm 04:13 PM

この 1 か月間、いくつかのよく知られた理由により、私は業界のさまざまな教師やクラスメートと非常に集中的な交流をしてきました。この交換で避けられない話題は当然、エンドツーエンドと人気の Tesla FSDV12 です。この機会に、現時点での私の考えや意見を整理し、皆様のご参考とご議論に役立てたいと思います。エンドツーエンドの自動運転システムをどのように定義するか、またエンドツーエンドで解決することが期待される問題は何でしょうか?最も伝統的な定義によれば、エンドツーエンド システムとは、センサーから生の情報を入力し、関心のある変数をタスクに直接出力するシステムを指します。たとえば、画像認識では、従来の特徴抽出 + 分類子方式と比較して、CNN はエンドツーエンドと言えます。自動運転タスクでは、各種センサー(カメラ/LiDAR)からのデータを入力

See all articles