自動運転の核心はクルマにあり、インテリジェントネットワーク接続システムとは何でしょうか?インテリジェント ネットワーク接続のキャリアは自動車でもありますが、中心となるのは接続する必要があるネットワークです。 1つは車内のセンサーや知能制御システムで構成されるネットワーク、もう1つはすべてのクルマが接続・共有するネットワークです。ネットワーク接続とは、自動車を大規模なネットワークに接続して、位置、ルート、速度などの重要な情報を交換することです。インテリジェントネットワークシステムの開発目標は、車載センサーや制御システムの設計最適化により車の安全性と快適性を向上させ、車をより人間らしくすることであり、最終的な目標はもちろん無人運転の実現である。
自動運転車の 3 つのコア補助システム: 環境認識システム、意思決定および計画システム、制御および実行システム。これらは、インテリジェント ネットワーク化車両が実現する 3 つの主要テクノロジーでもあります。それ自体で解決しなければならない質問です。
環境認識テクノロジーとは何ですか?主に何が含まれますか?
環境認識には、主にセンサー、認識、位置決めという 3 つの側面が含まれます。センサーには、カメラ、ミリ波レーダー、ライダー、超音波が含まれ、データの収集、色の識別、距離の測定を行うために、さまざまなセンサーが車両に設置されています。
# スマートカーがセンサーによって取得したデータを使用してインテリジェントな運転を実現したい場合、センサーによって取得したデータを処理する必要があります。 (知覚)アルゴリズムと計算されたデータ結果は、車両、道路、人などに関する情報の交換を実現するために生成され、車両が安全な運転か危険な運転かを自動的に分析し、車両が状況に応じてインテリジェントな運転を実現できます。人々の願いを実現し、最終的には人々に代わって意思決定や自動運転の目標を決定します。
次に、ここで重要な技術的問題が発生します。異なるセンサーは異なる役割を果たします。複数のセンサーによってスキャンされたデータはどのようにして完全な物体の画像データを形成するのでしょうか?
マルチセンサーフュージョン技術
カメラの主な機能は物体の色を識別することですが、ミリ波レーダーは雨天の影響を受けるカメラの欠点を補うことができ、歩行者や通行止めなどの比較的遠方の障害物を識別できますが、障害物の具体的な形状を識別することはできません。ミリ波レーダーでは障害物を認識できないことをライダーが補うことができる 特殊な形状のデメリット; 超音波レーダーは主に車体上の近距離の障害物を認識し、駐車の際に主に使用されます。さまざまなセンサーから収集された外部データを融合してコントローラーが決定を下すための基礎を提供するには、マルチセンサー融合アルゴリズムを処理してパノラマ認識を形成する必要があります。
マルチセンサーフュージョンの基本原理は、人間の脳による総合的な情報処理のプロセスと同様であり、さまざまなセンサーを使用して、複数のレベルでの情報の組み合わせを補完し、最適化します。複数の空間でデータを収集し、最終的に 2 つの観測値を生成し、環境の一貫した解釈を行います。この過程では、複数のソースデータを最大限に活用して合理的に管理・利用する必要があり、情報融合の最終目標は、観測データによって得られた分離された観測情報をもとに、情報を多段階・多面的に組み合わせることにより、より有用な情報を導き出すことである。各センサー。これは、複数のセンサーの協調動作を活用するだけでなく、他の情報源からのデータを包括的に処理して、センサーシステム全体のインテリジェンスを向上させます。
マルチセンサーデータフュージョンの概念は軍事分野で最初に使用されましたが、近年では自動運転の開発に伴い、さまざまなレーダーが使用されています。車両をターゲットにするために使用されています。さまざまなセンサーにはデータの精度の問題があるため、最終的に融合されたデータをどのように決定するのでしょうか?たとえば、ライダーが前方車までの距離が 5m であると報告した場合、ミリ波レーダーは前方車までの車間距離が 5.5m であると報告し、カメラは前方車までの車間距離が 4m であると判断します。 、中央処理装置はどのように最終判断を下すべきでしょうか?この問題を解決するには、一連のマルチデータ融合アルゴリズムが必要です。
マルチセンサー フュージョンの一般的に使用される方法は、ランダムと人工知能の 2 つのカテゴリに分類されます。 AI カテゴリには主にファジー論理推論と人工ニューラル ネットワーク手法が含まれ、確率的手法には主にベイジアン フィルタリング、カルマン フィルタリングおよびその他のアルゴリズムが含まれます。現在、自動車のフュージョンセンシングは主にランダムフュージョンアルゴリズムを使用しています。
自動駕駛汽車融合感知演算法主要採用卡爾曼濾波演算法,利用線性系統狀態方程,透過系統輸入輸出觀測數據,對系統狀態進行最佳估計的演算法,它是目前解決絕大部分問題都是最優、效率最高的方法。
多重感測器需要進行融合演算法處理,企業對應就會需要融合感知類別的演算法工程師去解決多感測器融合的問題,融合感知類別的絕大多數的崗位要求都是需要能夠掌握多種感測器的工作原理及訊號的資料特徵,能夠掌握融合演算法進行軟體開發以及感測器標定演算法能力以及點雲資料處理、深度學習偵測演算法等等。
#Slam叫做同步定位和製圖,是假設場景是靜態情況下透過攝影機的運動來獲取影像序列並得到場景3-D結構的設計,這是電腦視覺的重要任務,攝影機所獲得的資料經過演算法處理也就是視覺slam。
環境感知定位法除了視覺slam,還有雷射雷達slam、GPS/IMU和高精地圖。這些感測器所獲得的數據都是需要經過演算法的處理才能形成數據結果為自動駕駛決策提供位置資訊依據。所以想要從事環境感知方向的工作,不僅可以選擇融合感知演算法崗位,還可以選擇slam方向。
以上が自動運転のためのマルチセンサーフュージョンを簡単に分析した記事の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。