自動駕駛核心在於車,那智慧網路系統又是什麼呢?智慧網聯的載具也是車,但核心是需要連接的網路。一個是汽車內部的感測器和智慧控制系統所構成的一張網絡,另一個是所有汽車連接、共享的網路。網聯就是將一輛車置身到一張大的網路之中,去交換重要的訊息,例如位置、路線、速度等資訊。智慧網聯繫統的發展目標是透過汽車內部感測器和控制系統的設計優化能夠改善汽車的安全性和舒適性,使汽車更加人性化,當然終極目標是在實現無人駕駛。
自動駕駛汽車三大核心輔助系統:環境感知系統、決策與規劃系統和控制與執行系統,這也是智慧網路聯汽車車輛本身必須解決的三大關鍵技術問題。
什麼是環境感知技術,主要包含哪些內容?
環境感知主要包括三個面向:感測器、感知和定位。感測器包括攝影機、毫米波雷達、光達以及超音波,不同感測器被安置在車輛上,分別發揮採集數據,識別顏色、測量距離等作用。
智慧汽車要想採用感測器所獲得的資料去實現智慧駕駛,透過感測器所獲得的資料必須經過(感知)演算法處理,彙算成數據結果,實現車、路、人等資訊交換,使車輛能夠自動分析車輛行駛的安全或危險狀態,讓車輛能夠按照人的意願實現智慧駕駛,最終替代人來做出決策和無人駕駛目標。
那這裡會有個關鍵技術問題,不同感測器發揮的作用不同,多個感測器掃描到資料如何形成一個完整的物件影像資料呢?
多感測器融合技術
#相機的作用主要是辨識物體顏色,但會受陰雨天氣的影響;毫米波雷達能夠彌補攝影機受陰雨天影響的弊端,能夠識別距離比較遠的障礙物,例如行人、路障等,但是不能夠識別障礙物的具體形狀;光達可以彌補毫米波雷達不能識別障礙物具體形狀的缺點;超音波雷主要識別車身的近距離障礙物,應用在車輛泊車過程中比較多。要融合不同感測器的收集到外界資料為控制器執行決策提供依據,就需要經過多感測器融合演算法處理形成全景感知。
多感測器融合基本原理就像人腦綜合處理資訊的過程一樣,將各種感測器進行多層次、多空間的資訊互補和最佳化組合處理,最終產生對觀測環境的一致性解釋。在這個過程中要充分利用多源數據進行合理支配與使用,而信息融合的最終目標則是基於各傳感器獲得的分離觀測信息,通過對信息多級別、多方面組合導出更多有用信息。這不僅是利用了多個感測器相互協同操作的優勢,而且還綜合處理了其它資訊來源的數據來提高整個感測器系統的智慧化。
多感測器資料融合概念最早應用於軍事領域,近年來隨著自動駕駛的發展,各種雷達運用於車輛做目標的檢測。因為不同的感測器都存在數據準確性的問題,那麼最終融合的數據該如何判定?例如雷射雷達報告前車距離是5m,毫米波雷達報告前車距離是5.5m,攝影機判定前車距離是4m,最終中央處理器該如何判斷。那就需要一套多數據融合的演算法來解決這個問題。
多感測器融合的常用方法分為兩大類:隨機和人工智慧。 AI類主要是模糊邏輯推理和人工神經網路方法;隨機類別方法主要有貝葉斯濾波、卡爾曼濾波等演算法。目前汽車融合感知主要採用隨機類融合演算法。
自動駕駛汽車融合感知演算法主要採用卡爾曼濾波演算法,利用線性系統狀態方程,透過系統輸入輸出觀測數據,對系統狀態進行最佳估計的演算法,它是目前解決絕大部分問題都是最優、效率最高的方法。
多重感測器需要進行融合演算法處理,企業對應就會需要融合感知類別的演算法工程師去解決多感測器融合的問題,融合感知類別的絕大多數的崗位要求都是需要能夠掌握多種感測器的工作原理及訊號的資料特徵,能夠掌握融合演算法進行軟體開發以及感測器標定演算法能力以及點雲資料處理、深度學習偵測演算法等等。
#Slam叫做同步定位和製圖,是假設場景是靜態情況下透過攝影機的運動來獲取影像序列並得到場景3-D結構的設計,這是電腦視覺的重要任務,攝影機所獲得的資料經過演算法處理也就是視覺slam。
環境感知定位法除了視覺slam,還有雷射雷達slam、GPS/IMU和高精地圖。這些感測器所獲得的數據都是需要經過演算法的處理才能形成數據結果為自動駕駛決策提供位置資訊依據。所以想要從事環境感知方向的工作,不僅可以選擇融合感知演算法崗位,還可以選擇slam方向。
以上是一文淺析自動駕駛多感測器融合的詳細內容。更多資訊請關注PHP中文網其他相關文章!