探索未來自動駕駛技術:4D毫米波雷達
目前自动驾驶汽车感知的实现离不开安装在车辆上的激光雷达、车载摄像头、毫米波雷达等感知设备,通过采集车辆周边交通环境的数据,让自动驾驶汽车能够拥有甚至超越人类的眼睛,来感知周围的世界为决策规划模块提供更加准确、丰富的环境信息,从而让自动驾驶汽车可以安全驾驶。
传感器硬件的堆叠,一方面可以让自动驾驶汽车可以更安全地在道路上行驶,但另一方面由于单个硬件设备并不能获得所有需求数据,且在很多极端环境下,硬件设备也会出现问题,如激光雷达在大雾、大雨等极端天气下,测得数据会出现较大偏差;毫米波雷达不具备测高能力,难以判断前方静止物体是在地面还是在空中;车载摄像头只能拍摄到2D平面图像,即便通过深度学习的辅助,依旧无法精准测得周围物体与自动驾驶汽车之间的距离,因此自动驾驶汽车需要不同的硬件设备同时工作,从而让自动驾驶汽车能够在任何情况下,获得不亚于人类的感知精度及能力。而4D毫米波雷达的出现,将为自动驾驶带来革命性的改变。
什么是4D毫米波雷达
在自动驾驶感知中,毫米波雷达作为自动驾驶中最重要的传感器之一,是至关重要的一环。但由于不具备测高的能力,很难判断前方静止物体是在地面还是在空中,在遇到井盖、减速带、立交桥、交通标识牌等地面、空中物体时,无法准确测得物体的高度数据。而4D毫米波雷达的出现,将弥补这一问题,4D毫米波雷达又称为成像雷达,在原有的距离、速度、方向的数据基础上,加上了对目标的高度分析,将第4个维度整合到传统毫米波雷达中,以更好地了解和绘制环境地图,让测到的交通数据更为精准。
早在2020年,特斯拉就曾宣布要在特斯拉汽车上增加一款4D传感器技术,通过4D传感器技术,将现有的工作范围增加两倍,以获取更多的交通信息。4D毫米波雷达可以有效解析测得目标的轮廓、行为和类别,可以适应更加复杂的道路,识别更多小物体,被遮挡部分的物体及静止或横向物体的监测,从而可以精准的了解车辆需要在什么情况下刹车,相对于3D毫米波雷达仅可以测量方位角、仰角和速度这3个数据,4D毫米波雷达可以获得的数据则更多,从而提供给决策规划更多可依赖的信息。
4D毫米波雷达的解决方案
4D毫米波雷达最早是在2019年由以色列公司提出,2020年初,Waymo宣布在第五代自动驾驶感知套件中推出4D毫米波雷达。同年,大陆集团推出了首个4D毫米波雷达量产解决方案,并表示宝马将成为首家搭载的车企。在2021CES上,4D毫米波雷达也声势不小,诸多厂商纷纷携产品亮相,德州仪器、Mobileye等企业陆续推出或更新4D毫米波雷达方案。
去年,安波福亮相了下一代L1~L3级自动驾驶平台,声称其传感器套件就包含了4D毫米波雷达;采埃孚表示,从上汽集团获得4D毫米波雷达的生产订单,2022年正式供货;博世在中国市场首次对外推介第5代雷达至尊版,即4D毫米波雷达。
4D毫米波雷达和传统雷达一样,在极端天气条件下工作时不会出现极大的偏差,且增加了仰俯角之后,能够形成点云图像,这就意味着4D毫米波雷达不仅可以检测到物体的距离、相对速度和方位角,还可以检测到前方物体的垂直高度以及前方静止和横向移动物体,这将补足传统雷达对静态目标的检测短板。目前4D毫米波雷达主要有2种技术方案:
- 一種是4D毫米波雷達企業自主研發多通道陣列射頻晶片組、雷達處理器晶片和基於人工智慧的後處理軟體演算法。
- 另一種是基於傳統雷達晶片供應商的解決方案,透過多晶片極聯,或軟體演算法來實現密集點雲輸出及識別。
4D毫米波雷達的主要特點在於角解析度非常高,前置4D毫米波雷達角解析度可達1度方位角和2度俯仰角,當加裝4D毫米波雷達的自動駕駛汽車在偵測道路資訊時,可以直接偵測到車輛週邊物體的輪廓。像是在道路資訊比較豐富,如行人與車輛夾雜在一起時,4D毫米波雷達就可以直接對行人和車輛進行識別,並可以判斷對應物體的運動情況(是否運動、運動方向)。
4D毫米波雷達也可以偵測到幾何形狀,例如在隧道場景中時,可以偵測到隧道的長度和寬度。 4D毫米波雷達的出現,有針對性地彌補了傳統毫米波雷達的性能短板,不僅是3D的升維,也帶來了探測精度、靈敏度、分辨率和性能的全面升級,給予自動駕駛更高的安全性,有望使毫米波雷達成為自動駕駛系統中的核心感測器之一。
4D毫米波雷達的未來發展趨勢
根據業內人士分析,4D毫米波雷達的規模化落地馬上就要來了。在市場化方面,目前技術趨於成熟,有許多種創新的演算法都在產品化過程中。不少車廠的新款車輛已有配裝的需求,其中自動泊車、L3及以上級別自動駕駛更是把4D成像作為剛需、事實上從去年開始,4D毫米波雷達已有很多產品裝車路測並準備量產。
例如恩智浦宣布,業界首款專用16nm毫米波雷達處理器S32R45將於上半年開始首次用於客戶量產。英特爾旗下的Mobileye也積極推動4D毫米波雷達的開發應用。 Mobileye執行長Amnon Shashua在今年CES演講中強調了4D成像毫米波雷達在汽車中的應用場景。
他表示:「到2025年,除了在汽車正面,其他地方我們只想要毫米波雷達,不想要光達。」 在Mobileye的計畫中,到2025年將推出基於毫米波雷達/光達的消費級自動駕駛車輛方案,汽車搭載雷達-LiDAR子系統,屆時車輛僅需安裝一個前向光達,同時外加360 全包覆車身的毫米波雷達,即可實現自動駕駛任務。
自動駕駛技術無法依靠單一的傳感器一統天下以成為業內共識。根據目前市場對自動駕駛的理解,沒有一刀切的傳感器,因為市場有很多細分領域,而且自動駕駛級別也不同,最終極大可能攝影機和雷達會共存,因為它們的優缺點互補性非常強。比較特殊的是光達,筆者認為有很大的可能性,4D毫米波雷達的解決方案可以降低或取代光達的使用。 4D毫米波雷達現在還處於發展的早期,但筆者相信未來它的性能將大大提升,並在理想情況下最終能夠取代光達。 ”
以上是探索未來自動駕駛技術:4D毫米波雷達的詳細內容。更多資訊請關注PHP中文網其他相關文章!

熱AI工具

Undresser.AI Undress
人工智慧驅動的應用程序,用於創建逼真的裸體照片

AI Clothes Remover
用於從照片中去除衣服的線上人工智慧工具。

Undress AI Tool
免費脫衣圖片

Clothoff.io
AI脫衣器

Video Face Swap
使用我們完全免費的人工智慧換臉工具,輕鬆在任何影片中換臉!

熱門文章

熱工具

記事本++7.3.1
好用且免費的程式碼編輯器

SublimeText3漢化版
中文版,非常好用

禪工作室 13.0.1
強大的PHP整合開發環境

Dreamweaver CS6
視覺化網頁開發工具

SublimeText3 Mac版
神級程式碼編輯軟體(SublimeText3)

寫在前面&筆者的個人理解三維Gaussiansplatting(3DGS)是近年來在顯式輻射場和電腦圖形學領域出現的一種變革性技術。這種創新方法的特點是使用了數百萬個3D高斯,這與神經輻射場(NeRF)方法有很大的不同,後者主要使用隱式的基於座標的模型將空間座標映射到像素值。 3DGS憑藉其明確的場景表示和可微分的渲染演算法,不僅保證了即時渲染能力,而且引入了前所未有的控制和場景編輯水平。這將3DGS定位為下一代3D重建和表示的潛在遊戲規則改變者。為此我們首次系統性地概述了3DGS領域的最新發展與關

昨天面試被問到了是否做過長尾相關的問題,所以就想著簡單總結一下。自動駕駛長尾問題是指自動駕駛汽車中的邊緣情況,即發生機率較低的可能場景。感知的長尾問題是目前限制單車智慧自動駕駛車輛運行設計域的主要原因之一。自動駕駛的底層架構和大部分技術問題已經解決,剩下的5%的長尾問題,逐漸成了限制自動駕駛發展的關鍵。這些問題包括各種零碎的場景、極端的情況和無法預測的人類行為。自動駕駛中的邊緣場景"長尾"是指自動駕駛汽車(AV)中的邊緣情況,邊緣情況是發生機率較低的可能場景。這些罕見的事件

0.寫在前面&&個人理解自動駕駛系統依賴先進的感知、決策和控制技術,透過使用各種感測器(如相機、光達、雷達等)來感知周圍環境,並利用演算法和模型進行即時分析和決策。這使得車輛能夠識別道路標誌、檢測和追蹤其他車輛、預測行人行為等,從而安全地操作和適應複雜的交通環境。這項技術目前引起了廣泛的關注,並認為是未來交通領域的重要發展領域之一。但是,讓自動駕駛變得困難的是弄清楚如何讓汽車了解周圍發生的事情。這需要自動駕駛系統中的三維物體偵測演算法可以準確地感知和描述周圍環境中的物體,包括它們的位置、

StableDiffusion3的论文终于来了!这个模型于两周前发布,采用了与Sora相同的DiT(DiffusionTransformer)架构,一经发布就引起了不小的轰动。与之前版本相比,StableDiffusion3生成的图质量有了显著提升,现在支持多主题提示,并且文字书写效果也得到了改善,不再出现乱码情况。StabilityAI指出,StableDiffusion3是一个系列模型,其参数量从800M到8B不等。这一参数范围意味着该模型可以在许多便携设备上直接运行,从而显著降低了使用AI

軌跡預測在自動駕駛中承擔著重要的角色,自動駕駛軌跡預測是指透過分析車輛行駛過程中的各種數據,預測車輛未來的行駛軌跡。作為自動駕駛的核心模組,軌跡預測的品質對於下游的規劃控制至關重要。軌跡預測任務技術堆疊豐富,需熟悉自動駕駛動/靜態感知、高精地圖、車道線、神經網路架構(CNN&GNN&Transformer)技能等,入門難度很高!許多粉絲期望能夠盡快上手軌跡預測,少踩坑,今天就為大家盤點下軌跡預測常見的一些問題和入門學習方法!入門相關知識1.預習的論文有沒有切入順序? A:先看survey,p

原文標題:SIMPL:ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving論文連結:https://arxiv.org/pdf/2402.02519.pdf程式碼連結:https://github.com/HKUST-Aerial-Robotics/SIMPLobotics單位論文想法:本文提出了一種用於自動駕駛車輛的簡單且有效率的運動預測基線(SIMPL)。與傳統的以代理為中心(agent-cent

最近一個月由於眾所周知的一些原因,非常密集地和業界的各種老師同學進行了交流。交流中必不可免的一個話題自然是端到端與火辣的特斯拉FSDV12。想藉此機會,整理當下這個時刻的一些想法和觀點,供大家參考和討論。如何定義端到端的自動駕駛系統,應該期望端到端解決什麼問題?依照最傳統的定義,端到端的系統指的是一套系統,輸入感測器的原始訊息,直接輸出任務關心的變數。例如,在影像辨識中,CNN相對於傳統的特徵提取器+分類器的方法就可以稱之為端到端。在自動駕駛任務中,輸入各種感測器的資料(相機/LiDAR

目標偵測在自動駕駛系統當中是一個比較成熟的問題,其中行人偵測是最早得以部署演算法之一。在多數論文當中已經進行了非常全面的研究。然而,利用魚眼相機進行環視的距離感知相對來說研究較少。由於徑向畸變大,標準的邊界框表示在魚眼相機當中很難實施。為了緩解上述描述,我們探索了擴展邊界框、橢圓、通用多邊形設計為極座標/角度表示,並定義一個實例分割mIOU度量來分析這些表示。所提出的具有多邊形形狀的模型fisheyeDetNet優於其他模型,並同時在用於自動駕駛的Valeo魚眼相機資料集上實現了49.5%的mAP
