목차
2021년에 씨앗을 심었습니다
22년 만에 올바른 길로 첫 발을 내딛다
23년의 걸림돌
24년이 새로운 시작입니다
기술 주변기기 일체 포함 BEV 차선 도입에 대해 조금

BEV 차선 도입에 대해 조금

Mar 06, 2024 am 11:31 AM
자율주행 bev

2021년에 씨앗을 심었습니다

BEV 장애물 이야기를 읽은 학생들은 우리 그룹이 10월 21일쯤에 BEV 장애물을 만들기 시작했다는 것을 알아야 합니다. 당시에는 인력이 없어서 BEV 차선 표시를 감히 생각하지 못했습니다. 그런데 12월쯤 인터뷰에서 한 지원자를 만났던 기억이 나는데, 그 분들은 반년 넘게 전체 기술 루트를 하이테크를 통해 BEV 차선 표시 네트워크로 활용했다는 이야기를 들었습니다. 정밀 지도를 통해 실제 값을 훈련하고 효과가 나쁘지 않다고 말합니다. 안타깝게도 그 후보자는 결국 우리에게 오지 않았습니다. 2021년 Telsa AI day에서 가르친 차선 표시 내용과 결합하여 BEV 차선 표시 만들기의 씨앗을 그룹에 심었습니다.

22년 만에 올바른 길로 첫 발을 내딛다

22년 동안 우리 팀의 인력은 매우 부족했는데, 6월과 7월에는 BEV 차선을 탐색할 인력만 있었던 것으로 기억합니다. 하지만 당시 우리 그룹에는 이 일을 2개월 동안 할 수 있었던 동급생이 단 한 명(지금은 Xiaoxuan이라고 칭함)뿐이었습니다. 그러다가 2021년의 씨앗이 싹트기 시작했습니다. 우리는 데이터부터 시작하려고 했습니다. Xiaoxuan 학생은 여전히 ​​매우 훌륭했고(매우 상상력이 풍부했으며, Xiaoxuan도 미래에 모두를 놀라게 할 더 많은 것들을 만들었습니다) 2월에 거의 사용되었습니다. , 고속, 고정밀 지도를 통해 해당 차량 주변의 차선 데이터를 추출할 수 있습니다. 그것이 만들어졌을 때, 모두가 여전히 매우 흥분했던 것을 기억합니다.

BEV 차선 도입에 대해 조금

그림 1: 이미지 시스템에 투영된 고정밀 지도 차선의 효과

그림 1에서 볼 수 있듯이 피팅 쌍에는 여전히 몇 가지 문제가 있으므로 Xiaoxuan은 일련의 최적화를 수행했습니다. 두 달 후 Xiaoxuan은 다른 작업을 수행했습니다. 지금 돌이켜보면 우리는 BEV 차선 탐색에 있어 올바른 조치를 취했습니다. 왜냐하면 2021년과 22년에는 많은 우수한 BEV 차선 라인 문서와 코드가 점차 오픈 소스화되었기 때문입니다. 이를 보면 2023년 BEV 차선 도입에 대한 완벽한 이야기가 있을 것이라고 생각할 수도 있다. 그러나 이상은 매우 성취되는 경우가 많지만 현실은 매우 잔인하다.

23년의 걸림돌

저희 BEV 장애물이 BEV가 이 길을 통과할 수 있다는 것을 입증했고, 도로 테스트에서도 좋은 결과를 보여줬으니까요. 그룹은 차선을 고려할 수 있는 더 많은 자원을 확보하기 시작했습니다. 이는 BEV가 아닙니다. 왜? 왜냐하면 당시에는 온라인화에 대한 압박이 컸고, BEV 차선 라인에 대한 경험도 부족했기 때문입니다. 즉, 그룹 전체에서 2D 차선 라인을 대량 생산한 사람이 거의 없었기 때문입니다. . 23년 상반기는 그야말로 방황이었다고 할 수 있겠습니다. 내부적으로 많은 열띤 논의 끝에 최종적으로 2개 라인을 결성하게 되었는데, 그 중 하나가 2D 라인 라인입니다. 대부분의 인력은 2D 라인 라인에 있고, 2D 레인라인 후가공, 경량 모델화에 중점을 두고 있으며, 2D 레인라인을 통해 레인라인 후가공 대량생산 경험을 축적하고 있습니다. 한 라인은 BEV 차선 라인입니다. 소수의 인력(실제로는 1~2명)만이 BEV 차선 라인의 모델 설계에 중점을 두고 모델 경험을 축적하고 있습니다. 이미 많은 BEV 차선 표시 네트워크가 있습니다. 참고하실 수 있도록 여기에 더 큰 영향을 미치는 두 가지 논문을 게시하겠습니다. "HDMapNet: 온라인 HD 맵 구성 및 평가 프레임워크" 및 "MapTR: 온라인 벡터화된 HD 맵 구성을 위한 구조화된 모델링 및 학습"

BEV 차선 도입에 대해 조금

그림 2: HDMapNet

BEV 차선 도입에 대해 조금

그림 3 MapTR

다행히도 In에서는 4월과 5월에는 2D 차선 후처리 양산 경험을 축적했으며, 5월 말에는 BEV 차선 네트워크도 원활하게 설계됐다. . 차선 후처리를 담당하는 동급생 Dahai가 여전히 매우 유능하다는 점을 여기서 말씀드리고 싶습니다. 그러나 일이 잘 진행되고 있다고 생각하는 순간 악몽이 시작되는 경우가 많습니다. BEV 차선 배치 이후 차량 제어 효과가 이상적이지 않아 모두가 의구심에 빠졌는데, 이는 BEV 차선의 큐빅 스플라인 피팅 문제 때문인가, 아니면 적응력이 떨어지는 문제인가. 다운스트림 매개변수? 다행스럽게도 우리는 도로 테스트 중에 공급업체의 차선 결과를 저장한 다음 이를 시각화 도구에서 우리의 결과와 비교했습니다. 차량 제어 효과가 좋지 않은 경우 먼저 자체 차선 품질에 문제가 없음을 입증하여 하류 운전자가 BEV 차선에 적응할 수 있도록 해야 합니다. 차량을 안정적으로 제어하는 ​​데 한 달, 꼬박 한 달이 걸렸습니다. 우리도 상하이에서 쑤저우까지 달렸던 것을 분명히 기억합니다. 여전히 토요일이었습니다. 그룹의 모든 사람들은 고속 차량 제어 효과를 보고 매우 흥분했습니다.

그러나 이야기에는 우여곡절이 있는 경우가 많습니다. 차선 데이터를 생성하려면 고속, 고정밀 지도만 사용할 수 있습니다. 도시는 어떻게 해야 할까요? 아직 해결해야 할 안타까운 사건들이 너무 많습니다. 이때 마침내 중요한 사람이 등장하게 됩니다. 그를 Classmate Xiaotang(우리 데이터 그룹의 큰 관리자)이라고 부르자. Xiaotang과 다른 사람들은 포인트 클라우드 재구성을 사용하여 클립을 재구성했습니다. (이 과정은 꽤 고통스러웠습니다. 그 두 달이 그들에게 가장 스트레스가 많은 시간이었던 것으로 기억합니다. 하하. 물론 Xiaotang과 저는 종종 사랑에 빠져 서로를 죽였습니다. 기타. 결국 회의 중에 또 데이터가 없다는 말을 자주 듣습니다). 그렇다면 재건축 후 라벨링은 어떻게 할까요? 당시 공급업체를 보면 라벨링 경험은커녕 이런 라벨링 도구를 갖춘 곳도 없었습니다. Xiaotang 및 다른 사람들과 함께 긴 한 달 후에 주석 도구는 마침내 공급업체와 함께 다듬어졌습니다. (우리는 전체 자율주행 주석 산업에 힘을 실어주고 있다고 농담을 자주 합니다. 이 과정은 정말 고통스럽고 클립을 재구축하는 작업은 로드 속도가 정말 느립니다.) 그러나 전체 라벨링은 여전히 ​​​​상대적으로 느리거나 비용이 많이 듭니다. 이때 Xiaoxuan은 차선 사전 라벨링 대형 모델로 데뷔했으며 (대형 모델 차선 사전 라벨링의 효과는 여전히 뛰어납니다) 놀란 표정으로 그를 바라보았다. 이 일련의 조합 후에 차선 데이터 생성이 마침내 거의 준비되었습니다. 8월에는 BEV 차선 제어 차선 라인이 잘 반복되어 간단한 고속 조종 기능에 적합합니다. 이제 Xiaoxuan은 대형 모델의 사전 표시된 방향으로 여전히 우리에게 더 많은 놀라움을 선사하고 있습니다. 우리와 Xiaotang은 여전히 ​​​​사랑에 빠져 서로를 죽이고 있습니다.

그러나 그렇게 쉽게 끝나는 이야기는 없습니다. 9월부터 다중 모드(Lidar, 카메라, 레이더) 및 다중 작업(차선, 장애물, Occ) 사전 융합 모델 작업을 시작했으며 이후 도시 내비게이션을 지원할 예정입니다. 파워(NCP)는 인지를 중시하고 지도를 무시하는 이른바 솔루션이다. BEV 장애물 및 BEV 차선 라인에 대한 경험을 바탕으로 머지않아 9월 말까지 차량에 융합 네트워크를 구축할 예정입니다. 도로 표지판 인식, 교차로 토폴로지 등과 같은 차선에 많은 하위 작업도 추가되었습니다. 이 과정에서 우리는 BEV 차선의 후처리를 업그레이드하고 차선 큐빅 스플라인 피팅을 버리고 점 추적 방식을 채택했습니다. 점 추적 방식과 차선 모델의 출력은 쉽게 잘 결합될 수 있습니다. 이 과정도 고통스러웠습니다. 2개월 연속으로 주 1회 특별회의를 열었습니다. 결국 피팅 계획대로 잘 해왔지만, 더 높은 한계점에 도달하기 위해서는 고통과 행복만이 있을 뿐입니다. 드디어 기본 기능을 도로 테스트에 넣었습니다.

그림 4를 간단히 설명하겠습니다. 왼쪽은 차선 지점 추적의 효과입니다. 현재 우리 모델의 인식 범위는 차량 뒤에 몇 가지 지점이 있음을 알 수 있습니다. 추적을 통해 남겨진 것입니다. 오른쪽은 우리가 구축한 실시간 인식 맵입니다. 물론 아직은 빠른 반복 과정을 거치고 있으며 아직 해결해야 할 문제도 많습니다.

24년이 새로운 시작입니다

. 24년만에 서서 21년의 지금까지의 성장과 축적을 되돌아보니 21년 그 시점에 BEV를 할 수 있는 기회가 있어서 정말 다행이었습니다. 또한 같은 생각을 가진 친구들이 서로를 보완해 주는 그룹이 있다는 것도 매우 행운입니다. 24년은 프리퓨전 모델의 양산, 데이터 방향성 노력, 타이밍 모델 발굴, 엔드투엔드 상상력 등 우리가 추구해야 할 것들이 많습니다.

위 내용은 BEV 차선 도입에 대해 조금의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? 자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? Jan 17, 2024 pm 02:57 PM

위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? 자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? Jun 02, 2024 pm 02:44 PM

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 Jan 26, 2024 am 11:18 AM

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 ​​포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

좌표계 변환을 실제로 마스터하셨나요? 자율주행에 필수불가결한 멀티센서 이슈 좌표계 변환을 실제로 마스터하셨나요? 자율주행에 필수불가결한 멀티센서 이슈 Oct 12, 2023 am 11:21 AM

첫 번째 파일럿 및 주요 기사에서는 주로 자율 주행 기술에서 일반적으로 사용되는 여러 좌표계를 소개하고 이들 간의 상관 관계 및 변환을 완료하고 최종적으로 통합 환경 모델을 구축하는 방법을 소개합니다. 여기서 초점은 차량에서 카메라 강체로의 변환(외부 매개변수), 카메라에서 이미지로의 변환(내부 매개변수), 이미지에서 픽셀 단위로의 변환을 이해하는 것입니다. 3D에서 2D로의 변환에는 해당 왜곡, 변환 등이 포함됩니다. 요점: 차량 좌표계와 카메라 본체 좌표계를 다시 작성해야 합니다. 평면 좌표계와 픽셀 좌표계 난이도: 이미지 평면에서 왜곡 제거와 왜곡 추가를 모두 고려해야 합니다. 2. 소개 좌표계에는 픽셀 평면 좌표계(u, v), 이미지 좌표계(x, y), 카메라 좌표계(), 월드 좌표계() 등 총 4가지 비전 시스템이 있습니다. 각 좌표계 사이에는 관계가 있으며,

자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! 자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! Feb 28, 2024 pm 07:20 PM

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 Feb 20, 2024 am 11:48 AM

원제목: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 논문 링크: https://arxiv.org/pdf/2402.02519.pdf 코드 링크: https://github.com/HKUST-Aerial-Robotics/SIMPL 저자 단위: Hong Kong University of Science 및 기술 DJI 논문 아이디어: 이 논문은 자율주행차를 위한 간단하고 효율적인 모션 예측 기준선(SIMPL)을 제안합니다. 기존 에이전트 센트와 비교

엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? 엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? Apr 15, 2024 pm 04:13 PM

지난 달에는 몇 가지 잘 알려진 이유로 업계의 다양한 교사 및 급우들과 매우 집중적인 교류를 가졌습니다. 교환에서 피할 수 없는 주제는 자연스럽게 엔드투엔드와 인기 있는 Tesla FSDV12입니다. 저는 이 기회를 빌어 여러분의 참고와 토론을 위해 지금 이 순간 제 생각과 의견을 정리하고 싶습니다. End-to-End 자율주행 시스템을 어떻게 정의하고, End-to-End 해결을 위해 어떤 문제가 예상되나요? 가장 전통적인 정의에 따르면, 엔드 투 엔드 시스템은 센서로부터 원시 정보를 입력하고 작업과 관련된 변수를 직접 출력하는 시스템을 의미합니다. 예를 들어 이미지 인식에서 CNN은 기존의 특징 추출 + 분류기 방식에 비해 end-to-end 방식으로 호출할 수 있습니다. 자율주행 작업에서는 다양한 센서(카메라/LiDAR)로부터 데이터를 입력받아

nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! Apr 17, 2024 pm 06:22 PM

전면 및 시작점 작성 엔드 투 엔드 패러다임은 통합 프레임워크를 사용하여 자율 주행 시스템에서 멀티 태스킹을 달성합니다. 이 패러다임의 단순성과 명확성에도 불구하고 하위 작업에 대한 엔드투엔드 자율 주행 방법의 성능은 여전히 ​​단일 작업 방법보다 훨씬 뒤떨어져 있습니다. 동시에 이전 엔드투엔드 방법에서 널리 사용된 조밀한 조감도(BEV) 기능으로 인해 더 많은 양식이나 작업으로 확장하기가 어렵습니다. 여기서는 희소 검색 중심의 엔드 투 엔드 자율 주행 패러다임(SparseAD)이 제안됩니다. 여기서 희소 검색은 밀집된 BEV 표현 없이 공간, 시간 및 작업을 포함한 전체 운전 시나리오를 완전히 나타냅니다. 특히 통합 스파스 아키텍처는 탐지, 추적, 온라인 매핑을 포함한 작업 인식을 위해 설계되었습니다. 게다가 무겁다.

See all articles