기술 주변기기 일체 포함 개요: 자율주행을 위한 협업 센싱 기술

개요: 자율주행을 위한 협업 센싱 기술

Apr 08, 2023 pm 03:01 PM
기술 자율주행

arXiv 리뷰 논문 "자율 운전에 대한 협업 인식: 현재 상태 및 미래 동향", 2022년 8월 23일, Shanghai Jiao Tong University.

개요: 자율주행을 위한 협업 센싱 기술

지각은 자율주행 시스템의 핵심 모듈 중 하나입니다. 그러나 자전거의 제한된 기능으로 인해 인지 성능 향상에 병목 현상이 발생합니다. 단일 인식의 한계를 극복하기 위해 차량이 정보를 공유하고 시야 밖, 시야 밖의 환경을 인식할 수 있도록 협업 인식이 제안됩니다. 이 기사에서는 기본 개념, 협업 모델, 핵심 요소 및 응용 프로그램을 포함하여 협업 감지 기술과 관련된 유망한 작업을 검토합니다. 마지막으로, 이 연구 분야의 열린 과제와 문제에 대해 논의하고 추가 방향을 제시합니다.

그림에 표시된 것처럼 단일 인식의 두 가지 중요한 문제는 장거리 폐색과 희소 데이터입니다. 이러한 문제를 해결하기 위한 방안으로 동일 지역 내 차량들끼리 공통의 인지정보(CPM, Collective Perception Message)를 공유하고, 환경을 협력적으로 인지하는 것을 협업 센싱(Collaborative Sensing) 또는 협업 센싱(Cooperative Sensing)이라고 한다.

개요: 자율주행을 위한 협업 센싱 기술

통신 인프라 구축과 V2X 등 통신 기술의 발전 덕분에 차량은 안정적으로 정보를 교환하고 협업을 이룰 수 있습니다. 최근 연구에 따르면 차량 간의 협업 감지는 환경 인식의 정확성은 물론 교통 시스템의 견고성과 안전성을 향상시킬 수 있는 것으로 나타났습니다.

또한 자율주행차에는 일반적으로 안정적인 인식을 위해 정확도가 높은 센서가 장착되어 있어 비용이 많이 듭니다. 협업 감지는 감지 장비에 대한 단일 차량의 엄격한 요구 사항을 완화할 수 있습니다.

협동 감지는 근처 차량 및 인프라와 정보를 공유하여 자율 차량이 폐쇄 및 짧은 시야와 같은 특정 감지 한계를 극복할 수 있도록 합니다. 그러나 실시간의 강력한 협업 감지를 달성하려면 통신 용량 및 소음으로 인해 발생하는 몇 가지 문제를 해결해야 합니다. 최근 일부 연구에서는 협업이란 무엇인지, 언제 협업해야 하는지, 어떻게 협업하는지, 공유 정보의 정렬 등 협업 감지 전략을 연구했습니다.

퓨전과 유사하게 협업에는 4가지 범주가 있습니다.

개요: 자율주행을 위한 협업 센싱 기술

1 초기 협업

초기 협업은 입력 공간에서 협업하여 차량과 인프라 간의 원시 감각 데이터를 공유합니다. 모든 차량과 인프라의 원시 측정값을 집계하여 전체적인 관점을 얻습니다. 따라서 각 차량은 전체 관점을 기반으로 다음과 같은 처리와 완전한 인식을 수행할 수 있으며, 이는 단일 인식에서 발생하는 폐색 및 장거리 문제를 근본적으로 해결할 수 있습니다.

그러나 원시 감각 데이터를 공유하려면 광범위한 통신이 필요하고 과도한 데이터 부하로 통신 네트워크가 쉽게 정체되어 대부분의 경우 실제 적용을 방해합니다.

2. 포스트 스테이지 협업

포스트 스테이지 협업은 출력 공간에서 협업하여 각 에이전트가 출력한 인식 결과의 융합을 촉진하고 개선을 달성합니다.

후기 단계 협업은 대역폭이 경제적이지만 에이전트 포지셔닝 오류에 매우 민감하고 불완전한 로컬 관찰로 인해 높은 추정 오류와 노이즈로 어려움을 겪습니다.

3 중간 협업

중간 협업은 중간 기능 공간에서 협업을 수행합니다. 개별 에이전트 예측 모델에서 생성된 중간 기능을 전송할 수 있습니다. 이러한 특징을 융합한 후 각 에이전트는 융합된 특징을 디코딩하고 지각 결과를 생성합니다. 개념적으로 대표 정보를 이러한 기능으로 압축하여 초기 협업에 비해 통신 대역폭을 절약하고 후기 협업에 비해 인식을 향상시킬 수 있습니다.

실제로 이 협업 전략의 설계는 i) 전송을 위한 원래 측정에서 가장 효과적이고 컴팩트한 기능을 선택하는 방법과 ii) 다른 지능의 통합을 극대화하는 방법이라는 두 가지 측면에서 알고리즘적으로 어렵습니다. 각 지능 신체의 인식 능력을 향상시키는 신체입니다.

4 하이브리드 시너지

위에서 언급했듯이 각 시너지 모드에는 장점과 단점이 있습니다. 따라서 일부 작업에서는 협업 전략을 최적화하기 위해 둘 이상의 협업 모드를 결합하는 하이브리드 협업을 채택합니다.

공동 인식의 주요 요소는 다음과 같습니다.

1 협업 그래프

그래프는 해석 가능성이 좋은 비유클리드 데이터 구조를 모델링하기 때문에 공동 인식 모델링을 위한 강력한 도구입니다. 일부 작품에서는 협업 센싱에 참여하는 차량이 완전한 협업 그래프를 형성하는데, 여기서 각 차량은 노드이고 두 차량 간의 협력 관계는 두 노드 사이의 에지입니다.

2 자세 정렬

협동 감지에서는 서로 다른 위치와 시간에 있는 차량과 인프라의 데이터를 융합해야 하기 때문에 정확한 데이터 정렬을 달성하는 것이 성공적인 협업에 매우 중요합니다.

3 정보 융합

정보 융합은 다중 에이전트 시스템의 핵심 구성 요소이며, 그 목표는 다른 에이전트의 정보 중 가장 많은 부분을 효과적인 방법으로 융합하는 것입니다.

4 강화 학습을 기반으로 한 자원 할당

실제 환경의 제한된 통신 대역폭에는 사용 가능한 통신 리소스를 최대한 활용해야 하므로 리소스 할당 및 스펙트럼 공유가 매우 중요합니다. 차량 통신 환경에서는 빠르게 변화하는 채널 상황과 증가하는 서비스 수요로 인해 할당 문제의 최적화가 매우 복잡해지고 기존 최적화 방법으로는 해결하기가 어렵습니다. 일부 연구에서는 MARL(Multi-agent Reinforcement Learning)을 활용하여 최적화 문제를 해결합니다.

협동 센싱의 응용:

1 3D 표적 탐지

LiDAR 포인트 클라우드를 기반으로 한 3D 표적 탐지는 협업 센싱 연구에서 가장 우려되는 문제입니다. 그 이유는 다음과 같습니다. i) LiDAR 포인트 클라우드는 이미지 및 비디오보다 공간 차원이 더 큽니다. ii) LiDAR 포인트 클라우드는 얼굴, 차량번호 등의 개인정보를 어느 정도 보유할 수 있습니다. iii) 포인트 클라우드 데이터는 다양한 포즈에서 정렬할 때 손실되는 픽셀 수가 적기 때문에 융합에 적합한 데이터 유형입니다. iv) 3D 객체 감지는 자율주행 인식을 위한 기본 작업으로, 추적, 모션 예측 등 많은 작업의 기반이 됩니다.

2 의미론적 분할

3D 장면의 의미론적 분할도 자율주행에 필요한 핵심 작업입니다. 3D 장면 개체의 공동 의미론적 분할 여러 에이전트의 3D 장면 관찰(이미지, 라이더 포인트 클라우드 등)이 주어지면 각 에이전트에 대해 의미론적 분할 마스크가 생성됩니다. ‍

어려운 문제:

1 커뮤니케이션 견고성

효과적인 공동 통합은 에이전트 간의 안정적인 커뮤니케이션에 달려 있습니다. 그러나 실제로 통신은 완벽하지 않습니다. i) 네트워크의 차량 수가 증가함에 따라 각 차량의 사용 가능한 통신 대역폭이 제한됩니다. ii) 불가피한 통신 지연으로 인해 차량이 실시간 정보를 수신하기 어렵습니다. iii) 때때로 통신이 중단되어 통신 중단이 발생할 수 있습니다. iv) V2X 통신이 손상되어 항상 안정적인 서비스를 제공할 수 없습니다. 통신 기술이 계속 발전하고 통신 서비스의 질이 지속적으로 향상되고 있음에도 불구하고 위와 같은 문제는 여전히 오랫동안 존재합니다. 그러나 대부분의 기존 연구에서는 정보가 실시간 및 무손실 방식으로 공유될 수 있다고 가정하므로 이러한 통신 제약을 고려하고 강력한 협업 감지 시스템을 설계하는 추가 작업이 매우 중요합니다.

2 이질성 및 교차 양식

대부분의 공동 통합 감지 작업은 LiDAR 포인트 클라우드 기반 감지에 중점을 둡니다. 그러나 이미지, 밀리미터파 레이더 포인트 클라우드 등 감지에 사용할 수 있는 데이터 유형이 더 많습니다. 이는 보다 효과적인 협업을 위해 다중 모드 센서 데이터를 활용할 수 있는 잠재적인 방법입니다. 또한 일부 시나리오에서는 서로 다른 품질의 정보를 제공하는 다양한 수준의 자율주행차가 있습니다. 따라서 이종 차량 네트워크에서 어떻게 협업할지는 협업 센싱의 실제 적용을 위한 문제입니다. 불행하게도 이종 및 교차 모드 협업 센싱에 초점을 맞춘 연구는 거의 없으며 이는 또한 공개적인 과제가 됩니다.

3대규모 데이터세트

대규모 데이터세트와 딥러닝 방법의 개발로 지각 성능이 향상되었습니다. 그러나 공동 감지 연구 분야의 기존 데이터 세트는 크기가 작거나 공개적으로 사용할 수 없습니다.

공공 대규모 데이터 세트가 부족하면 협업 감지의 추가 개발이 방해됩니다. 게다가 대부분의 데이터 세트는 시뮬레이션을 기반으로 합니다. 시뮬레이션은 알고리즘을 검증하는 경제적이고 안전한 방법이지만 실제로 협업 센싱을 적용하려면 실제 데이터 세트도 필요합니다.

위 내용은 개요: 자율주행을 위한 협업 센싱 기술의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? 자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? Jan 17, 2024 pm 02:57 PM

위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? 자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? Jun 02, 2024 pm 02:44 PM

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 Jan 26, 2024 am 11:18 AM

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 ​​포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

Stable Diffusion 3 논문이 드디어 공개되고, 아키텍처의 세부 사항이 공개되어 Sora를 재현하는 데 도움이 될까요? Stable Diffusion 3 논문이 드디어 공개되고, 아키텍처의 세부 사항이 공개되어 Sora를 재현하는 데 도움이 될까요? Mar 06, 2024 pm 05:34 PM

StableDiffusion3의 논문이 드디어 나왔습니다! 이 모델은 2주 전에 출시되었으며 Sora와 동일한 DiT(DiffusionTransformer) 아키텍처를 사용합니다. 출시되자마자 큰 화제를 불러일으켰습니다. 이전 버전과 비교하여 StableDiffusion3에서 생성된 이미지의 품질이 크게 향상되었습니다. 이제 다중 테마 프롬프트를 지원하고 텍스트 쓰기 효과도 향상되었으며 더 이상 잘못된 문자가 표시되지 않습니다. StabilityAI는 StableDiffusion3이 800M에서 8B 범위의 매개변수 크기를 가진 일련의 모델임을 지적했습니다. 이 매개변수 범위는 모델이 많은 휴대용 장치에서 직접 실행될 수 있어 AI 사용이 크게 줄어든다는 것을 의미합니다.

자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! 자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! Feb 28, 2024 pm 07:20 PM

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? 엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? Apr 15, 2024 pm 04:13 PM

지난 달에는 몇 가지 잘 알려진 이유로 업계의 다양한 교사 및 급우들과 매우 집중적인 교류를 가졌습니다. 교환에서 피할 수 없는 주제는 자연스럽게 엔드투엔드와 인기 있는 Tesla FSDV12입니다. 저는 이 기회를 빌어 여러분의 참고와 토론을 위해 지금 이 순간 제 생각과 의견을 정리하고 싶습니다. End-to-End 자율주행 시스템을 어떻게 정의하고, End-to-End 해결을 위해 어떤 문제가 예상되나요? 가장 전통적인 정의에 따르면, 엔드 투 엔드 시스템은 센서로부터 원시 정보를 입력하고 작업과 관련된 변수를 직접 출력하는 시스템을 의미합니다. 예를 들어 이미지 인식에서 CNN은 기존의 특징 추출 + 분류기 방식에 비해 end-to-end 방식으로 호출할 수 있습니다. 자율주행 작업에서는 다양한 센서(카메라/LiDAR)로부터 데이터를 입력받아

SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 Feb 20, 2024 am 11:48 AM

원제목: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 논문 링크: https://arxiv.org/pdf/2402.02519.pdf 코드 링크: https://github.com/HKUST-Aerial-Robotics/SIMPL 저자 단위: Hong Kong University of Science 및 기술 DJI 논문 아이디어: 이 논문은 자율주행차를 위한 간단하고 효율적인 모션 예측 기준선(SIMPL)을 제안합니다. 기존 에이전트 센트와 비교

FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 Apr 26, 2024 am 11:37 AM

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.

See all articles