기술 주변기기 일체 포함 CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

Apr 08, 2023 pm 02:11 PM
자율주행

arXiv 논문 "CARLA 자율 주행 시뮬레이터에 실제 에이전트 행동 삽입", 스페인 6월 22일.

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

신속한 프로토타입 제작과 광범위한 테스트의 필요성으로 인해 자율 주행에서 시뮬레이션의 역할이 점점 더 중요해지고 있습니다. 물리 기반 시뮬레이션은 프로토타입 제작, 운전자 및 Vulnerable Road Users(VRU)의 위험을 제거하는 동시에 합리적인 비용으로 다양한 장점과 혜택을 제공합니다.

그러나 두 가지 주요 제한 사항이 있습니다. 첫째, 잘 알려진 현실 격차는 시뮬레이션된 자율 주행 경험이 효과적인 실제 성능을 달성하는 것을 방해하는 현실과 시뮬레이션의 차이를 의미합니다. 둘째, 백업 운전자나 승객, 차량, 보행자, 자전거 타는 사람과 같은 기타 도로 사용자를 포함한 실제 에이전트(인간)의 행동에 대한 경험적 지식이 부족합니다.

에이전트 시뮬레이션은 일반적으로 사전 프로그래밍되거나 확률적으로 무작위이거나 실제 데이터를 기반으로 생성되지만 특정 시뮬레이션 시나리오와 상호 작용하는 실제 에이전트의 동작을 나타내지는 않습니다. 본 논문에서는 실제 에이전트와 자율 차량을 포함한 시뮬레이션 환경 간의 실시간 상호 작용을 가능하게 하고, 행동 모델에 의존하는 예측 시스템 교육을 위해 여러 뷰에 걸쳐 시뮬레이션된 센서로부터 합성 시퀀스 데이터를 생성하는 예비 프레임워크를 제안합니다.

이 접근 방식은 자율 주행을 위해 몰입형 가상 현실(VR) 및 인간 모션 캡처(HMC) 시스템을 CARLA와 통합합니다. 하드웨어 및 소프트웨어 아키텍처를 설명하고 소위 동작 격차에 대해 논의합니다.

그림에 표시된 대로 방법에 대한 개요가 나와 있습니다. (1) CARLA-UE에는 머리(VR 헤드셋) 및 신체(모션 캡처 시스템) 포즈가 장착되어 있습니다. (2) 자율주행차, 디지털 보행자 등의 장면을 생성합니다. (3) 보행자에게 환경을 제공합니다(VR 헤드셋을 통해). (4) 자동 차량 센서는 보행자를 포함한 환경을 감지합니다.

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

다음은 CARLA 자율주행 시뮬레이터의 몰입형 VR 시스템의 기능을 소개합니다.

UE4와 VR 안경 및 모션 센서 세트와 같은 외부 하드웨어가 제공하는 기능을 활용하여 행동 및 상호 작용 연구를 수행하여 완전한 보행자 몰입감을 달성합니다.

CARLA 오픈 소스 시뮬레이터는 UE4에서 구현되어 고품질 렌더링, 사실적인 물리 환경 및 상호 운용 가능한 플러그인 생태계를 제공합니다. CARLA는 동적 교통 장면을 시뮬레이션하고 UE4로 생성된 가상 세계와 장면에서 실행되는 도로 에이전트 간의 인터페이스를 제공합니다. CARLA는 이를 달성하기 위해 서버가 시뮬레이션을 실행하고 장면을 렌더링하는 서버-클라이언트 시스템으로 설계되었습니다. 클라이언트와 서버 간의 통신은 소켓을 통해 이루어집니다.

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

시뮬레이션에 실제 에이전트 동작을 삽입하는 주요 특징은 5가지 점을 기반으로 합니다(그림 참조). 1) Avatar 제어: CARLA 블루프린트 라이브러리, 모든 역할 및 속성의 아키텍처를 수집하고 수정합니다. 2) 신체 추적: 관성 센서 세트와 독점 외부 소프트웨어를 사용하여 실제 장면을 통해 피사체의 움직임과 모션 인식을 캡처하고 아바타의 .bvh 파일을 통한 움직임 시뮬레이터에 통합됨 3) 사운드 디자인: CARLA는 오디오가 없는 시뮬레이터이므로 몰입도를 높이기 위해 위치 사운드가 환경에 도입됩니다. 4) eHMI 통합: 자율 차량 상태 통신 가능 5) Scene Simulation: CARLA 클라이언트에서 교통 장면을 디자인하여 차량과 보행자의 행동을 제어합니다.

도로 이용자 간의 소통은 교통환경에 있어서 중요한 요소입니다. 실험에서는 자율주행차가 실제 도로 사용자에게 상태와 의도를 전달할 수 있도록 외부 인간-기계 인터페이스(eHMI)를 제공했습니다.

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

그림에 표시된 것처럼 제안된 eHMI 디자인은 자동차 전면을 따라 있는 라이트 스트립으로 구성됩니다. 왼쪽 사진은 eHMI가 없는 사진이고, 오른쪽 사진은 eHMI가 있는 사진입니다. 이를 통해 가상 장면에서 보행자 궤적이 차량 궤적과 수렴할 때 인터페이스가 의사 결정에 미치는 영향을 연구할 수 있습니다.

전체 시스템 아키텍처는 그림에 표시되어 있습니다.

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

CARLA는 교통 및 특정 교통 시나리오를 시뮬레이션하는 다양한 옵션을 제공합니다. 교통 관리 모듈을 사용하여 현실적인 도시 교통 상황으로 시뮬레이션을 채웁니다. 각 차량의 제어는 특정 스레드에서 실행됩니다. 다른 계층과의 통신은 동기 메시징을 통해 관리됩니다.

특정 동작을 강제하는 매개변수를 설정하여 트래픽 흐름을 제어하세요. 예를 들어 자동차의 속도를 높이거나, 신호등 상태를 무시하거나, 보행자를 무시하거나, 차선 변경을 강제할 수 있습니다.

본체는 도시의 3D 모델 지도를 포함한 시뮬레이터에 통합되어 있습니다. 각 지도는 완전히 주석이 달린 도로 레이아웃을 설명하는 OpenDRIVE 파일을 기반으로 합니다. 이 기능을 사용하면 자신만의 지도를 디자인하고, 실제 환경과 가상 환경에서 동일한 교통 시나리오를 재현하고, 시뮬레이터의 실제 동작 통합을 평가하고, 상호 작용 결과를 비교하여 현장 연구를 수행할 수 있습니다.

하드웨어 설정은 그림과 같습니다. 실험 동안 Oculus Quest 2는 Meta에서 만든 머리 장착형 장치(HMD), 6GB RAM 프로세서, 조정 가능한 1832 x 1920 렌즈 2개, 90Hz 새로 고침 빈도 및 256GB 메모리. Quest 2는 Wi-Fi 6, Bluetooth 5.1 및 USB Type-C 연결, SteamVR 지원 및 3D 스피커를 갖추고 있습니다. 전신 추적의 경우 관성 추적기를 사용하여 PNS로 솔루션을 패키징합니다. 키트에는 독립형 VR 헤드셋, 모션 컨트롤러 2개, Studio 관성체 센서 17개, 스트랩 14세트, 충전 케이스 및 Studio 트랜시버가 포함되어 있습니다.

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

CARLA 빌드와 Quest 2는 Windows에만 의존하기 때문에 VR Immersion System은 현재 UE4.24 및 Windows 10 운영 체제를 사용합니다. TCP 소켓 플러그인을 사용하면 모든 참가자의 편집자 위치와 기타 유용한 매개변수가 Python API에서 전송되어 각 참가자의 음성이나 자율주행차의 eHMI를 통합합니다. "VR 미리보기"는 HMD에서 게임을 시작합니다. Perception Neuron Studio는 한 번에 최대 3개의 피사체와 23개의 신체 및 손가락 센서를 동시에 지원하는 Axis Studio와 함께 작동합니다.

사진은 대화형 교통 상황의 시뮬레이션을 보여줍니다. (a) 3D 세계 디자인. (b) 보행자 매칭 집행자 아바타. (c) 자율주행차. (d) 환경음과 지능음. (e) eHMI. (f) 신호등 및 교통표지판.

CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가

위 내용은 CARLA 자율 주행 시뮬레이터에 실제 에이전트 동작 추가의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? 자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? Jan 17, 2024 pm 02:57 PM

위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? 자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? Jun 02, 2024 pm 02:44 PM

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 Jan 26, 2024 am 11:18 AM

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 ​​포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

좌표계 변환을 실제로 마스터하셨나요? 자율주행에 필수불가결한 멀티센서 이슈 좌표계 변환을 실제로 마스터하셨나요? 자율주행에 필수불가결한 멀티센서 이슈 Oct 12, 2023 am 11:21 AM

첫 번째 파일럿 및 주요 기사에서는 주로 자율 주행 기술에서 일반적으로 사용되는 여러 좌표계를 소개하고 이들 간의 상관 관계 및 변환을 완료하고 최종적으로 통합 환경 모델을 구축하는 방법을 소개합니다. 여기서 초점은 차량에서 카메라 강체로의 변환(외부 매개변수), 카메라에서 이미지로의 변환(내부 매개변수), 이미지에서 픽셀 단위로의 변환을 이해하는 것입니다. 3D에서 2D로의 변환에는 해당 왜곡, 변환 등이 포함됩니다. 요점: 차량 좌표계와 카메라 본체 좌표계를 다시 작성해야 합니다. 평면 좌표계와 픽셀 좌표계 난이도: 이미지 평면에서 왜곡 제거와 왜곡 추가를 모두 고려해야 합니다. 2. 소개 좌표계에는 픽셀 평면 좌표계(u, v), 이미지 좌표계(x, y), 카메라 좌표계(), 월드 좌표계() 등 총 4가지 비전 시스템이 있습니다. 각 좌표계 사이에는 관계가 있으며,

자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! 자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! Feb 28, 2024 pm 07:20 PM

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! Apr 17, 2024 pm 06:22 PM

전면 및 시작점 작성 엔드 투 엔드 패러다임은 통합 프레임워크를 사용하여 자율 주행 시스템에서 멀티 태스킹을 달성합니다. 이 패러다임의 단순성과 명확성에도 불구하고 하위 작업에 대한 엔드투엔드 자율 주행 방법의 성능은 여전히 ​​단일 작업 방법보다 훨씬 뒤떨어져 있습니다. 동시에 이전 엔드투엔드 방법에서 널리 사용된 조밀한 조감도(BEV) 기능으로 인해 더 많은 양식이나 작업으로 확장하기가 어렵습니다. 여기서는 희소 검색 중심의 엔드 투 엔드 자율 주행 패러다임(SparseAD)이 제안됩니다. 여기서 희소 검색은 밀집된 BEV 표현 없이 공간, 시간 및 작업을 포함한 전체 운전 시나리오를 완전히 나타냅니다. 특히 통합 스파스 아키텍처는 탐지, 추적, 온라인 매핑을 포함한 작업 인식을 위해 설계되었습니다. 게다가 무겁다.

SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 Feb 20, 2024 am 11:48 AM

원제목: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 논문 링크: https://arxiv.org/pdf/2402.02519.pdf 코드 링크: https://github.com/HKUST-Aerial-Robotics/SIMPL 저자 단위: Hong Kong University of Science 및 기술 DJI 논문 아이디어: 이 논문은 자율주행차를 위한 간단하고 효율적인 모션 예측 기준선(SIMPL)을 제안합니다. 기존 에이전트 센트와 비교

엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? 엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? Apr 15, 2024 pm 04:13 PM

지난 달에는 몇 가지 잘 알려진 이유로 업계의 다양한 교사 및 급우들과 매우 집중적인 교류를 가졌습니다. 교환에서 피할 수 없는 주제는 자연스럽게 엔드투엔드와 인기 있는 Tesla FSDV12입니다. 저는 이 기회를 빌어 여러분의 참고와 토론을 위해 지금 이 순간 제 생각과 의견을 정리하고 싶습니다. End-to-End 자율주행 시스템을 어떻게 정의하고, End-to-End 해결을 위해 어떤 문제가 예상되나요? 가장 전통적인 정의에 따르면, 엔드 투 엔드 시스템은 센서로부터 원시 정보를 입력하고 작업과 관련된 변수를 직접 출력하는 시스템을 의미합니다. 예를 들어 이미지 인식에서 CNN은 기존의 특징 추출 + 분류기 방식에 비해 end-to-end 방식으로 호출할 수 있습니다. 자율주행 작업에서는 다양한 센서(카메라/LiDAR)로부터 데이터를 입력받아

See all articles