자율주행 관성항법 기술에 대해 얼마나 알고 계시나요?
관성 내비게이션은 일반적으로 GPS 장비에 통합되며 공급업체에 의해 통합됩니다. 그렇다면 여기서 논의할 필요가 있는 것은 차량이 주행할 때 GPS와 차량의 요율 및 속도 신호를 얻을 수 있다는 것입니다. 자체적으로도 요레이트와 속도를 얻기 위한 일련의 센서가 있으며, 궤적 추정은 자율 주행의 중요한 부분이므로 관성 항법의 작동 원리를 이해하면 신체 기반 궤적 추정에 도움이 될 수 있습니다.
관성 내비게이션
현재 GNSS+IMU로 구성된 복합 내비게이션 시스템이 주류 측위 시스템 솔루션입니다. 관성 내비게이션 시스템은 완전한 6자유도 데이터를 출력할 수 있는 유일한 장치입니다. 데이터 업데이트 빈도가 높으며 가장 중요한 위치 결정 정보입니다.
관성항법에 사용되는 핵심 알고리즘은 주로 3가지 유형이 있습니다: 1. 관성항법 솔루션 알고리즘 2. 통합항법의 칼만 필터 결합. 3. 환경지물정보와 관성항법의 통합.
통합 항법 시스템 핵심 알고리즘 프레임워크
하드웨어 및 원리
관성 항법 시스템(INS)은 관성 센서(IMU)를 사용하여 항법 장치의 특정 힘과 각속도 정보를 측정합니다. GNSS와 같은 시스템의 정보와 특정 초기 조건을 통합하여 속도, 위치, 자세 및 기타 매개변수를 실시간으로 계산하는 자율 항법 시스템을 수행합니다. 구체적으로 관성항법시스템은 추측항법(Dead Reckoning Navigation)의 한 종류이다. 즉, 지속적으로 측정된 캐리어의 침로각과 속도를 바탕으로 기지점의 위치로부터 다음 지점의 위치를 계산함으로써 이동체의 현재 위치를 지속적으로 측정할 수 있다.
관성 시스템 작동 원리 다이어그램
관성 항법 시스템은 가속도계와 자이로스코프 센서를 사용하여 캐리어의 동작 매개변수를 측정합니다. 세 개의 수직으로 배열된 자이로스코프는 세 개의 좌표축을 중심으로 캐리어의 각속도를 측정하는 데 사용되며 지구 회전의 각속도에도 민감합니다.
가속도계는 뉴턴의 제2법칙을 기반으로 하며 용량성, 압저항성 또는 열 대류 원리를 사용하여 가속 중에 질량 블록의 해당 관성력을 측정하여 가속도 값을 얻습니다. 움직이는 몸체 좌표계에서 각 축의 가속도를 측정하는 데 사용됩니다.
관성 시스템 작동 원리 다이어그램
관성 항법은 자이로스코프에서 측정한 각속도와 좌표 변환을 통합하여 차체의 자세각(롤, 피치각)과 방위각을 계산합니다. 각 좌표축의 중력 가속도 성분은 자세각을 기준으로 계산할 수 있으며, 가속도계에서 측정한 각 축의 가속도를 중력 가속도 성분을 뺀 후 적분하여 속도와 위치를 구합니다. 관성항법으로 계산된 상태는 차량의 현재 위치를 예측하는 데 사용되며, 이후 위성 측위 수신기에서 얻은 위치(또는 관측 데이터)와 비교됩니다. 비교된 편차에는 관성 항법 추정 오류와 위성 수신기 위치 오류가 포함되며, 데이터 융합 알고리즘을 통해 가중치를 부여한 후 관성 항법 예측을 수정하는 데 사용되므로 관성 항법 예측이 점점 더 정확해집니다.
관성 항법 솔루션 알고리즘
일반적으로 다음 단계로 나뉩니다.
- 자세 업데이트: 자이로스코프의 각속도 출력을 통합하여 마지막 자세에 중첩되는 자세 증분을 얻습니다.
- 좌표 변환: IMU 캐리어 좌표계에서 위치 및 속도 솔루션 좌표계로( 관성 좌표계 );
- 속도 업데이트: 관성 시스템에서 가속도를 구하려면 중력 가속도 제거를 고려해야 하며 적분을 통해 속도를 구해야 합니다.
- 위치 업데이트: 속도를 통해 위치를 구합니다. 완성.
관성 항법 솔루션 알고리즘의 개략도
관성 항법에서 항법 방정식의 각 반복은 마지막 항법 결과를 초기 값으로 사용해야 하므로 관성 항법의 초기화는 다음과 같습니다. 더 중요한 부분 중 하나입니다. 자세 정렬은 IMU의 롤, 피치, 요를 얻는 것을 의미합니다. 롤과 피치의 정렬 과정을 일반적으로 레벨링이라고 합니다. 자동차가 정지해 있을 때 가속도계로 측정된 비력은 중력에 의해서만 발생하며 이는 매우 고정밀 IMU의 경우 f=C*g로 해결될 수 있으며 자동차가 정지해 있을 때는 나침반 정렬 방법을 사용할 수 있습니다. 정지 상태에서 캐리어 시스템에서 측정된 특정 힘은 다음과 같습니다. 지구의 자전은 캐리어의 방향(요)을 결정하는 데 사용됩니다.
관성 항법 초기화 회로도
통합 항법을 위한 Kalman 필터 결합
Kalman 필터 결합을 사용하여 IMU와 GNSS, 즉 포인트 클라우드 위치 결정 결과를 융합합니다. 느슨한 결합과 긴밀한 결합의 두 가지 방법으로 나눌 수 있습니다.
느슨한 결합 필터는 위치와 속도 측정값의 차이와 계산된 위치와 속도를 칼만 필터의 수량 측정값인 결합 탐색 필터의 입력으로 사용합니다. 긴밀하게 결합된 데이터에는 GNSS 내비게이션 매개변수, 위치 확인 시 의사 거리, 거리 변경 등이 포함됩니다.
칼만 필터의 느슨하게 결합된 회로도
밀하게 결합된 칼만 필터의 회로도
칼만 필터 루즈의 장단점 비교 커플링 및 타이트 커플링
바이두 아폴로(Baidu Apollo)에서 사용하는 관성 항법 시스템을 예로 들면, 느슨한 커플링 방식을 채택하고 오류 칼만 필터를 사용합니다. 관성항법 솔루션의 결과는 칼만 필터의 시간 업데이트, 즉 예측에 사용되며, GNSS 및 포인트 클라우드 위치 확인 결과는 칼만 필터의 측정 업데이트에 사용됩니다. 칼만 필터는 관성 항법 모듈을 수정하기 위해 위치, 속도, 자세 오류를 출력하며, IMU 기간 동안의 오류는 원본 IMU 데이터를 보상하는 데 사용됩니다.
바이두 아폴로 칼만 필터의 느슨한 결합
칼만 필터 융합 다이어그램
환경 특성 정보와 관성 항법의 통합
현재 일반적으로 사용되는 GNSS+IMU 결합 관성 항법 솔루션은 일부 시나리오에서 위치 정확도 및 안정성 측면에서 여전히 자율 주행 요구 사항을 완전히 충족할 수 없습니다. 예를 들어, 도시 건물군, 지하 차고 등 GNSS 신호가 오랫동안 약한 시나리오에서는 GNSS 신호에 의존하여 정확한 위치를 업데이트하는 것은 충분히 안정적이지 않습니다. 따라서 새로운 정밀 위치 업데이트 데이터 소스를 도입하고 LiDAR를 사용해야 합니다. /lidar/ 시각 감지 포지셔닝과 기타 환경 정보를 포지셔닝에 통합하는 것은 피할 수 없는 추세가 되었습니다.
통합 내비게이션 및 환경 인식 정보 융합을 위한 아키텍처의 개략도
Baidu Apollo의 다중 센서 융합 측위 시스템 솔루션을 예로 들면 관성 내비게이션 시스템이 중심에 있습니다. 포지셔닝 모듈은 IMU, GNSS, Lidar 및 기타 포지셔닝 정보를 통합하고 관성 항법 시스템을 통해 이를 해결하고 수정하며 최종적으로 자율 주행 요구 사항을 충족하는 6 자유도의 고정밀 위치 정보를 출력합니다.
Baidu Apollo의 관성 핵융합 포지셔닝 모듈 프레임워크
위 내용은 자율주행 관성항법 기술에 대해 얼마나 알고 계시나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

원제목: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 논문 링크: https://arxiv.org/pdf/2402.02519.pdf 코드 링크: https://github.com/HKUST-Aerial-Robotics/SIMPL 저자 단위: Hong Kong University of Science 및 기술 DJI 논문 아이디어: 이 논문은 자율주행차를 위한 간단하고 효율적인 모션 예측 기준선(SIMPL)을 제안합니다. 기존 에이전트 센트와 비교

전면 및 시작점 작성 엔드 투 엔드 패러다임은 통합 프레임워크를 사용하여 자율 주행 시스템에서 멀티 태스킹을 달성합니다. 이 패러다임의 단순성과 명확성에도 불구하고 하위 작업에 대한 엔드투엔드 자율 주행 방법의 성능은 여전히 단일 작업 방법보다 훨씬 뒤떨어져 있습니다. 동시에 이전 엔드투엔드 방법에서 널리 사용된 조밀한 조감도(BEV) 기능으로 인해 더 많은 양식이나 작업으로 확장하기가 어렵습니다. 여기서는 희소 검색 중심의 엔드 투 엔드 자율 주행 패러다임(SparseAD)이 제안됩니다. 여기서 희소 검색은 밀집된 BEV 표현 없이 공간, 시간 및 작업을 포함한 전체 운전 시나리오를 완전히 나타냅니다. 특히 통합 스파스 아키텍처는 탐지, 추적, 온라인 매핑을 포함한 작업 인식을 위해 설계되었습니다. 게다가 무겁다.

지난 달에는 몇 가지 잘 알려진 이유로 업계의 다양한 교사 및 급우들과 매우 집중적인 교류를 가졌습니다. 교환에서 피할 수 없는 주제는 자연스럽게 엔드투엔드와 인기 있는 Tesla FSDV12입니다. 저는 이 기회를 빌어 여러분의 참고와 토론을 위해 지금 이 순간 제 생각과 의견을 정리하고 싶습니다. End-to-End 자율주행 시스템을 어떻게 정의하고, End-to-End 해결을 위해 어떤 문제가 예상되나요? 가장 전통적인 정의에 따르면, 엔드 투 엔드 시스템은 센서로부터 원시 정보를 입력하고 작업과 관련된 변수를 직접 출력하는 시스템을 의미합니다. 예를 들어 이미지 인식에서 CNN은 기존의 특징 추출 + 분류기 방식에 비해 end-to-end 방식으로 호출할 수 있습니다. 자율주행 작업에서는 다양한 센서(카메라/LiDAR)로부터 데이터를 입력받아

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.
