목차
SLAM이란 무엇입니까" >SLAM이란 무엇입니까
레이저 SLAM과 시각적 SLAM" >레이저 SLAM과 시각적 SLAM
기술 주변기기 일체 포함 SLAM 기술을 자율주행에 적용한 내용을 다룬 기사

SLAM 기술을 자율주행에 적용한 내용을 다룬 기사

Apr 09, 2023 pm 01:11 PM
지능적인 자율주행

자율주행에서 포지셔닝은 대체할 수 없는 위치를 차지하고 있으며 앞으로도 발전 가능성이 높습니다. 현재 자율주행에서의 위치 확인은 RTK와 고정밀 지도에 의존하고 있어 자율주행 구현에 많은 비용과 어려움이 추가됩니다. 인간이 운전할 때 자신의 글로벌 고정밀 포지셔닝과 상세한 주변 환경을 알 필요가 없다고 상상해 보십시오. 글로벌 내비게이션 경로가 있고 경로에서 차량의 위치를 ​​일치시키는 것만으로도 충분합니다. SLAM 분야 핵심기술.

SLAM이란 무엇입니까

SLAM(Simultaneous Localization and Mapping), CML(동시 매핑 및 현지화), 실시간 위치 확인 및 지도 구성 또는 동시 매핑 및 위치 지정이라고도 합니다. 문제는 다음과 같이 설명할 수 있습니다. 로봇을 알 수 없는 환경의 알 수 없는 위치에 배치합니다. 로봇이 어느 방향으로 움직여야 할지 결정하면서 로봇이 점차적으로 완전한 환경 지도를 그리는 방법이 있습니까? 예를 들어, 청소 로봇은 매우 일반적인 SLAM 문제입니다. 소위 완전한 지도(일관된 지도)는 장애물 없이 방의 접근 가능한 모든 구석으로 이동할 수 있음을 의미합니다.

SLAM 기술을 자율주행에 적용한 내용을 다룬 기사

SLAM은 1988년 Smith, Self 및 Cheeseman에 의해 처음 제안되었습니다. 중요한 이론 및 응용 가치로 인해 많은 학자들은 이것이 진정한 완전 자율 이동 로봇을 실현하는 열쇠라고 간주합니다.

시뮬레이션된 인간이 낯선 환경에 오면 빠르게 환경에 익숙해지고 작업(예: 레스토랑 찾기, 호텔 찾기)을 완료하기 위해 다음을 순서대로 수행해야 합니다.

a. 건물, 큰 나무, 화단 등 주변의 랜드마크를 눈으로 관찰하고 그 특징을 기억하세요(특징 추출)

b. 쌍안경으로 얻은 정보를 바탕으로 자신의 마음 속에서 재구성해보세요. 3차원 지도 속의 특징적인 랜드마크(입체지도) 재구성)

c. 걸을 때 끊임없이 새로운 특징 랜드마크를 획득하고, 마음 속 지도 모델을 수정하세요(번들 조정 또는 EKF)

d. 얼마 전 랜드마크를 걸으면서 얻은 특징을 바탕으로 자신의 위치(궤적)를 결정합니다.

e 무심코 먼 길을 걸을 때 마음속의 이전 랜드마크와 일치시켜 보세요. 원래 경로로 돌아왔습니다(루프 폐쇄 감지). 실제로 이 단계는 선택 사항입니다. 위의 5가지 단계가 동시에 수행되므로 동시 현지화 및 매핑입니다.

레이저 SLAM과 시각적 SLAM

현재 SLAM에 사용되는 센서는 크게 라이더(LiDAR)와 카메라 두 가지로 구분됩니다. LiDAR는 각도 분해능과 정확도가 서로 다른 단일 라인 유형과 다중 라인 유형으로 나눌 수 있습니다.

SLAM 기술을 자율주행에 적용한 내용을 다룬 기사

VSLAM은 주로 카메라로 구현되는데, 카메라의 종류는 크게 단안, 쌍안, 단안 구조광, 쌍안 구조광, ToF로 구분됩니다. 그들의 핵심은 RGB와 깊이 맵(깊이 정보)을 얻는 것입니다. 제조 비용의 영향으로 인해 최근 몇 년 동안 시각적 SLAM이 점점 더 대중화되고 있으며 저가형 카메라를 통한 실시간 매핑 및 위치 확인도 기술적으로 매우 어렵습니다. 유망한 깊이 획득 방법인 ToF(Time of Flight)를 예로 들어 보겠습니다.

센서는 변조된 근적외선을 방출하며, 이는 물체를 만나면 반사됩니다. 센서는 빛 방출과 반사 사이의 시간차 또는 위상차를 계산하여 촬영된 장면의 거리를 변환하여 깊이 정보를 생성합니다. 레이더와 유사하거나 박쥐를 상상해 보세요. 소프트키네틱의 DS325는 ToF 솔루션(TI에서 설계)을 사용합니다. 그러나 수신기 미세구조는 셔터가 2개 이상으로 상대적으로 특수하며 ps 수준의 시간차를 측정할 수 있습니다. 그러나 단위 픽셀 크기가 일반적으로 100um이므로 현재 해상도는 높지 않습니다.

SLAM 기술을 자율주행에 적용한 내용을 다룬 기사

깊이 맵을 얻은 후 SLAM 알고리즘이 작동하기 시작합니다. 센서와 요구 사항이 다르기 때문에 SLAM의 표시 형식이 약간 다릅니다. 크게 레이저 SLAM(또한 2D와 3D로 구분됨)과 시각적 SLAM(또한 Sparse, semiDense, Dense로 구분됨)으로 나눌 수 있지만 주요 아이디어는 유사합니다.

SLAM 알고리즘 구현 요소

SLAM 기술은 매우 실용적이지만, 항상 정확한 위치 확인이 필요한 자율주행 분야에서는 SLAM 구현도 상당히 어렵습니다. 일반적으로 SLAM 알고리즘은 구현 시 다음 네 가지 측면을 주로 고려합니다.

1. 밀도가 높은 것과 희박한 것과 같은 지도 표현 문제는 실제 장면 요구 사항에 따라 선택해야 합니다.

2. 정보 인식 문제, 환경을 종합적으로 인식하는 방법을 고려해야 합니다. RGBD 카메라 FOV는 일반적으로 작지만 Lidar는 더 큽니다.

3. 시스템은 서로 다른 표현을 가지며 균일하게 처리되어야 합니다.

4. 위치 추정 및 구성 문제는 많은 수학적 문제, 물리적 모델 설정, 상태 추정 및 최적화를 포함하는 포즈 추정 및 모델링을 달성하는 방법을 나타냅니다. 문제, 탐사 문제(탐색), 납치 문제(납치).

SLAM 기술을 자율주행에 적용한 내용을 다룬 기사

현재 널리 사용되는 시각적 SLAM 프레임워크에는 주로 프런트엔드와 백엔드가 포함됩니다. 프레임 간의 변환 관계를 연구합니다.

먼저 이미지의 각 프레임의 특징점을 추출하고 인접한 프레임 이미지를 사용하여 특징점을 일치시킨 다음 RANSAC을 사용하여 큰 노이즈를 제거한 다음 매칭을 수행하여 포즈 정보(위치 및 자세)를 얻습니다. 동시에 IMU(Inertial 측정 장치(관성 측정 장치)에서 제공하는 백엔드 필터링 및 자세 정보 융합은 주로 필터링 이론(EKF, UKF, PF) 또는 최적화 이론을 사용하여 프런트 엔드 결과를 최적화합니다. TORO 및 G2O를 사용하여 트리 또는 그래프를 최적화합니다. 마지막으로 최적의 포즈 추정이 얻어집니다.

Backend

백엔드에는 더 많은 어려움이 있고 더 많은 수학적 지식이 필요합니다. 일반적으로 모든 사람이 천천히 전통적인 필터링 이론을 버리고 그래프 최적화로 전환했습니다.

필터링 이론에 기초하기 때문에 필터 안정성이 너무 빨리 증가하여 빈번한 반전이 필요한 EKF(확장 칼만 필터)의 PF에 많은 부담을 줍니다. 그래프 기반 SLAM은 일반적으로 키프레임을 기반으로 여러 노드와 아핀 변환 행렬과 같은 노드 간 상대적 변환 관계를 설정하고 키 노드를 지속적으로 유지하여 그래프가 정확성을 보장하면서 계산량을 줄이는 용량을 보장합니다. .

SLAM의 미래 자율주행 분야 적용

Slam 기술은 실내 이동 로봇, AR 장면, 드론 등 다양한 분야에서 좋은 결과를 얻었습니다. 자율주행 분야에서는 SLAM 기술이 큰 주목을 받지 못하는 한편, 현재 자율주행 산업의 대부분이 RTK를 통해 해결되기 때문에 심층적인 연구에 너무 많은 자원이 투자되지 않을 것입니다. , SLAM 기술이 아직 큰 주목을 받지 못한 이유도 현재의 기술이 아직 성숙하지 않았기 때문이다. 자율주행 등 생활 관련 분야에서는 어떤 신기술이든 시간의 시험을 통과해야 한다. 받아들여졌습니다. ㅋㅋㅋ SLAM 기술이 대중화됨에 따라 점점 더 많은 포지셔닝 인재들이 자율주행 분야로 몰려들어 자율주행에 새로운 활력을 불어넣고 새로운 기술 방향과 연구 분야를 가져올 것입니다.

위 내용은 SLAM 기술을 자율주행에 적용한 내용을 다룬 기사의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? 자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? Jan 17, 2024 pm 02:57 PM

위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? 자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? Jun 02, 2024 pm 02:44 PM

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 Jan 26, 2024 am 11:18 AM

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 ​​포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

날아다니는 것, 입을 벌리는 것, 쳐다보는 것, 눈썹을 치켜올리는 것 등의 얼굴 특징을 AI가 완벽하게 모방할 수 있어 영상사기 예방이 불가능하다. 날아다니는 것, 입을 벌리는 것, 쳐다보는 것, 눈썹을 치켜올리는 것 등의 얼굴 특징을 AI가 완벽하게 모방할 수 있어 영상사기 예방이 불가능하다. Dec 14, 2023 pm 11:30 PM

이렇게 강력한 AI 모방 능력을 가지고 있다면, 막는 것은 사실상 불가능합니다. 이제 AI의 발전이 이 정도 수준에 이르렀나? 앞발은 이목구비를 날리게 하고, 뒷발은 쳐다보는 것, 눈썹을 치켜올리는 것, 삐죽이는 것 등 아무리 과장된 표정이라도 완벽하게 흉내낸다. 난이도를 높이고, 눈썹을 더 높이 올리고, 눈을 크게 뜨고, 입 모양까지 비뚤어지게 표현하는 등 가상 캐릭터 아바타가 표정을 완벽하게 재현할 수 있다. 왼쪽의 매개변수를 조정하면 오른쪽의 가상 아바타도 그에 따라 움직임을 변경하여 입과 눈을 클로즈업하여 모방이 완전히 동일하다고는 할 수 없으며 표정만 정확합니다. 마찬가지다(맨 오른쪽). 이 연구는 GaussianAvatars를 제안하는 뮌헨 기술 대학과 같은 기관에서 나왔습니다.

자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! 자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! Feb 28, 2024 pm 07:20 PM

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 Feb 20, 2024 am 11:48 AM

원제목: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 논문 링크: https://arxiv.org/pdf/2402.02519.pdf 코드 링크: https://github.com/HKUST-Aerial-Robotics/SIMPL 저자 단위: Hong Kong University of Science 및 기술 DJI 논문 아이디어: 이 논문은 자율주행차를 위한 간단하고 효율적인 모션 예측 기준선(SIMPL)을 제안합니다. 기존 에이전트 센트와 비교

nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! Apr 17, 2024 pm 06:22 PM

전면 및 시작점 작성 엔드 투 엔드 패러다임은 통합 프레임워크를 사용하여 자율 주행 시스템에서 멀티 태스킹을 달성합니다. 이 패러다임의 단순성과 명확성에도 불구하고 하위 작업에 대한 엔드투엔드 자율 주행 방법의 성능은 여전히 ​​단일 작업 방법보다 훨씬 뒤떨어져 있습니다. 동시에 이전 엔드투엔드 방법에서 널리 사용된 조밀한 조감도(BEV) 기능으로 인해 더 많은 양식이나 작업으로 확장하기가 어렵습니다. 여기서는 희소 검색 중심의 엔드 투 엔드 자율 주행 패러다임(SparseAD)이 제안됩니다. 여기서 희소 검색은 밀집된 BEV 표현 없이 공간, 시간 및 작업을 포함한 전체 운전 시나리오를 완전히 나타냅니다. 특히 통합 스파스 아키텍처는 탐지, 추적, 온라인 매핑을 포함한 작업 인식을 위해 설계되었습니다. 게다가 무겁다.

엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? 엔드투엔드(End-to-End)와 차세대 자율주행 시스템, 그리고 엔드투엔드 자율주행에 대한 몇 가지 오해에 대해 이야기해볼까요? Apr 15, 2024 pm 04:13 PM

지난 달에는 몇 가지 잘 알려진 이유로 업계의 다양한 교사 및 급우들과 매우 집중적인 교류를 가졌습니다. 교환에서 피할 수 없는 주제는 자연스럽게 엔드투엔드와 인기 있는 Tesla FSDV12입니다. 저는 이 기회를 빌어 여러분의 참고와 토론을 위해 지금 이 순간 제 생각과 의견을 정리하고 싶습니다. End-to-End 자율주행 시스템을 어떻게 정의하고, End-to-End 해결을 위해 어떤 문제가 예상되나요? 가장 전통적인 정의에 따르면, 엔드 투 엔드 시스템은 센서로부터 원시 정보를 입력하고 작업과 관련된 변수를 직접 출력하는 시스템을 의미합니다. 예를 들어 이미지 인식에서 CNN은 기존의 특징 추출 + 분류기 방식에 비해 end-to-end 방식으로 호출할 수 있습니다. 자율주행 작업에서는 다양한 센서(카메라/LiDAR)로부터 데이터를 입력받아

See all articles