자율주행을 위해 탄생한 Lightning NeRF: 10배 더 빨라짐
위 작성 및 저자의 개인적인 이해
최근 연구에서는 자율 주행 환경에서 NeRF의 적용 가능성을 강조했습니다. 그러나 운전 장면의 제한된 시점과 결합된 실외 환경의 복잡성으로 인해 장면 형상을 정확하게 재구성하는 작업이 복잡해집니다. 이러한 문제로 인해 재구성 품질이 저하되고 훈련 및 렌더링 기간이 길어지는 경우가 많습니다. 이러한 과제를 해결하기 위해 우리는 Lightning NeRF를 출시했습니다. 자율 주행 시나리오에서 라이더의 기하학적 사전점을 효과적으로 활용하는 효율적인 하이브리드 장면 표현을 사용합니다. Lightning NeRF는 NeRF의 새로운 뷰 합성 성능을 크게 향상시키고 계산 오버헤드를 줄입니다. KITTI-360, Argoverse2와 같은 실제 데이터 세트 및 개인 데이터 세트에 대한 평가를 통해 우리의 방법이 새로운 뷰 합성 품질에서 현재의 최첨단 기술을 능가할 뿐만 아니라 훈련 속도도 향상됨을 입증합니다. 2배 더 빠르고 렌더링도 10배 더 빠릅니다. H 코드 링크: https://gision-sjtu/lightning-insf
Lightning Nerf
preliminaries
nerf 함수 시나리오 접근 방식에 대한 자세한 설명, 이러한 암시적 함수는 일반적으로 다음과 같이 매개변수화됩니다. MLP. 보는 방향 d를 기준으로 장면 내 3D 지점 x의 색상 값 c와 볼륨 밀도 예측 σ를 반환할 수 있습니다.
픽셀을 렌더링하기 위해 NeRF는 계층적 볼륨 샘플링을 사용하여 광선 r을 따라 일련의 점을 생성한 다음 축적을 통해 이러한 위치에서 예측된 밀도와 색상 특징을 결합합니다.
NeRF는 새로운 관점 합성에서 좋은 성능을 발휘하지만, 긴 훈련 시간과 느린 렌더링 속도는 주로 샘플링 전략의 비효율성으로 인해 발생합니다. 모델의 효율성을 향상시키기 위해 훈련 중에 대략적인 그리드 점유를 유지하고 점유된 볼륨 내의 샘플 위치만 유지합니다. 이 샘플링 전략은 기존 작업과 유사하며 모델 성능을 향상하고 훈련 속도를 높이는 데 도움이 됩니다.
하이브리드 장면 표현
하이브리드 볼륨 표현이 컴팩트 모델을 사용하여 최적화되고 빠르게 렌더링되었습니다. 이를 고려하여 우리는 효율성을 향상시키기 위해 방사선장을 모델링하기 위해 하이브리드 복셀 그리드 표현을 채택했습니다. 간단히 말해서, 메쉬 정점에 σ를 저장하고 얕은 MLP를 사용하여 f를 최종 색상 c에 암시적으로 디코딩하여 체적 밀도를 명시적으로 모델링합니다. 실외 환경의 경계 없는 특성을 처리하기 위해 그림 2와 같이 장면 표현을 전경과 배경의 두 부분으로 나눕니다. 구체적으로, 우리는 궤적 시퀀스의 각 프레임에서 카메라 절두체를 검사하고 정렬된 좌표계의 모든 절두체를 단단히 감싸도록 전경 경계 상자를 정의합니다. 배경 상자는 각 차원에 따라 전경 상자의 크기를 확대하여 얻습니다.
복셀 그리드 표현
. 복셀 메시 표현은 효율적인 기능 쿼리를 지원하기 위해 메시 정점에 장면 속성(예: 밀도, RGB 색상 또는 기능)을 명시적으로 저장합니다. 이렇게 하면 주어진 3D 위치에 대해 삼선형 보간법(
foreground
배경 앞서 언급한 전경 모델링은 물체 수준의 방사선장에 대해 작동하지만 이를 무한한 야외 장면으로 확장하는 것은 쉽지 않습니다. NGP와 같은 일부 관련 기술은 배경 영역이 포함될 수 있도록 장면 경계 상자를 직접 확장하는 반면, GANcraft 및 URF는 이 문제를 해결하기 위해 구형 배경 복사를 도입합니다. 그러나 이전 시도에서는 장면 상자 내의 대부분의 영역이 배경 장면에 사용되었으므로 기능이 낭비되었습니다. 후자 방식의 경우 배경 복사가 뷰 방향에만 의존한다고 단순히 가정하기 때문에 도시 장면(예: 기복이 있는 건물 또는 복잡한 풍경)의 복잡한 파노라마를 처리하지 못할 수 있습니다.
이를 위해 전경 부분의 해상도를 일정하게 유지하기 위해 추가 배경 메시 모델을 설정했습니다. 우리는 세심하게 디자인된 배경으로 [9]의 장면 매개변수화를 채택합니다. 첫째, 역구형 모델링과 달리 복셀 그리드 표현을 사용하므로 ℓ Infini Norm을 사용하는 역입방 모델링을 사용합니다. 둘째, 메모리를 절약하기 위해 배경색을 쿼리하기 위해 추가 MLP를 인스턴스화하지 않습니다. 특히 효율적인 복셀 그리드 표현에서 직접 시작할 때 계산 집약적인 하이브리드 장면 표현을 사용하여
LiDAR 초기화
을 통해 3D 배경 점을 4D로 워프합니다. 이 모델은 다음과 같은 경우 계산과 메모리를 절약할 수 있습니다. MLP는 밀도 값을 쿼리합니다. 그러나 도시 장면의 대규모 특성과 복잡성을 고려할 때 이 경량 표현은 밀도 그리드의 제한된 해상도로 인해 최적화 중에 로컬 최소값에 쉽게 멈출 수 있습니다. 다행스럽게도 자율 주행에서 대부분의 자율 주행 차량(SDV)에는 장면 재구성을 위한 대략적인 기하학적 사전 정보를 제공하는 LiDAR 센서가 장착되어 있습니다. 이를 위해 장면 형상과 방사능의 공동 최적화에 대한 장애물을 완화하기 위해 LiDAR 포인트 클라우드를 사용하여 밀도 메시를 초기화할 것을 제안합니다.
색상 분해
원래 NeRF는 방사선 필드의 색상을 모델링하기 위해 뷰 의존적 MLP를 사용했습니다. 이는 방사선이 확산(뷰 독립적) 색상과 반사(뷰 관련) 색상으로 구성되는 물리적 세계를 단순화한 것입니다. 구성. 더욱이, 최종 출력 색상 c는 보는 방향 d와 완전히 얽혀 있기 때문에 보이지 않는 시야에서 충실도가 높은 이미지를 렌더링하기가 어렵습니다. 그림 3에서 볼 수 있듯이, 색상 분해(CD) 없이 훈련된 방법은 외삽 설정(즉, 훈련 보기를 기준으로 보기 방향을 왼쪽으로 2미터 이동)의 새로운 보기 합성에서 실패하는 반면, 색상 분해된 방법은 케이스는 합리적인 렌더링 결과를 제공합니다.
샘플링된 위치의 최종 색상은 다음 두 요소의 합입니다.
훈련 손실
모델을 최적화하기 위해 재조정된 가중치 wi를 사용하여 광도 손실을 수정합니다. 빠른 수렴을 달성하려면 단단한 샘플에 집중하세요. 중량 계수는 다음과 같이 정의됩니다.
Pictures
Experiment
결론
이 논문에서는 포인트 클라우드와 이미지를 통합하는 효율적인 실외 장면 뷰 합성 프레임워크인 Lightning NeRF를 소개합니다. 제안된 방법은 포인트 클라우드를 활용하여 장면의 희박한 표현을 신속하게 초기화하여 상당한 성능과 속도 향상을 달성합니다. 배경을 보다 효율적으로 모델링함으로써 전경의 표현상의 부담을 줄입니다. 마지막으로 색상 분해를 통해 뷰 관련 색상과 뷰 독립적 색상을 별도로 모델링하여 모델의 외삽 능력을 향상시킵니다. 다양한 자율 주행 데이터 세트에 대한 광범위한 실험을 통해 우리의 접근 방식이 성능 및 효율성 측면에서 이전의 최첨단 기술보다 우수하다는 것을 보여줍니다.
위 내용은 자율주행을 위해 탄생한 Lightning NeRF: 10배 더 빨라짐의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

첫 번째 파일럿 및 주요 기사에서는 주로 자율 주행 기술에서 일반적으로 사용되는 여러 좌표계를 소개하고 이들 간의 상관 관계 및 변환을 완료하고 최종적으로 통합 환경 모델을 구축하는 방법을 소개합니다. 여기서 초점은 차량에서 카메라 강체로의 변환(외부 매개변수), 카메라에서 이미지로의 변환(내부 매개변수), 이미지에서 픽셀 단위로의 변환을 이해하는 것입니다. 3D에서 2D로의 변환에는 해당 왜곡, 변환 등이 포함됩니다. 요점: 차량 좌표계와 카메라 본체 좌표계를 다시 작성해야 합니다. 평면 좌표계와 픽셀 좌표계 난이도: 이미지 평면에서 왜곡 제거와 왜곡 추가를 모두 고려해야 합니다. 2. 소개 좌표계에는 픽셀 평면 좌표계(u, v), 이미지 좌표계(x, y), 카메라 좌표계(), 월드 좌표계() 등 총 4가지 비전 시스템이 있습니다. 각 좌표계 사이에는 관계가 있으며,

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

원제목: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 논문 링크: https://arxiv.org/pdf/2402.02519.pdf 코드 링크: https://github.com/HKUST-Aerial-Robotics/SIMPL 저자 단위: Hong Kong University of Science 및 기술 DJI 논문 아이디어: 이 논문은 자율주행차를 위한 간단하고 효율적인 모션 예측 기준선(SIMPL)을 제안합니다. 기존 에이전트 센트와 비교

전면 및 시작점 작성 엔드 투 엔드 패러다임은 통합 프레임워크를 사용하여 자율 주행 시스템에서 멀티 태스킹을 달성합니다. 이 패러다임의 단순성과 명확성에도 불구하고 하위 작업에 대한 엔드투엔드 자율 주행 방법의 성능은 여전히 단일 작업 방법보다 훨씬 뒤떨어져 있습니다. 동시에 이전 엔드투엔드 방법에서 널리 사용된 조밀한 조감도(BEV) 기능으로 인해 더 많은 양식이나 작업으로 확장하기가 어렵습니다. 여기서는 희소 검색 중심의 엔드 투 엔드 자율 주행 패러다임(SparseAD)이 제안됩니다. 여기서 희소 검색은 밀집된 BEV 표현 없이 공간, 시간 및 작업을 포함한 전체 운전 시나리오를 완전히 나타냅니다. 특히 통합 스파스 아키텍처는 탐지, 추적, 온라인 매핑을 포함한 작업 인식을 위해 설계되었습니다. 게다가 무겁다.

지난 달에는 몇 가지 잘 알려진 이유로 업계의 다양한 교사 및 급우들과 매우 집중적인 교류를 가졌습니다. 교환에서 피할 수 없는 주제는 자연스럽게 엔드투엔드와 인기 있는 Tesla FSDV12입니다. 저는 이 기회를 빌어 여러분의 참고와 토론을 위해 지금 이 순간 제 생각과 의견을 정리하고 싶습니다. End-to-End 자율주행 시스템을 어떻게 정의하고, End-to-End 해결을 위해 어떤 문제가 예상되나요? 가장 전통적인 정의에 따르면, 엔드 투 엔드 시스템은 센서로부터 원시 정보를 입력하고 작업과 관련된 변수를 직접 출력하는 시스템을 의미합니다. 예를 들어 이미지 인식에서 CNN은 기존의 특징 추출 + 분류기 방식에 비해 end-to-end 방식으로 호출할 수 있습니다. 자율주행 작업에서는 다양한 센서(카메라/LiDAR)로부터 데이터를 입력받아
