목차
1. 다시 쓴 네르프의 작품. 내용은 다음과 같습니다: NeRF: 뷰 합성을 위한 장면의 신경 방사선장 표현. ECCV2020
CVPR2020의 연구 콘텐츠는 경계 없는 야외 장면에 관한 것입니다. 그중 Mip-NeRF 360: 무한한 안티 앨리어싱 신경 방사선 분야는 연구 방향 중 하나입니다
" >다시 작성해야 하는 내용은 다음과 같습니다. "명시적 복셀과 암시적 특징의 하이브리드 장면 표현(SIGGRAPH 2022)"
6.Co-SLAM
7. Neuralangelo
8.MARS
정말 뛰어난 제품입니다. UniSim: 신경 폐쇄 루프 센서 시뮬레이터
기술 주변기기 일체 포함 NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

Nov 14, 2023 pm 03:09 PM
자율주행 종이

Neural Radiance Fields가 2020년에 제안된 이후 관련 논문의 수가 기하급수적으로 증가했습니다. 이는 3차원 재구성의 중요한 분기 방향이 되었을 뿐만 아니라 자율화를 위한 중요한 도구로서 연구 분야에서도 점차 활발해졌습니다. 운전.

NeRF는 지난 2년 동안 갑자기 등장했습니다. 주로 특징점 추출 및 일치, 에피폴라 기하학 및 삼각측량, PnP 플러스 번들 조정 및 기존 CV 재구성 파이프라인의 기타 단계를 건너뛰고 심지어 메시 재구성, 매핑 및 2D 입력 이미지에서 직접 복사장을 학습한 다음, 복사장에서 실제 사진에 가까운 렌더링 이미지를 출력합니다. 즉, 신경망을 기반으로 한 암시적 3D 모델을 지정된 관점에서 2D 이미지에 맞추고 새로운 관점 합성과 기능을 모두 갖도록 만듭니다. NeRF의 개발은 자율주행과도 밀접한 관련이 있으며, 이는 특히 실제 장면 재구성 및 자율주행 시뮬레이터의 적용에 반영됩니다. NeRF는 사진 수준의 이미지를 렌더링하는 데 능숙하므로 NeRF로 모델링된 거리 장면은 자율 주행을 위한 매우 사실적인 훈련 데이터를 제공할 수 있습니다. NeRF 지도를 편집하여 현실에서 캡처하기 어려운 다양한 코너에 건물, 차량 및 보행자를 결합할 수 있습니다. 케이스는 인식, 계획, 장애물 회피와 같은 알고리즘의 성능을 테스트하는 데 사용될 수 있습니다. 따라서 NeRF는 3D 재구성의 한 분야이자 모델링 도구입니다. NeRF를 마스터하는 것은 재구성이나 자율 주행을 수행하는 연구자에게 없어서는 안 될 기술이 되었습니다.

오늘은 네르프와 자율주행에 관련된 내용을 정리해보겠습니다. 약 11개의 기사를 통해 네르프와 자율주행의 과거와 현재를 살펴보겠습니다.

1. 다시 쓴 네르프의 작품. 내용은 다음과 같습니다: NeRF: 뷰 합성을 위한 장면의 신경 방사선장 표현. ECCV2020

의 첫 번째 기사에서는 복잡한 장면을 합성하기 위한 최신 뷰 결과를 얻기 위해 기본 연속 볼륨 장면 기능을 최적화하기 위해 희소 입력 뷰 세트를 사용하는 Nerf 방법이 제안되었습니다. 이 알고리즘은 장면을 표현하기 위해 완전히 연결된(비컨벌루션) 심층 네트워크를 사용하며, 입력은 단일 연속 5D 좌표(공간 위치(x, y, z) 및 보기 방향(θ, ξ) 포함)이고 출력은 는 볼륨 밀도 및 뷰 관련 방출 방사선의 공간 위치입니다.

NERF는 2D 포즈 이미지를 감독으로 사용합니다. 대신 이미지 색상을 지속적으로 학습하고 위치 인코딩을 사용하여 암시적 매개변수 세트를 학습합니다. 감독으로 복잡한 3D 장면을 표현합니다. 암시적 표현을 통해 어떤 관점에서도 렌더링을 완료할 수 있습니다.

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!2.Mip-NeRF 360

CVPR2020의 연구 콘텐츠는 경계 없는 야외 장면에 관한 것입니다. 그중 Mip-NeRF 360: 무한한 안티 앨리어싱 신경 방사선 분야는 연구 방향 중 하나입니다

논문 링크: https://arxiv.org/pdf/2111.12077.pdf

신경 방사선 분야(NeRF)는 이미 그러나 카메라가 어떤 방향으로든 향할 수 있고 콘텐츠가 어떤 거리에도 존재할 수 있는 "경계 없는" 장면에서는 달성하기 어렵습니다. 이 경우 기존 NeRF와 유사한 모델은 종종 흐릿하거나 저해상도 렌더링을 생성하고(가까운 개체와 먼 개체의 세부 사항 및 크기의 불균형으로 인해) 훈련 속도가 느리고 작은 이미지 세트에서 재구성이 제대로 이루어지지 않을 수 있습니다. 큰 장면에서 작업의 본질적인 모호성으로 인해 발생합니다. 이 논문에서는 샘플링 및 앨리어싱 문제를 해결하는 NeRF 변형인 mip-NeRF의 확장을 제안합니다. 이 변형은 비선형 장면 매개변수화, 온라인 증류 및 새로운 왜곡 기반 정규화를 사용하여 무한한 장면 문제로 인해 발생하는 문제를 극복합니다. mip-NeRF에 비해 평균 제곱 오차가 57% 감소하고 매우 복잡하고 경계가 없는 실제 장면에 대한 사실적인 합성 뷰와 상세한 깊이 맵을 생성할 수 있습니다.

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!3.Instant-NGP

다시 작성해야 하는 내용은 다음과 같습니다. "명시적 복셀과 암시적 특징의 하이브리드 장면 표현(SIGGRAPH 2022)"

다해상도 해시 인코딩 사용 즉각적인 신경학적 기본 요소

를 다시 작성해야 하는 경우는 다음과 같습니다. 링크: https://nvlabs.github.io/instant-ngp

먼저 Instant-NGP와 NeRF의 유사점과 차이점을 살펴보겠습니다.

  1. 또한 볼륨 렌더링 기반
  2. NeRF의 MLP와 달리 NGP는 장면 표현으로 희소 매개변수화된 복셀 그리드를 사용합니다.
  3. 그라디언트를 기반으로 장면과 MLP를 동시에 최적화합니다(하나의 MLP가 디코더로 사용됨). .

대형 프레임워크는 여전히 동일하다는 것을 알 수 있습니다. 가장 중요한 차이점은 NGP가 장면 표현으로 매개변수화된 복셀 그리드를 선택했다는 것입니다. 학습을 통해 복셀에 저장된 매개변수는 장면 밀도의 모양이 됩니다. MLP의 가장 큰 문제점은 속도가 느리다는 것입니다. 장면을 고품질로 재구성하기 위해서는 상대적으로 큰 네트워크가 필요한 경우가 많으며, 각 샘플링 포인트마다 네트워크를 통과하는 데 많은 시간이 걸립니다. 그리드 내 보간이 훨씬 빨라졌습니다. 그러나 그리드가 고정밀 장면을 표현하려면 고밀도 복셀이 필요하므로 메모리 사용량이 매우 높아집니다. NVIDIA는 장면 내에서 공백인 곳이 많다는 점을 고려하여 장면을 표현하기 위해 희소 구조를 제안했습니다. F2-NeRF: 자유 카메라 궤적을 사용한 빠른 신경 복사 현장 훈련

종이 링크: https://totoro97.github.io /projects/f2-nerf/NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

는 F2-NeRF(Fast)라고 불리는 새로운 그리드 기반 NeRF를 제안합니다. 무료 NeRF)는 임의의 입력 카메라 궤적을 달성할 수 있는 새로운 뷰 합성을 위한 것이며 훈련하는 데 몇 분 밖에 걸리지 않습니다. Instant NGP, Plenoxels, DVGO 또는 TensoRF와 같은 기존의 빠른 그리드 기반 NeRF 교육 프레임워크는 주로 제한된 장면을 위해 설계되었으며 공간 워핑을 사용하여 무한한 장면을 처리합니다. 널리 사용되는 기존의 두 가지 공간 워핑 방법은 전방 궤적 또는 360° 객체 중심 궤적만을 대상으로 하며 임의의 궤적을 처리할 수 없습니다. 이 글에서는 무한한 장면을 처리하기 위한 공간 워핑 메커니즘에 대한 심층적인 연구를 수행합니다. 우리는 또한 그리드 기반 NeRF 프레임워크에서 임의의 궤적을 처리할 수 있는 관점 워핑(perspective warpping)이라는 새로운 공간 워핑 방법을 제안합니다. 광범위한 실험을 통해 F2-NeRF는 수집된 두 개의 표준 데이터 세트와 새로운 자유 궤도 데이터 세트에 대해 동일한 관점 워핑을 사용하여 고품질 이미지를 렌더링할 수 있음을 보여줍니다.

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

5.MobileNeRF

네르프의 메시 내보내기 기능을 구현한 모바일 측 실시간 렌더링 애플리케이션으로, 이 기술이 CVPR2023 컨퍼런스에서 채택되었습니다!

MobileNeRF: 모바일 아키텍처에서 효율적인 신경장 렌더링을 위해 다각형 래스터화 파이프라인 활용.

다시 작성해야 할 내용은 다음과 같습니다. https://arxiv.org/pdf/2208.00277.pdf

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!NeRF(Neural Radiation Field)가 새로운 관점에서 3D 장면 이미지를 합성하는 놀라운 능력이 입증되었습니다. 그러나 널리 배포된 그래픽 하드웨어의 기능과 일치하지 않는 레이 행진을 기반으로 하는 특수한 볼륨 렌더링 알고리즘에 의존합니다. 본 논문에서는 표준 렌더링 파이프라인을 통해 새로운 이미지를 효율적으로 합성할 수 있는 새로운 질감의 다각형 기반 NeRF 표현을 소개합니다. NeRF는 텍스처가 이진 불투명도와 특징 벡터를 나타내는 다각형 세트로 표시됩니다. z-버퍼를 사용하는 전통적인 다각형 렌더링은 각 픽셀이 최종 픽셀 색상을 생성하기 위해 프래그먼트 셰이더에서 실행되는 작은 뷰 종속 MLP에 의해 해석되는 특성을 갖는 이미지를 생성합니다. 이 접근 방식을 통해 NeRF는 대규모 픽셀 수준 병렬성을 제공하는 전통적인 다각형 래스터화 파이프라인을 사용하여 렌더링할 수 있으며, 휴대폰을 포함한 다양한 컴퓨팅 플랫폼에서 대화형 프레임 속도를 가능하게 합니다.

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

6.Co-SLAM

저희 실시간 시각적 위치 파악 및 NeRF 매핑 작업이 CVPR2023에 포함되었습니다.

Co-SLAM: 신경 실시간 SLAM을 위한 공동 좌표 및 희소 파라메트릭 인코딩

Paper link : https://arxiv.org/pdf/2304.14377.pdf

Co-SLAM은 카메라 추적 및 고충실도 표면 재구성을 위해 신경 암시적 표현을 사용하는 실시간 RGB-D SLAM 시스템입니다. Co-SLAM은 장면을 다중 해상도 해시 그리드로 표현하여 로컬 기능을 빠르게 수렴하고 표현하는 기능을 활용합니다. 또한 Co-SLAM은 표면 일관성 사전 문제를 통합하기 위해 블록 인코딩 방법을 사용하여 관찰되지 않은 영역에서 장면 완성을 강력하게 완료할 수 있음을 입증합니다. 우리의 공동 인코딩은 Co-SLAM의 속도, 고충실도 재구성 및 표면 일관성의 장점을 결합합니다. Co-SLAM은 광선 샘플링 전략을 통해 모든 키프레임에 대한 조정을 전역적으로 묶을 수 있습니다.

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

7. Neuralangelo

현재 최고의 NeRF 표면 재구성 방법(CVPR2023)

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

다시 작성된 내용은 다음과 같습니다. 다음과 같습니다: 이미지 기반 신경 렌더링은 신경 표면을 재구성하여 조밀한 3D 구조를 복구할 수 있는 것으로 나타났습니다. 그러나 현재의 방법으로는 실제 장면의 세부 구조를 복구하는 데 여전히 어려움이 있습니다. 이 문제를 해결하기 위해 본 연구에서는 다중 해상도 3D 해시 그리드의 표현 기능과 신경 표면 렌더링을 결합한 Neuralangelo라는 방법을 제안합니다. 이 접근 방식의 두 가지 핵심 요소는 다음과 같습니다.

(1) 평활화 작업으로 고차 도함수를 계산하기 위한 수치적 기울기와 (2) 다양한 세부 수준에서 해시 그리드의 대략적인 최적화를 제어합니다.

깊이와 같은 보조 입력 없이도 Neuralangelo는 다중 뷰 이미지에서 조밀한 3D 표면 구조를 효과적으로 복구할 수 있습니다. 이전 방법에 비해 충실도가 크게 향상되어 RGB 비디오 캡처에서 상세한 대규모 장면 재구성이 가능합니다!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

8.MARS

최초의 오픈 소스 자율 주행 NeRF 시뮬레이션 도구입니다.

다시 작성해야 할 내용은 다음과 같습니다. https://arxiv.org/pdf/2307.15058.pdf

자율주행차는 일반적인 상황에서도 원활하게 주행할 수 있으며, 현실감 있는 센서 시뮬레이션이 이를 해결하는 역할을 할 것이라는 것이 일반적으로 받아들여지고 있습니다. 남은 코너 상황 핵심 역할. 이를 위해 MARS에서는 신경 방사선장을 기반으로 한 자율주행 시뮬레이터를 제안합니다. 기존 작품과 비교하여 MARS는 세 가지 특징을 가지고 있습니다. (1) 인스턴스 인식. 시뮬레이터는 인스턴스의 정적(예: 크기 및 모양) 특성과 동적(예: 궤적) 특성을 별도로 제어할 수 있도록 별도의 네트워크를 사용하여 전경 인스턴스와 배경 환경을 별도로 모델링합니다. (2) 모듈성. 시뮬레이터를 사용하면 다양한 최신 NeRF 관련 백본, 샘플링 전략, 입력 모드 등을 유연하게 전환할 수 있습니다. 이 모듈형 설계가 NeRF 기반 자율 주행 시뮬레이션의 학문적 발전과 산업적 배치를 촉진할 수 있기를 바랍니다. (3) 진짜. 시뮬레이터는 최적의 모듈 선택을 통해 최첨단 사실적 결과를 얻을 수 있도록 설정되었습니다.

가장 중요한 점은 오픈 소스입니다!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

"NERF 및 3D Occupancy Networks, AD2023 Challenge"

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약! Uniocc : 기하학적 및 시맨틱 렌더링을 통한 시력 중심적 3D 점유 예측을 다시 작성 해야하는 컨텐츠에 대한

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

9.unioccf.

논문 링크: https://arxiv.org/abs/2306.09117

UniOCC는 비전 중심의 3D 점유 예측 방법입니다. 기존 점유 예측 방법은 주로 3D 점유 레이블을 사용하여 3D 공간의 투영 기능을 최적화합니다. 그러나 이러한 레이블의 생성 프로세스는 복잡하고 비용이 많이 들고 3D 의미 주석에 의존하며 복셀 해상도에 의해 제한되며 세분화된 공간을 제공할 수 없습니다. . 의미론. 이 문제를 해결하기 위해 본 논문에서는 공간 기하학적 제약 조건을 명시적으로 적용하고 볼륨 레이 렌더링을 통해 세분화된 의미론적 감독을 보완하는 새로운 UniOcc(Unified Occupancy) 예측 방법을 제안합니다. 이 접근 방식은 모델 성능을 크게 향상시키고 수동 주석 비용을 절감할 수 있는 가능성을 보여줍니다. 3D 점유 라벨링의 복잡성을 고려하여 예측 정확도를 향상시키기 위해 라벨이 지정되지 않은 데이터를 활용하는 깊이 감지 교사-학생(DTS) 프레임워크를 추가로 도입합니다. 우리의 솔루션은 단일 모델의 공식 순위 목록에서 51.27%의 mIoU 점수를 달성하여 이번 챌린지

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

10.Wowaoao에서 제작한 UnisimNeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

정말 뛰어난 제품입니다. UniSim: 신경 폐쇄 루프 센서 시뮬레이터

문서 링크: https://arxiv.org/pdf/2308.01898.pdf

자율 운전의 대중화를 방해하는 중요한 이유는 아직 안전이 부족하다는 것입니다. 현실 세계는 너무 복잡합니다. 특히 롱테일 효과의 경우 더욱 그렇습니다. 경계 시나리오는 안전 운전에 매우 중요하며 다양하지만 접하기 어렵습니다. 이러한 시나리오는 접하기 어렵고, 현실 세계에서 테스트하는 것은 비용이 많이 들고 위험하기 때문에 이러한 시나리오에서 자율주행 시스템의 성능을 테스트하는 것은 매우 어렵습니다.

이 문제를 해결하기 위해 업계와 학계 모두 주목하기 시작했습니다. 시뮬레이션 시스템 개발에 힘쓰고 있습니다. 초기에 시뮬레이션 시스템은 주로 다른 차량/보행자의 움직임 동작을 시뮬레이션하고 자율 주행 계획 모듈의 정확성을 테스트하는 데 중점을 두었습니다. 최근 몇 년 동안 연구의 초점은 점차 센서 수준 시뮬레이션, 즉 LiDAR 및 카메라 이미지와 같은 원시 데이터를 생성하여 인식, 예측에서 계획에 이르기까지 자율 주행 시스템의 엔드 투 엔드 테스트를 달성하는 시뮬레이션으로 옮겨졌습니다. .

이전 작업과 달리 UniSim은 처음으로 두 가지를 모두 달성했습니다.

높은 현실감:

  1. 실제 세계(사진 및 LiDAR)를 정확하게 시뮬레이션하고 도메인 격차를 줄일 수 있습니다. 폐쇄 루프 테스트(폐쇄 루프 테스트) -루프 시뮬레이션):
  2. 드문 위험한 장면을 생성하여 무인 차량을 테스트하고 무인 차량이 환경과 자유롭게 상호 작용할 수 있도록 할 수 있습니다.확장 가능(확장 가능):
  3. 더 쉽게 확장할 수 있습니다. 많은 시나리오에서 측정을 재구성하고 시뮬레이션하려면 한 번만 데이터를 수집하면 됩니다

다시 작성해야 하는 내용은 시뮬레이션 시스템의 구축입니다.NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

UniSim은 먼저 디지털 세계에서 수집된 데이터에서 시작됩니다 재구성 자동차, 보행자, 도로, 건물, 교통 표지판을 포함한 자율 주행 장면. 그런 다음

시뮬레이션

을 위해 재구성된 장면을 제어하여 몇 가지 희귀한 핵심 장면을 생성하세요. 폐쇄 루프 시뮬레이션

UniSim은 폐쇄 루프 시뮬레이션 테스트를 수행할 수 있습니다. 첫째, UniSim은 자동차의 동작을 제어하여 현재 차선에서 자동차가 갑자기 다가오는 등 위험하고 희귀한 장면을 만들 수 있습니다. 그런 다음 UniSim은 시뮬레이션하여 해당 데이터를 생성하고 자율 주행 시스템을 실행하고 경로 계획 결과에 따라 무인 차량이 다음 지정된 위치로 이동하고 장면을 업데이트합니다. 다른 차량) 위치) 그런 다음 계속해서 시뮬레이션하고 자율 주행 시스템을 실행하며 가상 세계 상태를 업데이트합니다. 이 폐쇄 루프 테스트를 통해 자율 주행 시스템과 시뮬레이션 환경이 상호 작용하여 다음과 같은 장면을 만들 수 있습니다. 원본 데이터와 전혀 다름

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!

위 내용은 NeRF와 자율주행의 과거와 현재, 10편에 가까운 논문 요약!의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

AI Hentai Generator

AI Hentai Generator

AI Hentai를 무료로 생성하십시오.

인기 기사

R.E.P.O. 에너지 결정과 그들이하는 일 (노란색 크리스탈)
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 최고의 그래픽 설정
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
R.E.P.O. 아무도들을 수없는 경우 오디오를 수정하는 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
WWE 2K25 : Myrise에서 모든 것을 잠금 해제하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? 자율주행 분야에서 Gaussian Splatting이 인기를 끌면서 NeRF가 폐기되기 시작한 이유는 무엇입니까? Jan 17, 2024 pm 02:57 PM

위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? 자율주행 시나리오에서 롱테일 문제를 해결하는 방법은 무엇입니까? Jun 02, 2024 pm 02:44 PM

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 카메라 또는 LiDAR를 선택하시겠습니까? 강력한 3D 객체 감지 달성에 대한 최근 검토 Jan 26, 2024 am 11:18 AM

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 ​​포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

Stable Diffusion 3 논문이 드디어 공개되고, 아키텍처의 세부 사항이 공개되어 Sora를 재현하는 데 도움이 될까요? Stable Diffusion 3 논문이 드디어 공개되고, 아키텍처의 세부 사항이 공개되어 Sora를 재현하는 데 도움이 될까요? Mar 06, 2024 pm 05:34 PM

StableDiffusion3의 논문이 드디어 나왔습니다! 이 모델은 2주 전에 출시되었으며 Sora와 동일한 DiT(DiffusionTransformer) 아키텍처를 사용합니다. 출시되자마자 큰 화제를 불러일으켰습니다. 이전 버전과 비교하여 StableDiffusion3에서 생성된 이미지의 품질이 크게 향상되었습니다. 이제 다중 테마 프롬프트를 지원하고 텍스트 쓰기 효과도 향상되었으며 더 이상 잘못된 문자가 표시되지 않습니다. StabilityAI는 StableDiffusion3이 800M에서 8B 범위의 매개변수 크기를 가진 일련의 모델임을 지적했습니다. 이 매개변수 범위는 모델이 많은 휴대용 장치에서 직접 실행될 수 있어 AI 사용이 크게 줄어든다는 것을 의미합니다.

좌표계 변환을 실제로 마스터하셨나요? 자율주행에 필수불가결한 멀티센서 이슈 좌표계 변환을 실제로 마스터하셨나요? 자율주행에 필수불가결한 멀티센서 이슈 Oct 12, 2023 am 11:21 AM

첫 번째 파일럿 및 주요 기사에서는 주로 자율 주행 기술에서 일반적으로 사용되는 여러 좌표계를 소개하고 이들 간의 상관 관계 및 변환을 완료하고 최종적으로 통합 환경 모델을 구축하는 방법을 소개합니다. 여기서 초점은 차량에서 카메라 강체로의 변환(외부 매개변수), 카메라에서 이미지로의 변환(내부 매개변수), 이미지에서 픽셀 단위로의 변환을 이해하는 것입니다. 3D에서 2D로의 변환에는 해당 왜곡, 변환 등이 포함됩니다. 요점: 차량 좌표계와 카메라 본체 좌표계를 다시 작성해야 합니다. 평면 좌표계와 픽셀 좌표계 난이도: 이미지 평면에서 왜곡 제거와 왜곡 추가를 모두 고려해야 합니다. 2. 소개 좌표계에는 픽셀 평면 좌표계(u, v), 이미지 좌표계(x, y), 카메라 좌표계(), 월드 좌표계() 등 총 4가지 비전 시스템이 있습니다. 각 좌표계 사이에는 관계가 있으며,

자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! 자율주행과 궤도예측에 관한 글은 이 글이면 충분합니다! Feb 28, 2024 pm 07:20 PM

자율주행 궤적 예측은 차량의 주행 과정에서 발생하는 다양한 데이터를 분석하여 차량의 향후 주행 궤적을 예측하는 것을 의미합니다. 자율주행의 핵심 모듈인 궤도 예측의 품질은 후속 계획 제어에 매우 중요합니다. 궤적 예측 작업은 풍부한 기술 스택을 보유하고 있으며 자율 주행 동적/정적 인식, 고정밀 지도, 차선, 신경망 아키텍처(CNN&GNN&Transformer) 기술 등에 대한 익숙함이 필요합니다. 시작하기가 매우 어렵습니다! 많은 팬들은 가능한 한 빨리 궤도 예측을 시작하여 함정을 피하기를 희망합니다. 오늘은 궤도 예측을 위한 몇 가지 일반적인 문제와 입문 학습 방법을 살펴보겠습니다. 관련 지식 입문 1. 미리보기 논문이 순서대로 되어 있나요? A: 먼저 설문조사를 보세요, p

SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 SIMPL: 자율 주행을 위한 간단하고 효율적인 다중 에이전트 동작 예측 벤치마크 Feb 20, 2024 am 11:48 AM

원제목: SIMPL: ASimpleandEfficientMulti-agentMotionPredictionBaselineforAutonomousDriving 논문 링크: https://arxiv.org/pdf/2402.02519.pdf 코드 링크: https://github.com/HKUST-Aerial-Robotics/SIMPL 저자 단위: Hong Kong University of Science 및 기술 DJI 논문 아이디어: 이 논문은 자율주행차를 위한 간단하고 효율적인 모션 예측 기준선(SIMPL)을 제안합니다. 기존 에이전트 센트와 비교

nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! nuScenes의 최신 SOTA | SparseAD: Sparse 쿼리는 효율적인 엔드투엔드 자율주행을 지원합니다! Apr 17, 2024 pm 06:22 PM

전면 및 시작점 작성 엔드 투 엔드 패러다임은 통합 프레임워크를 사용하여 자율 주행 시스템에서 멀티 태스킹을 달성합니다. 이 패러다임의 단순성과 명확성에도 불구하고 하위 작업에 대한 엔드투엔드 자율 주행 방법의 성능은 여전히 ​​단일 작업 방법보다 훨씬 뒤떨어져 있습니다. 동시에 이전 엔드투엔드 방법에서 널리 사용된 조밀한 조감도(BEV) 기능으로 인해 더 많은 양식이나 작업으로 확장하기가 어렵습니다. 여기서는 희소 검색 중심의 엔드 투 엔드 자율 주행 패러다임(SparseAD)이 제안됩니다. 여기서 희소 검색은 밀집된 BEV 표현 없이 공간, 시간 및 작업을 포함한 전체 운전 시나리오를 완전히 나타냅니다. 특히 통합 스파스 아키텍처는 탐지, 추적, 온라인 매핑을 포함한 작업 인식을 위해 설계되었습니다. 게다가 무겁다.

See all articles