


3D 모델 분할의 새로운 방법으로 손이 자유로워집니다! 수동 라벨링이 필요하지 않고 한 번의 교육만 필요하며 라벨이 지정되지 않은 카테고리도 인식 가능 |
수동 주석이 필요하지 않으며 3D 모델이 언어를 이해하고 레이블이 없는 카테고리를 식별할 수 있도록 한 번의 교육만 필요합니다.
3D 모델 분할이 이제 핸즈프리입니다!
홍콩대학교와 ByteDream이 협력하여 새로운 방법을 제시했습니다.
수동 주석이 필요하지 않으며 단 한 번의 교육만으로 3D 모델이 언어를 이해하고 레이블이 없는 카테고리를 식별할 수 있습니다.
예를 들어, 주석이 없는 칠판과 모니터의 예를 보면 이 방법으로 3D 모델을 훈련한 후 분할 대상을 빠르게 "파악"할 수 있습니다.
또 다른 예로 소파, 기침 등 동의어를 입력해서 일을 어렵게 하면 쉽게 당첨될 수 있습니다.
욕실과 같은 추상적인 카테고리도 해결할 수 있습니다.
이 새로운 방법은 PLA(Point-Language Association)라고 불리며, 포인트 클라우드(표적 표면 특성의 대규모 포인트 모음)와 자연어를 결합한 방법입니다.
현재 이 논문은 CVPR 2023에 승인되었습니다.
그렇지만 수동 라벨링이 필요하지 않고 단 한 번의 훈련만 수행되며 동의어 추상 분류도 인식할 수 있습니다... 이것은 여러 버프의 중첩입니다.
일반적인 방법으로 사용하는 3D 데이터와 자연어는 인터넷에서 직접 무료로 얻을 수 없고, 값비싼 수동 주석이 필요한 경우가 많고, 일반적인 방법으로는 단어 간의 의미적 연결을 기반으로 새로운 범주를 식별할 수 없다는 점을 알아야 합니다.
그럼 PLA는 어떻게 하는 걸까요? 살펴보겠습니다~
구체적인 원리
사실, 직설적으로 말하면 3D 모델 분할을 성공적으로 구현하기 위해서는 가장 중요한 단계는 3D 데이터가 자연어를 이해하도록 만드는 것입니다.
전문적으로 말하면 3D 포인트 클라우드에 자연어 설명을 도입하는 것입니다.
어떻게 소개하나요?
현재 2D 이미지를 분할하는 데 비교적 성공적인 방법이 있다는 점을 고려하여 연구팀은 2D 이미지부터 시작하기로 결정했습니다.
먼저 3D 포인트 클라우드를 해당 2D 이미지로 변환한 후 2D 멀티모달 대형 모델의 입력으로 사용하고, 여기에서 이미지의 언어 설명을 추출합니다.
다음으로, 이미지와 포인트 클라우드 간의 투영 관계를 이용하면 이미지의 언어 설명이 자연스럽게 3D 포인트 클라우드 데이터와 연관될 수 있습니다.
그리고 PLA는 다양한 입도의 3D 객체와 호환되기 위해 다중 입도 3D 포인트 클라우드-자연어 상관 방법도 제안합니다.
전체 3D 장면에 대해 PLA는 해당 장면에 해당하는 모든 이미지에서 추출한 언어 설명을 요약하고, 이 요약된 언어를 사용하여 전체 3D 장면을 연관시킵니다.
각 이미지 뷰에 해당하는 부분 3D 장면의 경우 PLA는 해당 이미지를 브리지로 직접 사용하여 해당 3D 포인트 클라우드와 언어를 연결합니다.
보다 세밀한 3D 개체를 위해 PLA는 보다 세밀한 3D 언어 관련 방법을 제공합니다.
이러한 방식으로 연구팀은 수동 주석 문제를 직접적으로 해결하는 자연어인 3D 포인트 클라우드 쌍을 얻을 수 있습니다.
PLA는 획득된 "3D 포인트 클라우드-자연어" 쌍과 기존 데이터 세트 감독을 사용하여 3D 모델이 감지 및 분할 문제 정의를 이해할 수 있도록 합니다.
구체적으로는 특징 공간에서 각 쌍의 3D 포인트 클라우드와 자연어 사이의 거리를 줄이고 불일치하는 3D 포인트 클라우드와 자연어 설명을 밀어내기 위해 대조 학습을 사용합니다.
많은 원칙에 대해 이야기했는데 PLA는 특정 분할 작업에서 어떻게 수행됩니까?
의미론적 분할 작업이 기준을 65% 초과했습니다.
연구원들은 주요 측정 기준으로 레이블이 지정되지 않은 카테고리에서 3D 오픈 월드 모델의 성능을 테스트했습니다.
첫째, ScanNet 및 S3DIS의 의미론적 분할 작업에서 PLA는 이전 기준 방법을 35%~65% 초과했습니다.
인스턴스 분할 작업에서도 PLA가 이전 방법에 비해 15%~50% 향상되었습니다.
연구팀
이 프로젝트의 연구팀은 홍콩대학교 CVMI Lab과 ByteDance에서 왔습니다.
CVMI 연구소는 홍콩대학교 인공지능 연구실로 2020년 2월 1일에 설립되었습니다.
연구 범위는 컴퓨터 비전 및 패턴 인식, 머신 러닝/딥 러닝, 이미지/영상 콘텐츠 분석, 머신 인텔리전스 기반의 산업 빅데이터 분석을 포함합니다.
이론 주소:https://arxiv.org/pdf/2211.16312.pdf
프로젝트 소유자:https://github.com/CVMI-Lab/PLA
위 내용은 3D 모델 분할의 새로운 방법으로 손이 자유로워집니다! 수동 라벨링이 필요하지 않고 한 번의 교육만 필요하며 라벨이 지정되지 않은 카테고리도 인식 가능 |의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

뜨거운 주제











위에 작성됨 및 저자의 개인적인 이해 3DGS(3차원 가우스플래팅)는 최근 몇 년간 명시적 방사선장 및 컴퓨터 그래픽 분야에서 등장한 혁신적인 기술입니다. 이 혁신적인 방법은 수백만 개의 3D 가우스를 사용하는 것이 특징이며, 이는 주로 암시적 좌표 기반 모델을 사용하여 공간 좌표를 픽셀 값에 매핑하는 NeRF(Neural Radiation Field) 방법과 매우 다릅니다. 명시적인 장면 표현과 미분 가능한 렌더링 알고리즘을 갖춘 3DGS는 실시간 렌더링 기능을 보장할 뿐만 아니라 전례 없는 수준의 제어 및 장면 편집 기능을 제공합니다. 이는 3DGS를 차세대 3D 재구성 및 표현을 위한 잠재적인 게임 체인저로 자리매김합니다. 이를 위해 우리는 처음으로 3DGS 분야의 최신 개발 및 관심사에 대한 체계적인 개요를 제공합니다.

특히 Teams 사용자라면 Microsoft가 업무 중심 화상 회의 앱에 새로운 3DFluent 이모티콘을 추가했다는 사실을 기억해야 합니다. Microsoft가 작년에 Teams 및 Windows용 3D 이모티콘을 발표한 후 실제로 플랫폼용으로 업데이트된 기존 이모티콘이 1,800개 이상 나타났습니다. 이 큰 아이디어와 Teams용 3DFluent 이모티콘 업데이트 출시는 공식 블로그 게시물을 통해 처음 홍보되었습니다. 최신 Teams 업데이트로 FluentEmojis가 앱에 제공됩니다. Microsoft는 업데이트된 1,800개의 이모티콘을 매일 사용할 수 있다고 밝혔습니다.

위에 작성 및 저자의 개인적인 이해: 현재 전체 자율주행 시스템에서 인식 모듈은 중요한 역할을 합니다. 자율주행 시스템의 제어 모듈은 적시에 올바른 판단과 행동 결정을 내립니다. 현재 자율주행 기능을 갖춘 자동차에는 일반적으로 서라운드 뷰 카메라 센서, 라이더 센서, 밀리미터파 레이더 센서 등 다양한 데이터 정보 센서가 장착되어 다양한 방식으로 정보를 수집하여 정확한 인식 작업을 수행합니다. 순수 비전을 기반으로 한 BEV 인식 알고리즘은 하드웨어 비용이 저렴하고 배포가 용이하며, 출력 결과를 다양한 다운스트림 작업에 쉽게 적용할 수 있어 업계에서 선호됩니다.

0. 전면 작성&& 자율주행 시스템은 다양한 센서(예: 카메라, 라이더, 레이더 등)를 사용하여 주변 환경을 인식하고 알고리즘과 모델을 사용하는 고급 인식, 의사결정 및 제어 기술에 의존한다는 개인적인 이해 실시간 분석과 의사결정을 위해 이를 통해 차량은 도로 표지판을 인식하고, 다른 차량을 감지 및 추적하며, 보행자 행동을 예측하는 등 복잡한 교통 환경에 안전하게 작동하고 적응할 수 있게 되므로 현재 널리 주목받고 있으며 미래 교통의 중요한 발전 분야로 간주됩니다. . 하나. 하지만 자율주행을 어렵게 만드는 것은 자동차가 주변에서 일어나는 일을 어떻게 이해할 수 있는지 알아내는 것입니다. 이를 위해서는 자율주행 시스템의 3차원 객체 감지 알고리즘이 주변 환경의 객체의 위치를 포함하여 정확하게 인지하고 묘사할 수 있어야 하며,

새로운 Windows 11이 개발 중이라는 소문이 퍼지기 시작했을 때 모든 Microsoft 사용자는 새 운영 체제가 어떤 모습일지, 어떤 결과를 가져올지 궁금해했습니다. 추측 끝에 Windows 11이 여기에 있습니다. 운영 체제에는 새로운 디자인과 기능 변경이 포함되어 있습니다. 일부 추가 기능 외에도 기능 지원 중단 및 제거가 함께 제공됩니다. Windows 11에 없는 기능 중 하나는 Paint3D입니다. 서랍, 낙서, 낙서에 적합한 클래식 페인트를 계속 제공하지만 3D 제작자에게 이상적인 추가 기능을 제공하는 Paint3D를 포기합니다. 몇 가지 추가 기능을 찾고 있다면 최고의 3D 디자인 소프트웨어로 Autodesk Maya를 추천합니다. 좋다

ChatGPT는 AI 산업에 닭의 피를 주입했고, 한때 상상할 수 없었던 모든 것이 오늘날 기본적인 관행이 되었습니다. 계속해서 발전하고 있는 Text-to-3D는 Diffusion(이미지), GPT(텍스트)에 이어 AIGC 분야의 차세대 핫스팟으로 평가되며 전례 없는 주목을 받고 있습니다. 아니요, ChatAvatar라는 제품은 공개 베타 버전으로 출시되어 빠르게 700,000회 이상의 조회수와 관심을 얻었으며 Spacesofttheweek에 소개되었습니다. △ChatAvatar는 AI가 생성한 단일 시점/다중 시점 원본 그림에서 3D 스타일화된 캐릭터를 생성하는 Imageto3D 기술도 지원합니다. 현재 베타 버전에서 생성된 3D 모델은 큰 주목을 받았습니다.

앞에 적힌 프로젝트 링크: https://nianticlabs.github.io/mickey/ 두 장의 사진이 주어지면 사진 간의 대응 관계를 설정하여 두 장의 사진 사이의 카메라 포즈를 추정할 수 있습니다. 일반적으로 이러한 대응은 2D에서 2D로 이루어지며 추정된 포즈는 규모에 따라 결정되지 않습니다. 언제 어디서나 즉각적인 증강 현실과 같은 일부 애플리케이션은 규모 측정항목의 포즈 추정이 필요하므로 규모를 복구하기 위해 외부 깊이 추정기에 의존합니다. 본 논문에서는 3차원 카메라 공간에서 메트릭 일치성을 예측할 수 있는 키포인트 매칭 프로세스인 MicKey를 제안합니다. 이미지 전반에 걸쳐 3D 좌표 매칭을 학습함으로써 측정 기준을 추론할 수 있습니다.

자율주행 응용을 위해서는 궁극적으로 3D 장면을 인식하는 것이 필요합니다. 그 이유는 간단합니다. 인간 운전자도 이미지를 바탕으로 운전할 수는 없습니다. 물체와의 거리, 장면의 깊이 정보는 2차원 인식 결과에 반영될 수 없기 때문에 이 정보는 자율주행 시스템이 주변 환경을 정확하게 판단하는 데 핵심이 된다. 일반적으로 자율주행차의 시각 센서(예: 카메라)는 차체 위쪽이나 차량 내부 백미러에 설치됩니다. 어디에 있든 카메라가 얻는 것은 투시 뷰(PerspectiveView)(세계 좌표계에서 이미지 좌표계로)에서 실제 세계를 투영하는 것입니다. 이 관점은 인간의 시각 시스템과 매우 유사합니다.
