목차
배경 및 의의 조사
V2Xverse: 차량-도로 협업 운전 시뮬레이션 플랫폼
CoDriving: 효율적인 협업을 위한 엔드투엔드 자율주행 모델
엔드 투 엔드 자율 주행 네트워크
운전 중심의 협업 전략
실험 결과
요약
기술 주변기기 일체 포함 오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시

Jun 10, 2024 pm 12:42 PM
모델 오픈 소스

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시

차량-도로 협업의 동기화된 주행 데이터

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시

Vehicle-to-Everything 지원 자율 주행 V2X-AD(Vehicle-to-Everything-Aided 자율 주행)는 보다 안전한 운전 전략을 제공하는 데 큰 잠재력을 가지고 있습니다. 연구자들은 V2X-AD의 통신 및 통신 측면에 대해 많은 연구를 수행해 왔지만 이러한 인프라와 통신 자원이 주행 성능 향상에 미치는 영향은 완전히 탐구되지 않았습니다. 이는 협력적 자율주행, 즉 각 차량의 주행 성능을 향상시키기 위한 운전 계획을 위한 효율적인 정보 공유 전략을 어떻게 설계할 것인지에 대한 연구의 필요성을 강조합니다. 이를 위해서는 두 가지 핵심 기본 조건이 필요합니다. 하나는 V2X-AD를 위한 데이터 환경을 제공할 수 있는 플랫폼이고, 다른 하나는 완전한 주행 관련 기능과 정보 공유 메커니즘을 갖춘 엔드투엔드 주행 시스템입니다. 데이터 환경을 제공하는 플랫폼 측면에서는 차량 간 통신망과 인프라 지원을 활용해 구현할 수 있다. 이를 통해 차량은 주행에 필요한 실시간 정보와 환경 정보를 공유할 수 있어 주행 성능이 향상될 수 있다. 반면, 엔드투엔드 주행 시스템은 완전한 주행 기능을 갖추고 정보 공유가 가능해야 합니다. 이는 주행 시스템이 다른 차량 및 인프라로부터 주행 관련 정보를 획득하고, 이 정보를 자체 주행 계획과 결합하여 보다 효율적인 주행 성능을 제공할 수 있어야 함을 의미합니다. 이 두 가지 기본 조건을 달성하는 동시에 보안 및 개인 정보 보호도 고려해야 합니다. 따라서 V2X-AD의 주행 계획 전략을 설계할 때 정보 공유 전략의 효율성에 주목하여 각 차량의 주행 성능을 향상시켜야 합니다. 요약하자면, 차량-도로 협업 지원 자율 주행 V2X-AD는 엄청난 잠재력을 가지고 있습니다

" 이러한 이유로 상하이 교통 대학교와 상하이 인공 지능 연구소의 연구원들은 새로운 연구 논문 "협업 자율 주행을 향하여: 시뮬레이션 플랫폼"을 발표하고 End-to-End System'은 효율적인 의사소통과 협업을 위해 정보 공유 전략을 활용한 운전 계획을 세우는 End-to-End 협업 운전 시스템인 CoDriving을 제안했습니다. 동시에 본 논문의 연구원들은 시뮬레이션 플랫폼을 구축했습니다. V2Xverse, 이 플랫폼은 차량-도로 공동 운전 데이터 세트 생성, 풀 스택 공동 운전 시스템 배포, 폐쇄 루프 운전 성능 평가 및 맞춤형 운전 작업 평가를 포함하여 공동 운전을 위한 완벽한 교육 및 테스트 환경을 제공합니다. "

동시에 시뮬레이션 플랫폼 V2Xverse는 기존의 여러 협업 센싱 방법의 교육 및 배포 테스트 코드를 통합하고 다양한 테스트 작업을 사용하여 3D 타겟 감지, 경로 계획 및 폐쇄형 운전 기능을 테스트합니다. - 루프 자율 주행. V2Xverse는 '볼' 수만 있고 '제어'할 수 없는 기존 협업 센싱 방식의 한계를 극복합니다. 기존 협업 센싱 방식을 전체 주행 시스템에 내장하고 시뮬레이션 환경에서 주행 성능을 테스트할 수 있도록 지원합니다. 본 기사의 연구자들은 이것이 자율주행 분야의 비전 기반 차량-도로 협업 연구를 위한 실제 주행 시나리오에 더 적합한 더 나은 기능 확장과 테스트 벤치마크를 가져올 것이라고 믿습니다.

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시

  • 논문 링크: https://arxiv.org/pdf/2404.09496
  • 코드 링크: https://github.com/CollaborativePerception/V2Xverse

배경 및 의의 조사

이에 대한 조사 기사 V2X(Vehicle-to-Everything) 통신 기반 협업 자율주행에 중점을 둡니다. 단일 차량 자율주행에 비해 협력 자율주행은 차량과 주변 환경(노변 유닛, 스마트 기기를 장착한 보행자 등) 간의 정보 교환을 통해 차량 인식 및 주행 성능을 향상시켜 시각 장애가 있는 사람들에게 도움이 됩니다. .복잡한 상황에서도 안전한 운전이 가능합니다(그림 1).

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시그림 1. 위험한 "유령 프로브" 시나리오, 자전거는 가려진 물체를 감지할 수 없습니다

현재 V2X 기반 차량-도로 협업의 대부분은 모듈 수준 인식 기능을 최적화하는 데 중점을 두고 있습니다. 그러나 통합 시스템에서 최종 주행 성능을 향상시키기 위해 협력 감지 기능을 사용하는 방법은 여전히 ​​​​과소 탐구되고 있습니다.

이 문제를 해결하기 위해 이 글에서는 협업 감지 기능을 인식, 예측, 계획 및 제어와 같은 핵심 모듈을 포함하여 포괄적인 운전 기능을 포괄하는 협업 운전 시스템으로 확장하는 것을 목표로 합니다. 협업 자율 주행을 달성하려면 두 가지 핵심 기반이 필요합니다. 하나는 V2X-AD를 위한 데이터 환경을 제공할 수 있는 플랫폼이고, 두 번째는 완전한 주행 관련 기능과 정보 공유 메커니즘을 통합하는 엔드투엔드 주행 시스템입니다. 플랫폼 관점에서 볼 때, 이 작업은 차량-도로 협업 주행 데이터 세트 생성부터 풀 스택 협업 주행 시스템 배포 및 폐쇄 루프 주행 성능 평가에 이르기까지 완전한 프로세스를 제공하는 포괄적인 협업 자율 주행 시뮬레이션 플랫폼인 V2Xverse를 구축합니다. . 본 글에서는 주행 시스템의 관점에서 V2X 통신 기반 협업 모듈을 완전한 자율주행 프레임워크에 설계하고 내장하여 감각 정보를 공유함으로써 협업 주행 성능을 향상시키는 새로운 엔드투엔드 협업 주행 시스템인 CoDriving을 소개합니다. . CoDriving의 핵심 아이디어는 공간적으로 희박하지만 운전에 중요한 시각적 특징 정보를 커뮤니케이션 콘텐츠로 활용하여 운전 성능을 향상시키면서 커뮤니케이션 효율성을 최적화하는 새로운 운전 계획 정보 공유 전략입니다.

V2Xverse: 차량-도로 협업 운전 시뮬레이션 플랫폼

이 기사에서 제안한 V2Xverse의 주요 특징은 운전 관련 하위 작업의 오프라인 벤치마크 생성과 다양한 시나리오에서의 운전 성능에 대한 온라인 폐쇄 루프 평가를 실현할 수 있다는 것입니다. 협업 자율주행 시스템 개발을 전폭적으로 지원합니다. V2X-AD 장면을 만들기 위해 V2Xverse는 현장에 완전한 주행 기능을 갖춘 여러 대의 스마트 자동차를 설정하고 특정 전략을 통해 도로 양쪽에 노변 장치를 배치하여 스마트 자동차에 대한 보조 비전을 제공합니다. 협력적 자율 주행 방법 개발을 지원하기 위해 V2Xverse는 먼저 (차량-차량) 및 (차량-노변 장치) 통신 모듈을 제공하고 시스템 교육을 위한 완전한 주행 신호 및 전문가 주석을 제공하며 폐쇄 루프 주행 평가도 제공합니다. 다양한 위험한 시나리오. 시뮬레이션 플랫폼 프레임워크는 그림 2에 나와 있습니다.

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시그림 2. V2Xverse 시뮬레이션 플랫폼 프레임워크

기존 Carla 기반 자율주행 시뮬레이션 플랫폼과 비교하여 V2Xverse는 세 가지 장점을 가지고 있습니다. 우선, V2Xverse는 다중 차량 주행 시뮬레이션을 지원하는 반면, 주류 carla-leaderboard 및 파생 플랫폼은 단일 차량 주행 시뮬레이션만 지원합니다. 둘째, V2Xverse는 전체 주행 기능 시뮬레이션을 지원하는 반면, 기존 협업 인지 시뮬레이션 플랫폼은 인지 모듈과 관련된 기능만 지원한다. 셋째, V2Xverse는 다양한 센서 장치, 모델 통합 및 유연한 시나리오 사용자 정의를 포함한 포괄적인 V2X-AD 시나리오를 지원합니다.

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시표 1. V2Xverse와 기존 Carla 기반 자율주행 시뮬레이션 플랫폼 비교

CoDriving: 효율적인 협업을 위한 엔드투엔드 자율주행 모델

CoDriving에는 두 가지 구성요소가 포함됩니다(그림 3 참조). ) 엔드투엔드 자전거 자율주행 네트워크는 센서 입력을 주행 제어 신호로 변환합니다. 2) 운전 중심 협업, 운전을 위한 주요 센싱 기능을 공유하여 협력자들이 효율적인 통신을 달성하고, 기능 집계를 통해 자전거 BEV 센싱 기능을 강화합니다. 기능은 시스템이 보다 정확한 인식 인식 결과를 생성하고 예측 결과를 계획하는 데 도움이 됩니다.

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시그림 3. CoDriving의 전체 프레임워크

엔드 투 엔드 자율 주행 네트워크

엔드 투 엔드 단일 차량 자율 주행 네트워크는 다양한 양식의 입력을 기반으로 출력 경로 지점 예측을 학습하고, 제어 모듈을 통해 경로를 변환합니다. 포인트는 구동 제어 신호로 변환됩니다. 이를 달성하기 위해 CoDriving은 3D 객체 감지기, 웨이포인트 예측기 및 컨트롤러를 포함하여 엔드투엔드 시스템으로 운전하는 데 필요한 모듈식 구성 요소를 통합합니다. CoDriving은 통일된 전역 좌표계를 제공하고 복잡한 좌표 변환을 피하며 공간 정보를 기반으로 한 협업을 더 잘 지원하기 때문에 BEV(조감도) 표현을 사용합니다.

운전 중심의 협업 전략

V2X 협업은 정보 공유를 통해 자전거의 제한된 가시성이라는 피할 수 없는 문제를 해결합니다. 본 연구에서는 주행 성능과 통신 효율성을 동시에 최적화하기 위한 새로운 주행 중심의 협업 전략을 제안합니다. 이 계획에는 i) CoDriving이 운전 요청 모듈을 통해 공간적으로 희박하지만 운전에 중요한 BEV 인식 기능을 교환하는 운전 의도 기반 인식 통신과 ii) CoDriving이 수신된 기능 정보를 활용하여 각 기능의 성능을 향상시키는 BEV 기능 향상이 포함됩니다. 협업 차량 BEV 인식 특성. 향상된 BEV 기능은 시스템이 보다 정확한 인식 인식 결과와 계획 예측 결과를 생성하는 데 도움이 됩니다.

실험 결과

V2Xverse 시뮬레이션 플랫폼을 사용하여 이 기사에서는 폐쇄 루프 주행, 3D 타겟 감지 및 웨이포인트 예측의 세 가지 작업에 대한 CoDriving의 성능을 테스트합니다. 핵심 폐쇄 루프 주행 테스트에서 기존 단일 차량 종단 간 자율주행 SOTA 방식과 비교했을 때 코드라이빙의 주행 점수는 62.49% 크게 향상됐고, 보행자 충돌률은 53.50% 감소했다. 표적 탐지 및 웨이포인트 예측 작업에서 CoDriving은 표 2와 같이 다른 협업 방법보다 더 나은 성능을 발휘합니다.

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시표 2. CoDriving은 폐쇄 루프 주행 작업에서 SOTA의 단일 주행 방법보다 우수하고 모듈식 감지 및 계획 하위 작업에서 다른 협업 감지 방법보다 우수합니다.

이 문서에서는 다양한 통신 대역폭에서 CoDriving의 협업에 대해서도 연구합니다. 그림 4에서 볼 수 있듯이 폐루프 주행, 3D 타겟 탐지 및 웨이포인트 예측의 세 가지 작업에서 CoDriving은 다양한 통신 대역폭 제약 조건에서 다른 협업 방법보다 성능이 검증되었습니다.

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시그림 4. 서로 다른 통신 대역폭에서 CoDriving의 협업 성능

그림 5는 V2Xverse 시뮬레이션 환경에서 CoDriving의 구동 사례를 보여줍니다. 그림 5의 장면에서는 사각지대에 있던 보행자가 갑자기 도로 밖으로 돌진하는 모습을 볼 수 있는데, 자율주행 자전거는 시야가 제한되어 보행자를 미리 피하지 못해 심각한 교통사고가 발생한 것을 볼 수 있습니다. . CoDriving은 도로변 장치의 공유 비전 특성을 사용하여 보행자를 사전에 감지하고 안전하게 회피합니다.

오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시

그림 5(1)은 시야가 제한된 자율 주행 자전거와 비교하여 CoDriving은 도로변 장치에서 제공하는 정보를 사용하여 사각지대에 있는 보행자를 감지합니다.오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시그림 5(2)는 보행자를 성공적으로 피합니다. 자전거 운전 시간 내 회피 실패로 인한 충돌

요약

본 작업은 시뮬레이션 플랫폼 V2Xverse를 구축하여 협력적 자율주행 방법 개발을 돕고, 새로운 엔드투엔드 자율주행 시스템을 제안합니다. 그 중 V2Xverse는 폐쇄 루프 주행 테스트를 지원하는 V2X 협업 주행 시뮬레이션 플랫폼입니다. 이 플랫폼은 최종 주행 성능 향상을 목표로 하는 협업 자율 주행 시스템 개발을 위한 완전한 개발 채널을 제공합니다. V2Xverse는 다양한 기존 단일 차량 자율 주행 시스템의 배포는 물론 기존의 다양한 협업 감지 방법에 대한 교육 및 폐쇄 루프 주행 테스트도 지원한다는 점을 언급할 가치가 있습니다. 동시에 본 논문에서는 핵심 운전 인식 정보를 공유하여 주행 성능을 향상시키고 통신 효율성을 최적화하는 새로운 엔드투엔드 협업 자율주행 시스템인 CoDriving을 제안한다. 전체 주행 시스템을 종합적으로 평가한 결과, CoDriving은 다양한 통신 대역폭에서 단일 차량 자율 주행 시스템보다 훨씬 우수한 것으로 나타났습니다. 이 기사의 연구원들은 V2Xverse 플랫폼과 CoDriving 시스템이 보다 안정적인 자율 주행을 위한 잠재적인 솔루션을 제공한다고 믿습니다.

위 내용은 오픈 소스! V2Xverse: V2X를 위한 최초의 시뮬레이션 플랫폼 및 엔드투엔드 모델 인도 및 출시의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

본 웹사이트의 성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

<gum> : Bubble Gum Simulator Infinity- 로얄 키를 얻고 사용하는 방법
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Nordhold : Fusion System, 설명
4 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌
Mandragora : 마녀 트리의 속삭임 - Grappling Hook 잠금 해제 방법
3 몇 주 전 By 尊渡假赌尊渡假赌尊渡假赌

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기

스튜디오 13.0.1 보내기

강력한 PHP 통합 개발 환경

드림위버 CS6

드림위버 CS6

시각적 웹 개발 도구

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. 중국의 기능은 GPT-4와 비슷하며 가격은 GPT-4-Turbo의 거의 1%에 불과합니다. May 07, 2024 pm 04:13 PM

기존 컴퓨팅을 능가할 뿐만 아니라 더 낮은 비용으로 더 효율적인 성능을 달성하는 인공 지능 모델을 상상해 보세요. 이것은 공상과학 소설이 아닙니다. DeepSeek-V2[1], 세계에서 가장 강력한 오픈 소스 MoE 모델이 여기에 있습니다. DeepSeek-V2는 경제적인 훈련과 효율적인 추론이라는 특징을 지닌 전문가(MoE) 언어 모델의 강력한 혼합입니다. 이는 236B 매개변수로 구성되며, 그 중 21B는 각 마커를 활성화하는 데 사용됩니다. DeepSeek67B와 비교하여 DeepSeek-V2는 더 강력한 성능을 제공하는 동시에 훈련 비용을 42.5% 절감하고 KV 캐시를 93.3% 줄이며 최대 생성 처리량을 5.76배로 늘립니다. DeepSeek은 일반 인공지능을 연구하는 회사입니다.

AI가 수학적 연구를 전복시킨다! 필즈상 수상자이자 중국계 미국인 수학자, Terence Tao가 좋아하는 11개 논문 발표 | AI가 수학적 연구를 전복시킨다! 필즈상 수상자이자 중국계 미국인 수학자, Terence Tao가 좋아하는 11개 논문 발표 | Apr 09, 2024 am 11:52 AM

AI는 실제로 수학을 변화시키고 있습니다. 최근 이 문제에 주목하고 있는 타오저쉬안(Tao Zhexuan)은 '미국수학회지(Bulletin of the American Mathematical Society)' 최신호를 게재했다. '기계가 수학을 바꿀 것인가?'라는 주제를 중심으로 많은 수학자들이 그들의 의견을 표현했습니다. 저자는 필즈상 수상자 Akshay Venkatesh, 중국 수학자 Zheng Lejun, 뉴욕대학교 컴퓨터 과학자 Ernest Davis 등 업계의 유명 학자들을 포함해 강력한 라인업을 보유하고 있습니다. AI의 세계는 극적으로 변했습니다. 이 기사 중 상당수는 1년 전에 제출되었습니다.

Google은 열광하고 있습니다. JAX 성능이 Pytorch와 TensorFlow를 능가합니다! GPU 추론 훈련을 위한 가장 빠른 선택이 될 수 있습니다. Google은 열광하고 있습니다. JAX 성능이 Pytorch와 TensorFlow를 능가합니다! GPU 추론 훈련을 위한 가장 빠른 선택이 될 수 있습니다. Apr 01, 2024 pm 07:46 PM

Google이 추진하는 JAX의 성능은 최근 벤치마크 테스트에서 Pytorch와 TensorFlow를 능가하여 7개 지표에서 1위를 차지했습니다. 그리고 JAX 성능이 가장 좋은 TPU에서는 테스트가 이루어지지 않았습니다. 개발자들 사이에서는 여전히 Tensorflow보다 Pytorch가 더 인기가 있습니다. 그러나 앞으로는 더 큰 모델이 JAX 플랫폼을 기반으로 훈련되고 실행될 것입니다. 모델 최근 Keras 팀은 기본 PyTorch 구현을 사용하여 세 가지 백엔드(TensorFlow, JAX, PyTorch)와 TensorFlow를 사용하는 Keras2를 벤치마킹했습니다. 첫째, 그들은 주류 세트를 선택합니다.

안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 안녕하세요, 일렉트릭 아틀라스입니다! 보스턴 다이나믹스 로봇 부활, 180도 이상한 움직임에 겁먹은 머스크 Apr 18, 2024 pm 07:58 PM

Boston Dynamics Atlas가 공식적으로 전기 로봇 시대에 돌입했습니다! 어제 유압식 Atlas가 역사의 무대에서 "눈물을 흘리며" 물러났습니다. 오늘 Boston Dynamics는 전기식 Atlas가 작동 중이라고 발표했습니다. 상업용 휴머노이드 로봇 분야에서는 보스턴 다이내믹스가 테슬라와 경쟁하겠다는 각오를 다진 것으로 보인다. 새 영상은 공개된 지 10시간 만에 이미 100만 명이 넘는 조회수를 기록했다. 옛 사람들은 떠나고 새로운 역할이 등장하는 것은 역사적 필연이다. 올해가 휴머노이드 로봇의 폭발적인 해라는 것은 의심의 여지가 없습니다. 네티즌들은 “로봇의 발전으로 올해 개막식도 인간처럼 생겼고, 자유도도 인간보다 훨씬 크다. 그런데 정말 공포영화가 아닌가?”라는 반응을 보였다. 영상 시작 부분에서 아틀라스는 바닥에 등을 대고 가만히 누워 있는 모습입니다. 다음은 입이 떡 벌어지는 내용이다

MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. MLP를 대체하는 KAN은 오픈소스 프로젝트를 통해 컨볼루션으로 확장되었습니다. Jun 01, 2024 pm 10:03 PM

이달 초 MIT와 기타 기관의 연구자들은 MLP에 대한 매우 유망한 대안인 KAN을 제안했습니다. KAN은 정확성과 해석성 측면에서 MLP보다 뛰어납니다. 그리고 매우 적은 수의 매개변수로 더 많은 수의 매개변수를 사용하여 실행되는 MLP보다 성능이 뛰어날 수 있습니다. 예를 들어 저자는 KAN을 사용하여 더 작은 네트워크와 더 높은 수준의 자동화로 DeepMind의 결과를 재현했다고 밝혔습니다. 구체적으로 DeepMind의 MLP에는 약 300,000개의 매개변수가 있는 반면 KAN에는 약 200개의 매개변수만 있습니다. KAN은 MLP와 같이 강력한 수학적 기반을 가지고 있으며, KAN은 Kolmogorov-Arnold 표현 정리를 기반으로 합니다. 아래 그림과 같이 KAN은

권장 사항: 우수한 JS 오픈 소스 얼굴 감지 및 인식 프로젝트 권장 사항: 우수한 JS 오픈 소스 얼굴 감지 및 인식 프로젝트 Apr 03, 2024 am 11:55 AM

얼굴 검출 및 인식 기술은 이미 상대적으로 성숙하고 널리 사용되는 기술입니다. 현재 가장 널리 사용되는 인터넷 응용 언어는 JS입니다. 웹 프런트엔드에서 얼굴 감지 및 인식을 구현하는 것은 백엔드 얼굴 인식에 비해 장점과 단점이 있습니다. 장점에는 네트워크 상호 작용 및 실시간 인식이 줄어 사용자 대기 시간이 크게 단축되고 사용자 경험이 향상된다는 단점이 있습니다. 모델 크기에 따라 제한되고 정확도도 제한됩니다. js를 사용하여 웹에서 얼굴 인식을 구현하는 방법은 무엇입니까? 웹에서 얼굴 인식을 구현하려면 JavaScript, HTML, CSS, WebRTC 등 관련 프로그래밍 언어 및 기술에 익숙해야 합니다. 동시에 관련 컴퓨터 비전 및 인공지능 기술도 마스터해야 합니다. 웹 측면의 디자인으로 인해 주목할 가치가 있습니다.

공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! 공장에서 일하는 테슬라 로봇, 머스크 : 올해 손의 자유도가 22도에 달할 것! May 06, 2024 pm 04:13 PM

테슬라의 로봇 옵티머스(Optimus)의 최신 영상이 공개됐는데, 이미 공장에서 작동이 가능한 상태다. 정상 속도에서는 배터리(테슬라의 4680 배터리)를 다음과 같이 분류합니다. 공식은 또한 20배 속도로 보이는 모습을 공개했습니다. 작은 "워크스테이션"에서 따고 따고 따고 : 이번에 출시됩니다. 영상에는 옵티머스가 공장에서 이 작업을 전 과정에 걸쳐 사람의 개입 없이 완전히 자율적으로 완료하는 모습이 담겨 있습니다. 그리고 Optimus의 관점에서 보면 자동 오류 수정에 중점을 두고 구부러진 배터리를 집어 넣을 수도 있습니다. NVIDIA 과학자 Jim Fan은 Optimus의 손에 대해 높은 평가를 했습니다. Optimus의 손은 세계의 다섯 손가락 로봇 중 하나입니다. 가장 능숙합니다. 손은 촉각적일 뿐만 아니라

FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 FisheyeDetNet: 어안 카메라를 기반으로 한 최초의 표적 탐지 알고리즘 Apr 26, 2024 am 11:37 AM

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.

See all articles