자율주행차의 안전기술적 특징을 다룬 기사
"안전 제일"은 자율주행의 핵심 개념이자 가치입니다. 자율주행차의 전반적인 시스템 안전설계는 차량 자율주행 시스템의 핵심 알고리즘 전략 설계, 하드웨어 및 소프트웨어 중복 안전 설계, 원격 클라우드 구동 기술, 전과정 테스트 검증 기술 등을 포함하는 복잡한 시스템 엔지니어링이며, 기능 안전(ISO 26262) 및 예상 기능 안전(ISO/PAS 21448)에 대한 요구 사항 및 설계 고려 사항을 따릅니다. 메인 시스템 안전, 중복 안전 시스템, 원격 클라우드 주행 시스템 등 3계층 안전 시스템으로 구분되는 바이두의 L4 자율주행 안전 시스템 사례를 살펴보자.
그림 1 바이두 L4 전체 시스템 안전 설계 아이디어
자율주행 메인 시스템 안전
메인 시스템 안전 시스템 즉, 보드 자동 운전 시스템 핵심 알고리즘 레이어는 '전략 보안'이라고도 할 수 있는 운전 전략 및 운전 행동의 안전을 보장합니다. 가장 진보되고 신뢰할 수 있는 인식 및 포지셔닝 알고리즘, 예측 의사결정 계획 및 제어 알고리즘을 사용하여 도로 위의 다양한 시나리오를 처리합니다. 특히, 어려운 시나리오에 직면할 때 운전 전략과 행동에 있어 안전을 보장하는 것이 필요합니다.
자율주행 메인 시스템의 안전성은 소프트웨어와 하드웨어 결합 제품군의 안전성 설계입니다. 소프트웨어 알고리즘은 전체 자율주행 시스템의 핵심입니다. 일반적인 L4 자율주행 알고리즘 시스템 아키텍처에는 주로 온보드 운영 체제, 환경 인식, 고정밀 지도 및 위치 확인, 예측 의사 결정 및 계획, 제어 및 실행 모듈이 포함됩니다. 등.
운영 체제
기본 운영 체제는 자율주행차에서 실행되어 온보드 소프트웨어 및 하드웨어 리소스를 관리, 예약, 제어하는 기본 소프트웨어입니다. 주요 임무는 실시간 작업 스케줄링, 실시간 컴퓨팅 작업 리소스 격리, 실시간 메시지 통신, 시스템 수준 액세스 제어 및 자율 주행 시스템을 위한 기타 기능을 제공하고, 시스템 리소스를 효과적으로 관리하고, 시스템 리소스 활용도를 향상시키는 것입니다. 자율주행차 알고리즘 모듈로부터 하드웨어와 소프트웨어를 보호합니다. 물리적 특성과 작동 세부정보는 작동 인식, 위치 지정, 계획 결정 및 제어와 같은 자율주행의 핵심 구성 요소를 전달합니다. 운영 체제는 높은 안정성, 실시간 성능 및 낮은 대기 시간(응답 속도가 인간 운전자보다 250ms 더 높음)의 특징을 가지고 있습니다.
팬 센싱 시스템
자율주행을 위해서는 환경 인식이 필수입니다. 환경 인식 시스템은 라이더, 밀리미터파 레이더, 카메라 등 여러 센서의 장점을 통합하여 차체 주변의 360도 시야를 확보하고 복잡하고 변화하는 교통 행동, 속도, 방향 및 기타 정보를 안정적으로 감지 및 추적합니다. 교통 환경, 의사 결정 및 계획에 대한 정보를 제공합니다. 현장 이해 정보를 제공합니다.
인식 알고리즘은 다중 센서 융합 프레임워크를 채택하고 최대 280m 떨어진 장애물을 감지할 수 있습니다. 심층 신경망과 대규모 자율 주행 데이터를 기반으로 장애물 유형을 정확하게 식별하고 장애물 동작을 안정적으로 추적하여 다운스트림 의사 결정 모듈에 안정적인 인식 기능을 제공합니다. 다중 센서 융합 솔루션을 기반으로 한 인지 시스템은 이기종 센싱 채널을 통해 중복성을 형성해 자율주행 시스템에 높은 내결함성을 제공함으로써 시스템 안전성을 향상시킨다.
또한 인식 알고리즘은 물안개 소음 인식, 낮은 장애물 감지, 특수한 모양의 신호등 및 표지판 감지 등의 기능을 통해 장면 확장을 효과적으로 지원합니다. 신호등 인식 측면에서는 자가 차량 센싱으로 감지한 신호등 색상과 카운트다운을 고정밀 지도에서 제공하는 사전 정보와 교차 검증할 수 있으며, 임시 신호등 인식 능력을 향상시켜 신뢰성과 안전성을 확보할 수 있다.
고정밀 지도와 고정밀 포지셔닝은 자율주행 차량에 고급 도로 정보, 정확한 차량 위치 정보 및 풍부한 도로 요소 데이터 정보를 제공하여 3차원 모델과 공간의 정확성을 강조하고 도로의 모든 지형지물을 매우 정확하게 표시합니다. . 고정밀 매핑 및 포지셔닝은 LiDAR, 비전, RTK 및 IMU의 다중 센서 융합 솔루션을 채택하여 포지셔닝 정확도가 5~10cm에 도달하여 L4 자율 주행 요구 사항을 충족할 수 있습니다.
예측 의사결정 및 계획 제어
예측 의사결정 및 계획 제어 기술 모듈은 자율주행차의 두뇌에 해당합니다. 예측적 의사결정과 계획은 소프트웨어 알고리즘의 핵심 모듈로, 차량 자율주행의 능력과 효과에 직접적인 영향을 미친다. 이 알고리즘 모듈은 교통안전 사양과 합의 규칙을 기반으로 차량의 안전하고 효율적이며 편안한 주행 경로와 궤적을 계획합니다. 알고리즘의 일반화 능력을 더욱 향상시키기 위해 데이터 마이닝 및 딥 러닝 알고리즘을 적용하여 운전 행동에 대한 지능적인 계획을 실현합니다.
차량이 설정한 출발지와 목적지가 주어지면 시스템은 최적의 글로벌 계획 경로를 생성합니다. 차량은 인식 모듈이 제공하는 환경 및 장애물 정보를 실시간으로 수신하고 이를 고정밀 지도와 결합하여 주변 차량, 보행자, 자전거 타는 사람 또는 기타 장애물의 행동 의도와 예측 궤적을 추적 및 예측하여 안전성과 편안함을 확보할 수 있습니다. 효율성을 고려하여 운전 행동 결정(추종, 차선 변경, 주차 등)을 생성하고 교통 규칙 및 문명화된 교통 예절에 따라 차량의 운행(속도, 궤적 등)을 계획하여 최종적으로 출력합니다. 차량 가속, 감속 및 조향 동작을 구현하는 제어 모듈입니다. 차량제어부는 가장 낮은 계층으로 차량 섀시와 직접 통신하여 전기 신호를 통해 차량의 목표 위치와 속도를 섀시에 전달하여 스로틀, 브레이크, 스티어링 휠을 작동시킵니다.
자율 주행의 목표는 도시 도로의 복잡한 교통 시나리오에 대처하고 어떤 도로 교통 상황에서도 자율주행차가 안전한 주행 상태를 유지하도록 보장하는 것입니다. 소프트웨어 알고리즘 계층에는 일반 운전 시나리오에서 자율주행차의 안전하고 효율적이며 원활한 교통을 보장하기 위해 대규모 테스트 데이터를 기반으로 훈련된 딥 러닝 모델이 있으며, 안전 알고리즘 계층에서는 다양한 일반적인 안전 운전 전략이 설계되었습니다. 위험한 시나리오 자율주행차가 어떤 상황에서도 안전한 운전 행동을 수행할 수 있는지 확인하세요. 예를 들어, 악천후, 시야 차단 등 극단적인 시나리오에서는 방어 운전 전략이 실행되고, 속도를 줄이고 더 많이 관찰함으로써 안전 위험을 줄일 수 있습니다.
자율 주행 차량은 도로 교차로에서 다른 교통 참가자를 만날 때, 통행우선권이 높은 상황에서 경쟁 차량을 만날 때에도 안전을 최우선으로 생각합니다. 위험을 피하기 위해 양보하십시오. "유령 프로브"와 같은 고위험 시나리오에 직면할 때 우리는 안전 제일 원칙을 고수하고 가능한 한 부상을 피하기 위해 비상 제동 전략을 채택할 것입니다. 자율주행 도로 테스트 데이터와 대량의 극한 장면 데이터가 축적되면서 핵심 자율주행 알고리즘은 데이터 중심의 딥러닝 알고리즘 모델을 통해 지속적으로 진화해, 사전에 예측하고 안전하게 운전할 수 있는 '늙은 운전자'가 됐다. 그리고 조심스럽게.
차량-도로 협업
차량-도로 협업 자율주행은 단일 차량 지능형 자율주행을 기반으로 하며, '사람-차량-도로-클라우드' 교통 참여 요소를 인터넷을 통해 유기적으로 연결합니다. 차량. 자동차와 자동차, 자동차와 도로, 자동차와 사람 간의 역동적인 실시간 정보 상호작용 및 공유를 실현하여 교통 안전을 보장합니다. 정보 상호 작용 및 협업, 협업 감지 및 협업 의사 결정 제어를 통해 차량-도로 협업 자율 주행은 단일 차량의 인식 범위를 크게 확장하고 인식 기능을 향상시키며 고차원 데이터로 표현되는 새로운 지능형 요소를 도입하여 달성할 수 있습니다. 그룹 지능. 자전거의 지능형 자율주행이 직면하는 기술적 병목 현상을 해결하고 자율주행 능력을 향상시켜 자율주행의 안전성을 보장하고 자율주행의 운영 설계 영역(ODD)을 확장하는 데 도움이 될 수 있습니다.
예를 들어 차량-도로 협업 자율 주행은 자전거 지능이 폐색, 악천후 등 환경 조건에 쉽게 영향을 받는 문제, 동적 및 정적 사각지대/폐쇄 협업 인식 문제를 해결할 수 있습니다. 자전거의 지능형 자율주행은 센서 감지 각도에 의해 제한됩니다. 정적 장애물이나 동적 장애물(예: 대형 차량)에 의해 차단되면 AV는 사각지대에 있는 차량이나 보행자의 움직임을 정확하게 포착할 수 없습니다. 차량-도로 협업은 도로변에 다수의 센서를 배치하여 다방향, 장거리 연속 감지 및 인식을 구현하고, 이를 AV 인식과 통합하여 자율주행차가 사각지대에 있는 차량 또는 보행자를 정확하게 인식 및 인식할 수 있도록 하며, 차량은 사전에 판단하고 의사결정을 제어할 수 있어 사고 위험을 줄일 수 있습니다.
그림 2 동적 및 정적 사각지대에서의 무자동차/보행자 고스트 프로브 공동 감지
그림 3 교차로 차단 차량 도로 공동 감지
자동 운전 안전 이중화 시스템
"ISO 26262 도로 차량 기능 안전"에 따라 시스템 기능 안전은 기능적 이중화 요구 사항을 고려해야 합니다. 기능 안전 설계 표준에 따라 기능적 중복성은 구성 요소 수준, 시스템 수준, 차량 수준의 세 가지 수준에서 완성됩니다. 이중화 시스템 설계는 안전하고 제어 가능한 자율 주행을 보장하는 핵심입니다. 전체 라인 이중화 설계를 기반으로 차량 제어 시스템, 하드웨어 플랫폼, 소프트웨어 플랫폼의 세 가지 수준에서 단일 지점 오류 또는 기능 오류를 효과적으로 처리할 수 있습니다. 완전 무인 자율주행 시스템을 기본 지원합니다.
L4 레벨 자율주행 시스템은 온보드 메인 컴퓨팅 유닛과 센싱 시스템 외에 안전 이중화를 탑재해 소프트웨어와 하드웨어의 이기종 이중화 설계를 구현해 각 시스템의 단일 장애 지점을 방지한다. 컴퓨팅 시스템과 이중 안전 시스템은 서로 다른 업무 분업을 갖고 서로를 검증함으로써 전체적으로 안전성과 신뢰성을 크게 향상시킵니다. 기능 및 알고리즘 전략 설계 측면에서 이중화 안전 시스템은 주요 컴퓨팅 시스템 소프트웨어 및 하드웨어의 실시간 모니터링과 위험 식별에 중점을 둡니다. 경보, 저속 제동, 정지, 비상 제동 및 차량을 최소 위험 상태(MRC)에 두는 기타 방법.
하드웨어 및 센서 중복
센서, 컴퓨팅 장치부터 차량 제어 시스템까지 두 개의 독립적인 중복 시스템이 있어 단일 실패 지점을 방지하고 시스템의 전반적인 신뢰성과 안전성을 향상시킵니다.
컴퓨팅 유닛 이중화
안전 시스템은 SafetyDCU 세트를 이중화 컴퓨팅 유닛으로 구성하여 실시간 계산을 수행하고 메인 시스템의 작동 상태를 모니터링합니다. 메인 컴퓨팅 장치에 장애가 발생하면 이중화 시스템을 지원할 수 있는 알고리즘 작동이 차량을 계속 제어하고, 롤백 위험을 최소화하면서 느린 제동, 정차 및 기타 조치를 수행할 수 있습니다.
센서 이중화
안전 시스템은 라이더, 카메라, 포지셔닝 장비 및 기타 구성 요소 이중화 솔루션을 사용하여 두 개의 독립적인 자율 주행 센서 시스템으로 이중화 설계되어 어떠한 경우에도 단일 구성 요소가 고장나는 것을 방지합니다. 이중화 시스템은 완전한 환경 인식 기능을 제공하기 위해 트리거될 수 있으며, 이를 통해 차량을 안전하게 제어하고 시스템이 보다 안정적으로 작동하도록 보장합니다.
차량 제어 시스템 이중화
차량 섀시에는 조향, 전원, 제동과 같은 주요 구성 요소를 포함한 이중 기능이 있으며 단일 시스템에 장애가 발생하면 백업 시스템으로 전환하여 차량을 제어할 수 있습니다. 안전을 돕기 위해 차량이 통제력을 잃지 않도록 차량을 정지시키십시오.
오류 모니터링 시스템 및 소프트웨어 이중화
오류 모니터링 시스템은 메인 컴퓨팅 장치와 안전 컴퓨팅 장치 사이에 배포되는 완전한 오류 감지 시스템으로 시스템 작동에서 모든 소프트웨어 및 하드웨어 유형을 모니터링할 수 있습니다. 장애, 장애, ODD 범위 초과, 시스템 알고리즘 결함 등을 실시간으로 감지 및 모니터링하고, 메인 시스템과 이중화 시스템을 상호 검증하고 모니터링하여 장애가 누락되지 않도록 합니다. 동시에 위험 예측이 수행되고 문제가 발생하기 쉬운 데이터가 마이닝, 분석 및 특징 추출되며 차량 측에서 실시간 안전 위험 계산이 수행됩니다.
소프트웨어 중복 시스템은 경량 인식 포지셔닝 및 의사 결정 제어 소프트웨어의 완전한 세트입니다. 예를 들어, 완벽한 포지셔닝 시스템 이중화는 다중 교차 검증을 추가하여 포지셔닝 이상 감지 및 내결함성을 향상시킵니다. 360도 주변 감지 범위를 감지하여 차체 주변 및 전방 위험을 실시간으로 인식합니다. 메인 시스템 결함이나 고장이 감지되면 백업 시스템이 차량 제어를 대신하여 기능을 저하시키거나 속도 제한, 저속 제동, 견인, 제동 등을 통해 MRC에 진입하여 안전한 주차를 보장합니다. 차량.
그림 4 결함 모니터링 시스템 및 소프트웨어 이중화
원격 클라우드 드라이빙 시스템 졸음 또는 극한 현장에서 원격 운전자가 차량을 인수하고 환경을 표시합니다. 서라운드 스크린을 통해 모델, 메인 비전, 머리 위 관점을 통해 안전 담당자에게 몰입형 평행 주행 경험을 제공합니다. 원격 운전자가 안전지대까지 차량을 운전한 후 차량에 제어권을 넘겨주면 전체 과정의 엔드투엔드 지연 시간이 인간 운전자의 반응 시간보다 짧고, 차량 간 제어 전환도 가능하다. 리모콘은 완전히 부드럽고 매끄 럽습니다. 원격 조종실에서는 다중 화면 모니터링을 구성하고 위험 경고 및 동적 예약과 같은 기능을 통해 차량 수준 실시간 모니터링을 달성할 수 있습니다.
원격 클라우드 주행은 능동형 안전, 안전 경고, 기본 안전 기능을 포함한 포괄적인 보안 계층 설계를 갖추고 조종석, 네트워크 및 무인 차량의 상태를 실시간으로 모니터링할 수 있으며, 조종석, 네트워크의 상태를 모니터링할 수 있습니다. 다양한 결함이나 위험 수준에 따라 자율 주행 차량을 더욱 완벽하게 보호하기 위한 안전 조치를 취합니다. 현재 자율주행 기술은 주로 차량 측 자율주행 시스템을 사용해 일반 도시 도로에서 자율주행을 구현하고, 극한 상황에서만 원격 클라우드 주행에만 의존하기 때문에 한 명의 원격 운전자가 여러 대의 차량을 제어할 수 있는 효율적인 운영 서비스를 구현할 수 있다. .
그림 5 원격 클라우드 주행 제품 디자인
병렬 주행은 5G 기술을 기반으로 원격 관제 센터의 안전 운영자가 차량의 환경과 상태를 실시간으로 파악할 수 있으며, 자동차와 클라우드는 완벽하게 연결되어 자율주행이 통과할 수 없는 상황에서 원격 지원을 완료하고, 완료 후 차량을 자율주행 상태로 되돌려 극한 상황에서 차량 탈출 및 회피를 달성합니다.
5G 클라우드 드라이빙은 미래 자율주행을 위한 중요한 지원 시설로, 5G, 스마트 교통, V2X 등 새로운 인프라 시설을 기반으로 자율주행차 내부와 외부의 영상에 대한 실시간 백홀 모니터링을 실현할 수 있습니다. , 차량에서 무선으로 수행할 수 있는 자율주행 시스템의 역량은 운전자의 상태에 따라 채워질 것입니다.
그림 6 원격 클라우드 운전에 적용 가능한 시나리오
자율주행 차량 테스트 및 검증
자율주행 개발부터 적용까지 구동 시스템이 필요합니다. 차량 사용자 및 기타 교통 참여자의 개인 안전을 보호하기 위해 작동 안전성을 입증하기 위한 완전한 기능 안전 및 성능 안전 테스트 검증. 가상 시뮬레이션에는 수억~수백억 킬로미터의 검증 테스트가 필요하며, 실제 도로 테스트에는 100만 킬로미터 이상의 테스트 축적이 필요합니다.
테스트 프로세스 시스템
자율주행 테스트는 시나리오 기반 테스트 방식을 사용해 각 시나리오에서 안전한 운전 능력을 갖추고 있는지 검증한다. 자율 주행 테스트 시나리오 라이브러리는 테스트 시스템의 기초이며 자율 주행 차량 테스트의 모든 측면을 구동합니다.
테스트 시나리오 라이브러리에는 일반적인 일일 운전 시나리오, 높은 충돌 위험 시나리오, 법률 및 규제 시나리오 등이 포함되어 있습니다. 또한 AEB 기능에 대한 표준 테스트 시나리오와 같이 업계 표준을 형성한 시나리오도 포함되어 있습니다. 구체적으로 다양한 자연 조건(날씨, 조명), 다양한 도로 유형(포장 상태, 차선 유형 등), 다양한 교통 참여자(차량, 보행자 위치, 속도 등), 다양한 환경 유형(고속도로)으로 구분됩니다. , 주거 지역, 쇼핑몰, 다양한 유형의 가상 시뮬레이션 테스트 시나리오(시골 지역 등) 및 실제 교통 환경에서의 테스트 시나리오. 테스트 내용에는 센서, 알고리즘, 액츄에이터, 인간-기계 인터페이스, 완성차 등이 포함되어 응용 기능, 성능, 안정성 및 견고성, 기능 안전성, 예상 기능 등 다양한 측면에서 자율주행 시스템의 합리성을 검증합니다. 안전, 형식 인증 등 차량이 자율적으로 도로를 주행할 수 있도록 성능, 안전 및 안정성을 보장합니다.
자율주행차의 테스트 프로세스 시스템은 주로 오프라인 환경 테스트, VIL(Vehicle in the Loop, VIL) 테스트, RIL(Road in the Loop) 테스트의 세 단계로 구성됩니다. 하드웨어, 차량은 도로 테스트를 위한 자율주행 시스템의 안전성을 보장하기 위해 레이어별 연동 테스트를 거칩니다. 오프라인 테스트 단계에서 각 코드 라인은 완전하고 시기적절하게 테스트될 수 있습니다. 소프트웨어가 수정되면 시스템은 차량에 탑승하기 전에 안전한 온보드 테스트 표준에 도달할 때까지 각 테스트 링크를 하나씩 자동으로 트리거합니다. - 루프 테스트 단계 및 로드 인 더 루프 테스트 단계. Road-in-the-Loop 테스트 단계에서 문제가 발견되면 다음 라운드의 코드 수정이 이루어지고 다음 주기가 시작됩니다. 일련의 폐쇄 루프 이후 자율 주행 기능은 계속해서 향상됩니다.
오프라인 테스트
오프라인은 차량이 포함되지 않은 테스트를 말합니다. 대부분의 작업은 실험실에서 이루어집니다. 이 단계에는 루프 테스트의 모델(Model in the Loop, MIL), 소프트웨어 루프 테스트(Software in the Loop, SIL) 및 하드웨어 루프 테스트(Hardware in the Loop, HIL)가 포함됩니다.
Model-in-the-loop 테스트는 대규모 데이터 세트를 사용하여 인식, 예측, 위치 지정, 제어 등 핵심 알고리즘 모델을 정확하게 평가하고, 모델 평가 후 다양한 지표를 통해 모델 성능의 변화를 측정하고 노출합니다. 문제 및 BadCase를 자동화하여 초기 단계에서 알고리즘을 처리하여 후속 테스트 프로세스로 넘어가는 것을 방지합니다.
Software-in-the-Loop 테스트 단계에서 시뮬레이션 테스트는 자율주행 테스트 시스템의 핵심 링크입니다. 대규모 도로 테스트 데이터를 시뮬레이션 시스템에 쏟아 부어 새로운 알고리즘의 효과를 반복적으로 검증합니다. 회귀. 동시에, 시뮬레이션 시스템에는 수많은 극한 시나리오가 구축되고, 테스트 범위를 향상시키기 위해 매개변수 확장을 통해 단일 시나리오가 자동으로 대규모 시나리오로 생성됩니다. 또한, 시뮬레이션 플랫폼에는 시뮬레이션 과정에서 발생하는 충돌 문제, 교통 위반 문제, 체성 감각 문제, 불합리한 경로 문제 등을 자동으로 판별할 수 있는 정교한 측정 시스템도 갖추고 있습니다.
Hardware-in-the-Loop 테스트 단계에서는 소프트웨어와 하드웨어가 통합되어 소프트웨어와 하드웨어 시스템의 호환성과 신뢰성을 테스트합니다. 일반적으로 하드웨어 장애는 특정 확률과 우발적 상황으로 발생합니다. 하드웨어 인더루프(Hardware-in-the-Loop) 테스트 단계에서는 실제 하드웨어와 가상 하드웨어의 조합을 기반으로 수천 개의 실제 시나리오를 복원하고 자율 주행을 테스트합니다. 시스템은 하루 24시간 다양한 리소스 제한 조건(예: GPU 리소스 부족, 과도한 CPU 사용량)에서 시스템의 성능과 안정성을 시뮬레이션하기 위해 압력을 가합니다. 동시에 이 단계에서는 수많은 하드웨어 오류를 시뮬레이션하여 하드웨어 오류, 정전, 프레임 손실, 업스트림 및 다운스트림 인터페이스 이상 등과 같은 하드웨어 오류가 발생할 경우 시스템의 응답을 테스트합니다. 시스템이 ISO26262 기능 안전 요구 사항을 충족하는지 확인합니다.
Vehicle in-the-loop 테스트
Vehicle-in-the-loop 테스트 단계에서는 먼저 벤치 기반 테스트를 실시한 후 다양한 차량 라인 제어 기능, 성능 및 안정성 테스트가 완료됩니다. 자율주행을 보장하는 벤치 시스템은 차량을 의도한 대로 제어할 수 있습니다. VIL 단계는 차량 제어 바이 와이어 테스트를 완료한 후 폐쇄된 장소에 들어가 실제 도로를 기반으로 가상 및 실제 시나리오를 구축하여 실제 차량에서 자율주행 시스템의 성능을 테스트합니다.
Road-in-the-loop 테스트
오프라인 테스트와 차량 인루프 테스트 단계(각 링크마다 엄격한 테스트 통과 기준이 있음)를 통과한 후 비공개 장소에 입장하여 차량의 자율 주행 능력과 안전성을 테스트할 실제 장면을 구축합니다. 비공개 테스트 장소는 직선 도로, 곡선 도로, 교차로, 경사면, 터널 및 주차장을 포함한 일반적인 도시 도로 및 고속도로를 다룹니다. 또한, 더미, 가짜 자동차 등의 테스트 장비를 통해 다양한 저주파 시나리오를 구축합니다. 이러한 빈도가 낮은 시나리오는 소셜 도로에 존재하지만, 개방 도로에서는 발생 빈도가 낮고 완전히 검증하기가 쉽지 않습니다. 예를 들어, 반대 방향으로 주행하는 자전거, 갑자기 달려드는 보행자, 도로에 물이 흐르는 현상 등이 있습니다.
개방형 도로 테스트는 Road-in-the-Loop 테스트의 마지막 단계이자 자율주행차가 테스트와 평가를 완료하기 위해 반드시 거쳐야 하는 중요한 단계입니다. 개방형 도로 테스트는 일반적으로 테스트를 위해 소수의 차량에 최신 시스템을 배포한 다음 안전성을 확인한 후 대규모 차량에 배포합니다. 실제 도로에서 지속적인 테스트와 검증을 위해 대규모 자율주행차를 배치함으로써 실제 도로 시나리오와 자율주행 능력의 연속적인 폐쇄 루프가 형성되어 자율주행차의 지능, 안전성 등이 지속적으로 향상되어 점차적으로 향상될 것입니다. 수천 가구에 도달할 수 있는 수준에 도달했습니다.
위 내용은 자율주행차의 안전기술적 특징을 다룬 기사의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

메모장++7.3.1
사용하기 쉬운 무료 코드 편집기

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

드림위버 CS6
시각적 웹 개발 도구

SublimeText3 Mac 버전
신 수준의 코드 편집 소프트웨어(SublimeText3)

어제 인터뷰 도중 롱테일 관련 질문을 해본 적이 있느냐는 질문을 받아서 간략하게 요약해볼까 생각했습니다. 자율주행의 롱테일 문제는 자율주행차의 엣지 케이스, 즉 발생 확률이 낮은 가능한 시나리오를 말한다. 인지된 롱테일 문제는 현재 단일 차량 지능형 자율주행차의 운영 설계 영역을 제한하는 주요 이유 중 하나입니다. 자율주행의 기본 아키텍처와 대부분의 기술적인 문제는 해결되었으며, 나머지 5%의 롱테일 문제는 점차 자율주행 발전을 제한하는 핵심이 되었습니다. 이러한 문제에는 다양한 단편적인 시나리오, 극단적인 상황, 예측할 수 없는 인간 행동이 포함됩니다. 자율 주행에서 엣지 시나리오의 "롱테일"은 자율주행차(AV)의 엣지 케이스를 의미하며 발생 확률이 낮은 가능한 시나리오입니다. 이런 희귀한 사건

홈 화면에서 중요한 항목을 삭제하고 다시 복구하려고 하시나요? 다양한 방법으로 앱 아이콘을 화면에 다시 표시할 수 있습니다. 우리는 당신이 따라갈 수 있는 모든 방법과 홈 화면에 앱 아이콘을 다시 넣을 수 있는 방법에 대해 논의했습니다. 방법 1 - 앱 라이브러리에서 앱 아이콘 바꾸기 앱 라이브러리에서 직접 홈 화면에 앱 아이콘을 배치할 수 있습니다. 1단계 – 옆으로 스와이프하여 앱 라이브러리의 모든 앱을 찾습니다. 2단계 – 이전에 삭제한 앱 아이콘을 찾습니다. 3단계 – 메인 라이브러리의 앱 아이콘을 홈 화면의 올바른 위치로 드래그하기만 하면 됩니다. 이것은 응용 다이어그램입니다

지난 달에는 몇 가지 잘 알려진 이유로 업계의 다양한 교사 및 급우들과 매우 집중적인 교류를 가졌습니다. 교환에서 피할 수 없는 주제는 자연스럽게 엔드투엔드와 인기 있는 Tesla FSDV12입니다. 저는 이 기회를 빌어 여러분의 참고와 토론을 위해 지금 이 순간 제 생각과 의견을 정리하고 싶습니다. End-to-End 자율주행 시스템을 어떻게 정의하고, End-to-End 해결을 위해 어떤 문제가 예상되나요? 가장 전통적인 정의에 따르면, 엔드 투 엔드 시스템은 센서로부터 원시 정보를 입력하고 작업과 관련된 변수를 직접 출력하는 시스템을 의미합니다. 예를 들어 이미지 인식에서 CNN은 기존의 특징 추출 + 분류기 방식에 비해 end-to-end 방식으로 호출할 수 있습니다. 자율주행 작업에서는 다양한 센서(카메라/LiDAR)로부터 데이터를 입력받아

표적 탐지는 자율주행 시스템에서 상대적으로 성숙한 문제이며, 그 중 보행자 탐지는 가장 먼저 배포되는 알고리즘 중 하나입니다. 대부분의 논문에서 매우 포괄적인 연구가 수행되었습니다. 그러나 서라운드 뷰를 위한 어안 카메라를 사용한 거리 인식은 상대적으로 덜 연구되었습니다. 큰 방사형 왜곡으로 인해 표준 경계 상자 표현은 어안 카메라에서 구현하기 어렵습니다. 위의 설명을 완화하기 위해 확장된 경계 상자, 타원 및 일반 다각형 디자인을 극/각 표현으로 탐색하고 인스턴스 분할 mIOU 메트릭을 정의하여 이러한 표현을 분석합니다. 제안된 다각형 형태의 모델 fisheyeDetNet은 다른 모델보다 성능이 뛰어나며 동시에 자율 주행을 위한 Valeo fisheye 카메라 데이터 세트에서 49.5% mAP를 달성합니다.

PHP에서 화살표 기호의 역할과 실제 적용 PHP에서 화살표 기호(->)는 일반적으로 객체의 속성과 메서드에 액세스하는 데 사용됩니다. 객체는 PHP의 객체지향 프로그래밍(OOP)의 기본 개념 중 하나입니다. 실제 개발에서는 객체를 조작할 때 화살표 기호가 중요한 역할을 합니다. 이 기사에서는 화살표 기호의 역할과 실제 적용을 소개하고 독자의 이해를 돕기 위해 구체적인 코드 예제를 제공합니다. 1. 객체의 속성에 접근하기 위한 화살표 기호의 역할 화살표 기호를 사용하여 객체의 속성에 접근할 수 있습니다. 쌍을 인스턴스화할 때

전면 및 시작점 작성 엔드 투 엔드 패러다임은 통합 프레임워크를 사용하여 자율 주행 시스템에서 멀티 태스킹을 달성합니다. 이 패러다임의 단순성과 명확성에도 불구하고 하위 작업에 대한 엔드투엔드 자율 주행 방법의 성능은 여전히 단일 작업 방법보다 훨씬 뒤떨어져 있습니다. 동시에 이전 엔드투엔드 방법에서 널리 사용된 조밀한 조감도(BEV) 기능으로 인해 더 많은 양식이나 작업으로 확장하기가 어렵습니다. 여기서는 희소 검색 중심의 엔드 투 엔드 자율 주행 패러다임(SparseAD)이 제안됩니다. 여기서 희소 검색은 밀집된 BEV 표현 없이 공간, 시간 및 작업을 포함한 전체 운전 시나리오를 완전히 나타냅니다. 특히 통합 스파스 아키텍처는 탐지, 추적, 온라인 매핑을 포함한 작업 인식을 위해 설계되었습니다. 게다가 무겁다.

Linuxtee 명령은 기존 출력에 영향을 주지 않고 출력을 파일에 쓰거나 출력을 다른 명령으로 보낼 수 있는 매우 유용한 명령줄 도구입니다. 이 기사에서는 초보자부터 숙련자까지 Linuxtee 명령의 다양한 애플리케이션 시나리오를 심층적으로 살펴보겠습니다. 1. 기본 사용법 먼저 tee 명령어의 기본 사용법을 살펴보겠습니다. tee 명령의 구문은 다음과 같습니다: tee[OPTION]...[FILE]...이 명령은 표준 입력에서 데이터를 읽고 데이터를 다음 위치에 저장합니다.

순수한 시각적 주석 솔루션은 주로 비전과 동적 주석을 위한 GPS, IMU 및 휠 속도 센서의 일부 데이터를 사용합니다. 물론 대량 생산 시나리오의 경우 순수 비전일 필요는 없습니다. 일부 대량 생산 차량에는 고체 레이더(AT128)와 같은 센서가 장착됩니다. 대량 생산 관점에서 데이터 폐쇄 루프를 만들고 이러한 센서를 모두 사용하면 동적 개체에 라벨을 붙이는 문제를 효과적으로 해결할 수 있습니다. 그러나 우리 계획에는 고체 레이더가 없습니다. 따라서 가장 일반적인 대량 생산 라벨링 솔루션을 소개하겠습니다. 순수한 시각적 주석 솔루션의 핵심은 고정밀 포즈 재구성에 있습니다. 재구성 정확도를 보장하기 위해 SFM(Structure from Motion)의 포즈 재구성 방식을 사용합니다. 하지만 통과
