일반적으로 합류는 자율 주행과 유인 운전 모두에게 어려운 작업입니다. 특히 교통량이 많은 시나리오에서는 합류 차량이 안전한 합류를 달성하기 위해 공간을 식별하거나 생성하기 위해 일반적으로 다른 차량과 상호 작용해야 하기 때문입니다. 본 논문에서는 강제 병합 시나리오에서 자율주행차의 제어 문제를 연구합니다. 우리는 LFGC(Leader-Follower Game Controller)라는 새로운 게임 기반 컨트롤러를 제안합니다.
그 중에서 부분적으로 상당한 리더-추종자 게임 모델을 사용하여 선험적으로 불확실한 운전 의도를 가진 자율 차량과 다른 차량 간의 상호 작용 동작을 모델링합니다. LFGC는 관찰된 궤적을 기반으로 온라인에서 다른 차량의 의도를 추정하고, 미래 궤적을 예측하며, 모델 예측 제어(MPC)를 사용하여 자체 차량 궤적을 계획하여 병합 목표를 달성하는 동시에 안전 확률을 보장합니다. LFGC의 성능을 검증하기 위해 시뮬레이션과 NGSIM 데이터를 이용하여 테스트한 결과, LFGC는 최대 97.5%의 결합 성공률을 보여주었습니다.
고도로 자율주행차를 구현하는 것은 여전히 많은 과제에 직면해 있습니다[4]. 강제 병합은 일반적으로 고속도로 진입로에서 병합과 같이 현재 차선이 끝나고 강제 병합이 필요한 시나리오를 나타냅니다. 교통량이 많은 경우 합류 차량은 대상 차선을 주행하는 차량과 상호 작용 및/또는 협력합니다.
이 때 대상 차선에 있는 차량은 합류 차량을 무시하도록 선택할 수 있으며(즉, 계속 주행) 합류 차량은 그 뒤에서만 합류할 수 있습니다. 또는 대상 차선에 있는 차량이 양보하도록 선택할 수 있습니다. 병합(즉, 병합 차량이 그 앞에서 병합되도록 합니다). 밀집된 교통 흐름에 성공적으로 합류하기 위해 자율주행차 컨트롤러는 적절하게 대응하기 위해 대상 차선에 있는 차량의 계속 또는 양보 의도를 합리적으로 예측해야 합니다.
동시에 다른 자동차의 의도는 교통 상황(예: 두 자동차 사이의 상대적 위치 및 속도)뿐만 아니라 운전자의 일반적인 운전 스타일, 성격, 감정 등에 따라 달라집니다. 예를 들어, 공격적인 운전자는 계속 운전하려는 경향이 있는 반면, 조심스럽고 보수적인 운전자는 포기하려는 경향이 있을 수 있습니다. 이는 자율주행차의 계획과 제어에 심각한 과제를 안겨줍니다.
그림 1 파란색 자가 차량 강제 병합 장면 다이어그램
현재 많은 학자들이 부분적으로 관찰 가능한 마르코프 결정 과정(POMDP) 프레임워크를 사용하여 상호작용적 불확실성(예: 다른 차량의 협력 의도가 다르기 때문에) 그러나 이 방법은 계산 요구 사항이 높으며[11] 다중 차량 상호 작용에 사용하기 어렵습니다.
강화 학습(RL) 방법은 차선 변경 또는 병합 시나리오에 대한 제어 전략[12][13]을 설정하는 또 다른 인기 있는 방법입니다. RL 기반 방법은 교통 상황에서 복잡한 다중 차량 상호 작용 시나리오를 처리할 수 있는 능력이 있지만 RL에는 해석 가능성이 부족하고 명확한 안전 보장이 없습니다.
보다 설명 가능한 제어를 달성하기 위해 일부 연구자들은 차량 상호 작용의 예측 모델을 제어 알고리즘에 명시적으로 추가할 것을 제안했습니다. 예를 들어 [22]는 "GAN(Social Generative Adversarial Network)"을 사용하여 자신의 자동차의 행동에 반응하여 다른 자동차의 미래 궤적을 예측합니다. 그러나 SocialGAN은 운전자의 스타일과 의도의 변화를 고려하지 않으며 훈련을 위해 막대한 교통 데이터가 필요합니다[23]. 일부 연구에서는 차선 변경 또는 병합 시나리오를 모델링하기 위해 게임 이론 방법을 사용합니다[9], [25]. [26], [27], [28], [29]에 따라 게임 모델링 및 운전자 인지 수준의 온라인 추정 등을 통해 다양한 운전 스타일 및/또는 의도를 설명할 수 있습니다[26] 또는 [30], [31 ].
본 논문에서는 강제 병합 시나리오에서 자율주행차의 계획 및 제어를 위해 LFGC(Leader-Follower Game Controller)라는 새로운 고급 제어 알고리즘을 제안합니다. LFGC에서는 명시적 게임 이론을 사용하여 운전자의 상호 작용 의도(계속 또는 양보)와 그에 따른 차량 동작을 모델링합니다.
모델에 여러 개의 병렬 리더-추종자 쌍이 있으므로 이를 리더-추종자 게임이라고 합니다[32]. 상호 작용의 불확실성을 고려하여 두 차량 간의 선험적으로 불확실한 리더-추종자 관계는 잠재 변수로 모델링됩니다. LFGC는 관찰된 궤적을 기반으로 온라인에서 리더-팔로워 관계를 추정하고 모델 예측 제어(MPC) 기반 전략을 사용하여 자율주행차에 대한 최적의 결정을 내립니다.
따라서 제안된 LFGC는 병합을 달성하는 동시에 확률적 안전성을 보장하기 위해 예측된 리더-팔로워 관계를 평가하도록 조정되었습니다.
기존 방법과 비교하여 LFGC의 기여와 혁신은 다음과 같습니다.
1) LFGC 게임 모델을 사용하여 다른 차량의 상호 작용 및 협력 의도를 고려하여 차량 궤적을 예측하고 해석 가능한 결과를 생성합니다. MPC 제어 제어 계획에 액세스한 후.
2) LFGC는 불확실성을 잠재 변수로 모델링하고 과거 관측 궤적 수집을 기반으로 베이지안 추론 온라인 추정을 통해 다른 차량의 서로 다른 협력 의도로 인해 발생하는 상호 작용 불확실성을 처리합니다.
3) LFGC는 차량 안전 요구 사항(예: 충돌 방지)에 대한 제약 조건을 설정하고 명확한 확률적 안전 특성(예: 사용자가 지정한 안전 확률 경계 내)을 충족하면서 최적화를 수행합니다.
4) LFGC는 연속 상태 공간 설정으로 설계되어 개별 공간의 컴퓨팅 비용을 줄이고 보다 복잡한 다중 차량 상호 작용 시나리오를 처리할 수 있습니다.
5) NGSIM US Highway 101 데이터세트[34]의 실제 사례는 물론, 다양한 유형의 운전자 모델에 의해 다른 차량이 제어되는 사례 등 포괄적인 시뮬레이션 기반 사례 연구를 통해 LFGC의 타당성을 검증합니다. . 그리고 실제 사례 시뮬레이션에서는 최대 97.5%의 성공률을 보여줍니다.
본 절에서는 차량 및 교통 역학을 대표하는 모델을 기반으로 MPC 기반의 자가 차량 궤적 계획 전략을 수립합니다.
Vehicle Dynamics Model
운동학적 자전거 모델[35]을 사용하여 자전거 모델의 연속시간 방정식은 다음과 같다. 스티어링
, 뒷바퀴 스티어링이 없습니다(예:
). x, y는 차량의 세로 및 측면 위치입니다. v는 차량의 속도입니다. 차량및 은 CG에서 앞바퀴와 뒷차축까지의 거리를 나타냅니다. a는 속도 v 방향에 따른 가속도입니다. 제어 입력은 가속 및 앞바퀴 조향입니다. . 동적 교통 설정 장면에는 1대의 자가 차량과 n개의 다른 차량이 포함되어 있습니다. 교통 상태와 그 역학은 모든 n+1 차량의 상태와 역학의 집합으로 특징지어집니다. 특히 다음과 같은 이산 시간 모델은 교통 역학을 설명하는 데 사용됩니다.
where,
은 이산 순간의 n+1개 차량의 교통 상태를 나타내고, 는 시간 t에서 모든 n+1개 차량의 제어 입력 집합을 나타냅니다. 각 차량의 상태 에는 xy 좌표, 속도 및 요 각도가 포함됩니다. 제어 입력
보상 기능
보상 기능 은 운전자 운전의 수학적 표현입니다. goal의 경우 교통 상태는 두 차량의 상태로 구성되며, 자체 차량이 얻는 보상은 상호 작용하는 두 차량의 상태와 제어 입력에 따라 달라집니다. 우리는 그 중 을 고려합니다. , 은 무게입니다 벡터입니다. 보너스 아이템 은 운전 중 다음과 같은 일반적인 고려 사항을 나타냅니다. 1) 안전 , 즉 다른 차량과 충돌하거나 도로를 벗어나지 않음 2) 병합 의도 , 즉 목적지까지의 거리 차선 3) Comfort, 즉 다른 차량과 적당한 거리를 유지하는 것입니다. 의 더 자세한 정의는 [33]을 참조하세요.
그림 2 자유도가 5개인 차선 변경 궤적 곡선
차량 동작으로 궤적 선택
의 차량 모션 궤적 샘플을 각 차량의 동작 공간으로 간주합니다. 구체적으로, 각 궤적은 차량의 현재 상태
에서 시작하는 차량 상태의 시간적 이력입니다. 차량 동역학 모델(1)에 따르면 각 궤적에 해당하는 제어 입력 시간 이력
을 계산할 수 있습니다.
목표 차선을 따라 이동하는 대화형 차량의 경우 종방향 움직임만 고려합니다.
및 을 가정하면 이러한 차량의 운동학적 모델(1)은 다음과 같이 단순화됩니다. 이때, 주어진 초기 조건에서 시작하는 궤적은 [0, T]의 가속도 a에만 의존합니다. 각 샘플링 시간마다 81개의 가속도 곡선, 즉 식 (4)를 만족하는 81개의 궤적을 고려하여 목표 차선을 주행하는 다른 차량에 대한 실현 가능한 궤적 범위를 형성한다. 이 81개의 궤적은 속도 제한을 준수합니다.
각 궤적을
, m = 1,2,...81로 표시하고 궤적 세트는
으로 기록됩니다. 병합 차량의 궤적 전략에는 차선 유지와 차선 유지의 궤적 생성은 (4)와 유사하며, 차선 변경 궤적은 5차 다항식으로 표현된다[37]. 즉, 차선 변경 궤적 요구 사항에 대한 솔루션은 다음 경계값 문제로 모델링될 수 있습니다.5차 다항식 이 해당 초기 값 조건과 최종 값 조건을 만족하도록 계수
및을 찾습니다. (5)의 변수 ζ는 연속 시간을 나타내고 현재 샘플의 경우 ζ=0입니다.
동시에, 1) 차량은 계획 범위 내에서 언제든지 차선 변경을 시작할 수 있고, 2) 완전한 차선 변경에 필요한 시간은 일정하다고 가정합니다[37]. 차선 변경 프로세스 중 언제든지 차량이 차선 변경 동작을 종료하도록 허용하는 것은 이전에 계획된 차선 변경이 실행 불가능하거나 안전해졌을 때 운전자의 "마음의 변화"를 나타냅니다. 차선변경을 중단한 후의 궤적은 차선변경 궤적과 유사하게 생성된다.
마지막으로 차선 유지, 차선 변경, 차선 변경 포기의 궤적을 접합하여 162개의 궤적으로 결합하여 전략의 실현 가능 영역으로 사용합니다.
궤적 특징은 1) 차선 변경 시작 여부/시점 2) 부적절한 차선 변경 종료 여부/시점으로 추출됩니다.
그림 3은 차량이 차선 변경을 시작하지 않을 때와 차량이 차선 변경을 진행 중인 경우의 궤적 샘플링 세트를 보여줍니다. 각 궤적을 m = 1,2,...,162로 표시합니다. 궤적 세트는 다음과 같습니다.
그림 3 병합 차량의 궤적 샘플
결론적으로, 결정 출력으로서 실현 가능한 궤적을 정의합니다. 동시에, 이러한 궤적에 해당하는 제어 입력의 시간 이력은 차량 동역학 모델(1)을 기반으로 계산될 수 있습니다. 계획된 궤적은 실제로 기본 차량 모션 컨트롤러로 전송될 수 있습니다.
모델 예측 제어 전략
신호 상호작용 차량의 존재를 고려하여 MPC를 기반으로 한 자율주행차 궤도 계획 전략을 고려하세요. 각 샘플 시간 t에서 자율주행차는 최적을 계산합니다. 계획 범위 내에서 누적 보상을 최대화하는 궤적, ,,,,
🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜 🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜🎜는 다음과 같은,이 개별 시간 t+τ에서 예측 된 트래픽 상태를 나타냅니다. 🎜🎜🎜🎜🎜은 각각 t+τ에서 자체 차량과 대화형 차량의 예측된 제어 입력을 나타냅니다. 매개변수 λ∈(0,1)은 미래 보상의 손익 계수입니다. 즉, 현재 보상에 우선 순위가 부여됩니다. (6)에서는 🎜🎜🎜
는 섹션 II-C에 설명된 대로 t+τ에서 자가 차량의 보상을 나타냅니다. 는 엄격한 안전 사양(충돌 방지 등)을 구현하는 데 사용되는 교통 상태에 대한 일련의 안전 값을 나타냅니다. , 도로 경계 제약 등). 최적의 궤적을 얻은 후, 자체 차량은 궤적에 해당하는 제어 입력 을 사용하고 한 샘플링 기간 내에 상태를 업데이트한 후 다음 샘플링 시간 순간 t+1에서 위 단계를 반복합니다.
이 섹션에서는 본 논문에서 사용된 리더-추종자 게임 모델을 소개합니다. 게임 이론 모델의 온라인 계산을 단순화하기 위해 모방 학습을 사용하여 신경망 기반의 명시적 모델을 획득하여 MPC 기반 전체에서 자체 차량 동작에 병합되는 대화형 차량의 반응 궤적을 온라인으로 예측합니다. 궤도 계획 전략.
리더-추종자 게임 이론 모델
본 논문에서는 운전자의 협력 의도와 그에 따른 결과를 표현하기 위해 쌍별 리더-추종자 상호 작용을 기반으로 하는 파라메트릭 이론 모델을 고려합니다. 결과적인 차량 행동을 리더라고 합니다. -팔로어 게임 모델. 이 모델에서는 다른 차량보다 먼저 진행하기로 결정한 차량(또는 운전자)이 쌍의 리더이고, 다른 차량에 양보하기로 결정한 차량은 쌍의 추종자입니다. 리더와 추종자는 서로 다른 의사결정 전략을 사용합니다. 이 리더-추종자 게임 이론 모델은 원래 [32]에서 제안되었습니다. 이 게임 이론 모델은 강제 고속도로 병합 시나리오에서의 적용을 소개하기 위해 여기에서 간략하게 검토됩니다.
은 리더와 추종자의 궤적을 각각 나타내며, 는 리더와 추종자의 실행 가능한 궤적 집합입니다. 게임의 양 당사자가 누적 보상을 최대화하기로 결정했다고 가정하고 각각 다음과 같이 기록되고 정의됩니다.
게임에서 역할을 나타내는 곳은 리더/ 추종자는 두 궤적의 합에 해당하는 제어 입력을 나타냅니다.
구체적으로 우리는 리더와 추종자의 대화형 의사 결정 프로세스를 다음과 같이 모델링합니다. 추종자) 현재 교통 상황에 따라
및
은 다음과 같이 정의됩니다.
어느
.
강제 병합의 결정 모델 (8)-(11)은 다음과 같이 설명할 수 있습니다. 추종자는 양보하려는 운전자를 나타냅니다. 다른 운전자의 행동에 대한 불확실성으로 인해 추종자들은 다른 운전자가 자유롭게 행동할 수 있다는 가정 하에 (9)와 (11)을 통해 최악의 보상을 최대화하는 행동을 취하기로 결정합니다. 리더는 다른 운전자가 양보할 것이라고 가정하고 계속 주행하려는 운전자를 나타냅니다. 따라서 리더는 추종자 모델을 사용하여 다른 운전자의 행동을 예측하고 (8)과 (10)을 통해 예측된 추종자의 행동에 따라 리더 자신의 보상을 최대화합니다. 이 리더-추종자 게임 모델은 Stackelberg 게임 모델[38]에서 부분적으로 파생되었지만 운전자 상호 작용에 적용되지 않는 일부 가정을 완화합니다. 리더-추종자 게임 모델과 다중 차량 시나리오에서 운전자 상호 작용 모델링의 효율성에 대한 자세한 이해는 [32]를 참조할 수 있습니다.
이 모델은 아래 두 예에서처럼 리더 차량이 항상 병합 차량을 뒤에서 병합하도록 강제하거나 뒤따르는 차량이 항상 병합 차량을 앞에서 병합하도록 강제한다는 의미는 아닙니다. 리더 차량 앞에서 합류할 수 있습니다. 1) 합류 차량은 리더 차량 앞에 있으며 안전한 합류를 허용할 만큼 충분한 거리를 두고 있습니다. 2) 합류하는 차량이 차선의 끝에 도달하려고 합니다. 도로를 벗어나면 큰 벌금이 부과되기 때문에(섹션 2-c 참조), 자기 차량의 합류로 인해 충돌이 발생하지 않는 한(충돌에 대한 벌금은 도로를 떠나는 것보다 큽니다), 자기 차량은 다음을 선택할 수 있습니다. 큰 충돌을 피하기 위해 다가오는 차량보다 먼저 합류합니다.
위는 의사결정 모델 (8)-(11)에서 리더-추종자의 역할이 차량의 공간적 위치에 따라 할당되지 않음을 보여줍니다(리더가 반드시 앞 차량일 필요는 없음). 또한, 이 모델은 자율 차량이 목표 차선 교통 흐름을 강제로 병합할 수 있도록 허용합니다. 자율 차량이 목표 차선에 접근함에 따라 도로 이탈에 대한 처벌을 피하기 위해 점점 더 합류하는 것을 선호하게 됩니다. 자체 차량은 상호 작용하는 모든 차량과 함께 대상 차선에 있게 됩니다. 그들은 모두 리더이거나 현재 병합 간격이 충분히 크지 않고 병합이 충분히 편안하지 않을 때 여전히 병합 조치를 취합니다. 모델 (8)-(11)은 상호 작용하는 차량의 리더 신원이 합류 차량의 후속 합류 동기를 예측할 수 있음을 나타냅니다. 그 후, 합류하는 차량은 자신의 안전과 편안함을 위해 속도를 줄이고 차량 사이의 거리를 넓혀 합류를 보장합니다.
모방 학습을 통해 게임 전략을 명시적으로 표현하는 리더
(8)-(11) 운전자의 의도와 현재 교통 상황 정보를 바탕으로 자신의 자동차의 의사 결정 및 궤적을 예측할 수 있음 즉, 리더의 최적 행동전략과 추종자의 최적 행동전략은 (8)-(11)을 통해 얻을 수 있다. 그러나 (8)-(11)의 반복적인 온라인 계산에는 시간이 많이 걸립니다. 따라서 우리는 모방 학습을 사용하여 표현하고 명시적으로 할 것입니다.
[39]를 참조하면 지도 학습(특히 모방 학습을 사용) 표현을 사용합니다.
모방 학습은 에이전트가 전문가의 행동을 관찰하여 전략을 학습하는 지도 학습 문제입니다. 전문가는 인공지능 에이전트일 수도 있고 인공지능 에이전트일 수도 있으며, 우리 작업에서는 (8)~(11)을 통해 얻은 것이 전문가 전략이다.
"데이터 집합 집계" 알고리즘[40]을 사용하여 시뮬레이션된 전략을 얻었습니다.
그 중 데이터 세트 집계 알고리즘의 전반적인 학습 목표는 다음과 같이 설명할 수 있습니다.
은 θ(신경망 가중치)를 사용하여 매개변수화된 전략을 나타내고, 모방 학습에 관한 손실 함수를 나타내며 " 데이터 집합 집계" "알고리즘에 대한 자세한 내용은 [39] 및 [40]을 참조하세요.
(8)-(11) 학습의 모방 학습 전략은 운전자의 협조 의도를 이해하면서 자신의 자동차의 의사결정과 향후 개발 궤적을 예측할 수 있습니다. 그러나 주어진 교통 시나리오에서는 운전자의 의도가 교통 상황(예: 두 차량 간의 상대적 위치 및 속도)뿐만 아니라 운전자에 따라 달라지기 때문에 다른 운전자의 협조 의도를 미리 알 수 없습니다. 스타일/장르. 우리는 다른 차량의 협력 의도의 불확실성을 잠재 변수로 모델링하여 다른 차량의 협력 의도를 추정하고 예측 제어 방법을 사용하여 자율 차량 계획 및 제어 문제에서 최적의 궤적을 얻습니다.
아래에서는 협력 의도가 불확실한 상황에서 고속도로 강제 병합 결정 알고리즘, 즉 LFGC(Leader-Follower Game Controller)에 대해 설명합니다. 강제 병합 프로세스 동안 우리는 이 섹션에 설명된 대로 다른 운전자의 협력 의도에 대한 추정치를 생성하고 이를 기반으로 쌍별 대화형 다중 차량 제어 전략으로 모델링합니다(6).
상호작용하는 차량의 협력 의도 예측
가이드 팔로우 게임을 사용하여 다른 차량 운전자의 협력 의도를 기반으로 한 행동 모델링. 양보하는 차량은 게임에서 추종자로 모델링되고 양보하지 않고 계속하는 차량은 리더로 모델링됩니다. 즉, 리더-추종자 게임에서의 역할을 추정함으로써 대화형 차량의 협력 의도를 추정할 수 있다.
이를 달성하기 위해 교통 역학 모델(2)과 리더 또는 추종자의 최적 행동(8) 및 (9)를 고려합니다. 자가 차량의 관점에서 볼 때 대화형 차량은 리더-추종자 게임을 하고 있으며 동적 교통 모델은
으로 작성할 수 있습니다. 여기서 은 자가 제어입니다. -vehicle, 그리고 는 상호작용입니다. 차량의 제어는 리더-추종자 게임에 의해 획득되며, {leader, follower}는 추종자 또는 리더를 나타내며, 첫 번째 제어 입력은 에 해당합니다. (8) (9)에서 최적의 궤적을 보여줍니다. 이제 (14)에 대한 유일한 입력은 자신의 자동차를 제어하는 것입니다.
실제로 다른 자동차의 의사결정이 (8)과 (9)에서 계산된 최적의 전략을 반드시 따르지는 않는다는 점을 고려하면, 시스템이 (14)에 따라 작동한다고 가정하면 가우스 노이즈가 추가됩니다. :
평균과 공분산이 0인 가산 가우스 잡음은 어디에 있습니까?
자가 자동차가 σ에 대한 사전 믿음을 가지고 있다고 가정합니다. 여기서 {리더, 추종자}로 표현됩니다. 그런 다음 이전의 모든 교통 상태와 자가 차량에서 취한 모든 조치를 기반으로 합니다
자가 차량은 대화형 차량의 리더 또는 추종자 역할에 대한 사후적 신념을 계산하거나 유지해야 합니다 .
[41]에서 제안한 하이브리드 추정 알고리즘을 활용하면 대화형 차량의 리더 또는 추종자 역할에 대한 조건부 사후 신념을 계산할 수 있습니다.
구체적으로 대화형 차량의 리더 또는 추종자 역할을 식별하는 것은 다음과 같이 표현될 수 있습니다.
여기서 은 조건부 확률이고 은 행동하는 차량의 역할입니다. 에서 에서 로의 전환 확률은 액션 자동차 캐릭터 의 우도 함수로, 다음과 같이 정의됩니다.
는 정규 분포 확률 밀도 함수이고 평균은 0이며 공분산 W는에서 평가됩니다.
은 정규화 상수입니다. 병합 중에 상호작용하는 차량의 역할이 변하지 않는다고 가정합니다. 즉,
일 때 상호작용하는 차량의 리더 또는 추종자 역할에 대한 사후 신념이
일 때 다음 방정식을 사용하여 업데이트할 수 있습니다.
여기서 은 대화형 차량의 리더 또는 추종자의 역할에 대한 사전 믿음입니다.
다중 차량 상호작용을 위한 제어 전략
교통량이 많을 때는 그림 1과 같이 고속도로에 여러 대의 차량이 자차 합류를 방해할 수 있습니다. 복잡성이 낮은 솔루션은 자율 차량이 첫 번째 차량과의 상호 작용만 고려하고 첫 번째 차량이 멀어진 후에 두 번째 차량과 상호 작용을 시작하는 것입니다. 그러나 이로 인해 뒤따르는 차량의 의도를 추정하는 것이 지연되어 자차가 합류할 기회를 잃게 되는 원인이 될 수 있다.
또 다른 해결책은 동시에 여러 차량과 상호 작용하는 것입니다. 이때 대화형 차량의 거동을 예측하기 위한 모델을 구축해야 합니다. 3장에서 설명하는 2인 리더-추종 게임은 다단계 의사 결정 계층을 고려하여 멀티 플레이어 리더-추종 게임으로 확장될 수 있지만, 모델 복잡성은 플레이어 수가 증가함에 따라 기하급수적으로 증가합니다. 3명 이상이면 Stackelberg 평형을 이루기가 어렵다[42]. 따라서 우리는 쌍별 상호작용을 고려하여 프레임워크를 다중 차량 상호작용으로 확장하는 계산적으로 다루기 쉬운 방법을 제안합니다.
m개의 상호작용 차량이 있는 경우, 자차와 각 상호작용 차량 간의 쌍별 상호작용을 고려한 다음, 자차와 k번째 다른 차량 상태를 포함하는 m개의 교통 상태를 구성합니다. 각각의 동적 모델은 다음과 같이 제공됩니다.
마찬가지로 k번째 상호 작용 차량의 쌍별 리더를 나타내기 위해
{leader, follower}를 사용할 수 있습니다. 또는 추종자 역할을 는 이전에 결합된 모든 교통 상태와 자체 차량의 동작 집합을 나타냅니다. 즉,
그런 다음 (19)를 활용하여 상호 작용하는 각 차량을 업데이트할 수 있습니다. 리더 또는 역할에 대한 신념 추종자,
,
{리더, 추종자}. (6)의 MPC 기반 제어 전략은 다음과 같이 다시 기술할 수 있습니다.
여기서,
은 (12)의 훈련 전략 의 궤적에 해당하는 첫 번째 제어 입력입니다. ), ε∈[0,1]은 (사용자 지정) 필요한 제약 조건 만족 확률 수준을 나타냅니다. 목적 함수의
기대값은 (23)에 따라 풀 수 있습니다.where, 는 역할이 ,
인 주어진 상호 작용 차량의 예측 된 트래픽 상태이며 (22)의 마지막 제약 조건을 통과 할 수 있습니다.여기서
은 세트 B에 있는 b의 표시 기능입니다. (22)의 마지막 제약 조건은 다음 조건
을 적용합니다. 이는 상호 작용 쌍이 안전하지 않은 상태(예: 충돌 및 도로 경계 이탈)에 들어갈 확률이 ε보다 작다는 것을 의미합니다.(26)을 도출하려면 먼저 이벤트
를 표현한 다음
을 적용한 다음 (22)의 마지막 제약 조건을 적용하면 다음과 같은 결과를 얻습니다.(6)과 (22)의 주요 차이점은 다음과 같습니다. 1) (6)의 내용은 알 수 없지만 (22)의 내용은 모방 학습의 훈련 전략을 기반으로 얻은 것입니다.
2) 대화형 차량의 리더/추종자 역할에 대한 확률적 신념을 설명하기 위해 (6)의 누적 보상 최대화를 (22)의 예상 누적 보상 최대화로 변경합니다.
3) 예상 누적 보상은 여러 차량의 불확실한 동작을 설명하기 위해 모든 쌍별 상호 작용의 예상 보상 합계로 변경됩니다(계산 용이성).
4) 하드 제약 조건은 ε∈를 사용하여 확률 제약 조건이 됩니다. [0, 1]은 매개변수입니다.
의사 결정 알고리즘은 다음과 같이 진행됩니다. 샘플링 시간 t에서 자아 차량은 상호 작용하는 쌍의 각 세트의 현재 상태를 측정하고 이를 이전 제어 입력과 함께 관찰 벡터 에 추가합니다. 각 차량의 리더 또는 추종자 역할에 대한 신념은 (19)에 따라 업데이트됩니다. 그런 다음 MPC 기반 제어 전략(22)을 사용하여 섹션 2-D에서 소개된 모든 궤적을 검색하여 최적의 궤적 을 구하고, 자아 차량은 샘플링 기간 내에 첫 번째 제어 입력을 적용하여 상태를 업데이트합니다. 다음에 샘플을 채취할 때 전체 과정이 반복됩니다.
제어 전략(22)은 다음과 같은 이유로 "상호작용 인식"이라는 점에 유의해야 합니다.
1) 이는 리더-추종자 게임 이론 모델(8)-(11)을 기반으로 합니다. ) 이는 대화형 의도에 따라 자동차의 다양한 궤적을 예측합니다.
2) 이러한 예측은 폐쇄 루프입니다. 구체적으로, 자신의 차량의 다양한 궤적 계획에 따라 특정 의도를 가진 다른 차량의 궤적 예측도 다릅니다. 이러한 상황은 교통 상황에 따라 다른 차량의 예상 행동이 달라지고, 자차의 계획된 궤적에 따라 예상 교통 상황이 달라지기 때문입니다.
3) (22)의 목적 함수는 조건부 기대이고 안전을 나타내는 제약 조건은 조건부 확률입니다. 둘 다 다른 자동차의 의도(예: 리더 또는 추종자)에 대한 최신 추정을 기반으로 합니다.
. 동시에, 상대방 자동차의 이전 상호작용 행동을 기반으로 상대방 자동차의 의도를 추정합니다.
05 시뮬레이션 및 검증 결과먼저 리더나 추종자가 제어하는 대화형 차량을 사용하는 리더-추종자 게임에서 LFGC를 검증합니다. 그런 다음 다른 유형의 운전자 또는 실제 교통 데이터로 제어되는 대화형 차량을 사용하여 LFGC를 테스트했습니다. 또한 지능형 운전자 모델에 의해 대화형 차량(IDM)이 제어되고 대화형 차량이 차세대 시뮬레이션 사이트 [34]의 실제 미국 고속도로 101 교통 데이터를 따르는 경우를 테스트했습니다. 시뮬레이션은 Intel Xeon E3-1246 v3 @ 3.50GHz CPU 및 16GB 메모리를 갖춘 PC의 MATLAB R2019a 플랫폼에서 수행되었습니다.
리더-팔로워 모델 대화형 차량
먼저 리더/팔로워를 사용하여 대화형 차량을 시뮬레이션하고 제어하여 LFGC를 테스트합니다. 우리가 고려하고 있는 시나리오는 그림 4에 나와 있습니다. 가속 차선에 있는 자율주행차(파란색)는 가속 차선이 끝나기 전에 고속도로에 합류해야 하며, 현재 다른 많은 차량(빨간색, 분홍색, 녹색)이 고속도로에 합류해야 합니다. 고속도로. 고속도로에서 운전. 그림 4에 표시된 것처럼 자율 차량은 차선 표시를 향해 이탈하고 방향 지시등을 깜박임으로써 강제 합류 프로세스를 시작합니다. 이 경우 자율주행차는 안전한 병합을 위해 다른 차량과 상호작용해야 합니다.
그림 4 고속도로 강제 병합 시나리오에서 대화형 차량을 제어하는 리더/추종자의 LFGC 검증 시나리오 다이어그램
테스트 후, 자체 차량은 대화형 차량의 의도를 올바르게 식별할 수 있습니다(즉, 즉, 다른 자동차가 리더/팔로어인 상호작용을 올바르게 나눌 수 있습니다)
그림 5 리더와 팔로어의 다양한 조합으로 LFGC를 사용하는 다른 자동차의 상호작용 결과
(a) 다른 자동차 3개의 리더입니다.
(b) 다른 자동차는 1개의 리더(차량 1)와 2개의 추종자(차량 2 및 3)입니다.
(c) 다른 자동차는 2개의 리더(차량 1과 3)입니다. 2) 및 추종자 1명(차량 3)
(d) 다른 차량에는 추종자 3명이 있습니다.
왼쪽 열 (a-1) ~ (d-1)은 게임에서 자신의 자동차 리더에 대한 자기 자동차의 믿음을 보여줍니다. 오른쪽 열 (a-2) ~ (d-2)는 이러한 강제 병합 과정에서 자차와 다른 차량의 거동에 대한 시간 이력 결과를 보여줍니다. 구체적으로 오른쪽 열에는 각 블록의 경계선의 색상으로 차량을 구분하고, 블록의 숫자는 초 단위의 시간을 나타내며, 각 블록의 색상은 해당 순간의 차량 속도를 나타내며, 파란색 점선은 자가 차량의 흔적. 차량 1-3은 동일한 세로 위치를 가지며, 더 나은 차별화를 위해 일부 세로 오프셋이 그림에 추가되었습니다.
LFGC의 경우 계획 범위는 N = 4이고 기회 제약 매개변수는 ε = 0.1입니다. N이 클수록 장기 성능이 향상되지만 계산 시간도 길어질 수 있는 반면, N이 작을수록 즉각적인 이점이 강조되므로 많은 경우 결합되지 않을 수 있습니다. 이 기사에서 고려하는 강제 고속도로 병합의 경우 일반적으로 차선 변경 기간을 초과하도록 N을 선택해야 합니다(예: ).
그림 5(a)는 자아 자동차가 세 명의 리더와 상호 작용할 때의 결과를 보여줍니다. 자율 차량은 상호 작용하는 차량의 의도를 포착할 수 있습니다. 즉, 그림 5(a-1)에서 볼 수 있듯이 모든 차량이 게임의 리더가 될 가능성이 더 높습니다. 이 정보를 얻은 후, 자체 차량은 t = 1 [s] 후에 속도를 줄이기로 결정하고 상호 작용하는 모든 차량이 지나간 후 합류할 때까지 기다립니다.
셀프카가 리더(차량 1)와 두 명의 팔로어(차량 2, 3)와 상호작용할 때, 셀프카는 그림 5(b-1)와 같이 상호작용하는 차량의 의도를 정확하게 식별합니다. . 그런 다음 t = 1 [s] 이후에 자율 차량은 감속을 시작하고 그림 5(b-2)와 같이 차량 1과 차량 2 사이에서 성공적으로 병합됩니다. 그림 5에서 볼 수 있듯이 (c)는 자체 차량과 두 리더(차량 1, 2)와 팔로워(차량 3) 간의 상호 작용 결과입니다.
이 경우 자아 차량은 차량 1과 2가 양보하지 않고 가속하는 것을 관찰하므로 자아 차량은 속도를 줄이고 차량 2와 3 사이에 합류하기로 결정합니다. 또한 셀프카가 3명의 팔로어와 상호작용할 때 테스트를 수행했으며 결과는 그림 5(d)에 나와 있습니다. 셀프카는 모든 상호작용하는 차량 앞에서 가속 및 병합되는 모든 의도 생성 차량을 관찰했습니다. (22)를 풀기 위한 평균 계산 시간은 각 시간 단계에서 0.182[s]입니다.
그림 5에 표시된 모든 경우에 대해 초기화된 신념은 동일합니다. 이는 대화형 차량이 리더인지 추종자인지를 셀프카가 미리 알 수 없음을 의미합니다. 따라서 자아 차량은 상호 작용 벡터의 리더/팔로워 역할을 추정하기 위해 관찰에 의존합니다. 리더-추종자 게임에서 모든 대화형 차량이 리더/추종자에 의해 제어될 때 LFGC는 대화형 차량의 의도를 포착하고 그에 따른 결정을 내릴 수 있습니다.
다른 차량은 IDM 모델을 채택합니다상호작용 유형
섹션 5-A에 표시된 검증 결과는 다른 자동차가 리더-추종자 게임을 기반으로 결정을 내린다고 가정합니다. LFGC는 게임에서 다른 운전자의 역할을 추정하고 그에 따라 결정을 내립니다. 이는 섹션 5-A의 환경이 LFGC에서 예상한 대로 작동함을 의미합니다. 그러나 다른 운전자의 실제 행동은 리더-추종자 게임의 정책과 다를 수 있습니다. 따라서 우리는 다른 차량이 IDM(지능형 운전자 모델)을 사용할 때 프레임워크가 어떻게 반응하는지 추가로 조사합니다.
이 섹션에서는 IDM을 사용하여 다른 자동차를 제어하고 자신의 자동차와 상호 작용합니다. 자아 차량은 여전히 LFGC에 의해 제어되며 해당 리더 또는 추종자 역할을 추정하여 상호 작용 차량의 의도를 추정하려고 시도합니다. IDM은 (27)~(29)[43]로 정의되는 연속시간 차량 추적 모델이다.
여기서 은 세로 위치입니다. 는 차량의 예상 속도입니다. 다음 거리, 은 대상 차량
위치 중 은 IDM 모델의 매개변수입니다. 이러한 매개변수의 물리적 해석은 최대 가속도 , 최소 차량 추종 거리
, 원하는 시간 T 및 편안한 감속 b입니다. 우리는 검증 테스트로 그림 6에 표시된 시나리오를 고려했습니다. 그림 6에서는 모든 차량이 일정한 속도로 주행하는 다른 차량(검은색 차량 4)보다 앞서 있습니다. 자아 차량은 여전히 V-A 섹션과 동일하며 LFGC에 의해 제어됩니다. 이는 자아 차량의 관점에서 상호 작용하는 모든 차량과 리더-추종자 게임을 하고 있음을 의미합니다. 상호작용하는 이들 3대의 차량(차량 1~3)은 선행 차량(차량 4) 또는 자차를 일정 시간 전진 t로 따라가며 IDM에 의해 제어됩니다. IDM 모델 매개변수는 표 1에 나열되어 있습니다. 자가 차량은 차량 4를 환경 차량으로 취급하고 일정한 속도로 주행한다고 가정합니다.
그림 6 다른 자동차가 IDM을 따를 때 자신의 자동차는 LFGC를 사용하여 강제 병합 장면을 완성합니다. 그림 도 7은 자신의 차량이 IDM에 의해 제어되는 다른 차량과 서로 다른 목표 차량 및 서로 다른 원하는 시간으로 상호 작용할 때의 결과를 보여줍니다.
그림 7: IDM에 의해 제어되는 다양한 목표 및 예상 시간을 가진 다른 차량에 대한 LFGC의 상호 작용 결과
(a) 차량 1은 (자체 차량을 따라) 시간 진행 T = 1을 생성합니다. [s], 차량 2 및 차량 3이 T = 0.5 [s]를 따릅니다.
(b) 차량 2가 생성(자신의 차량을 따라감) T=0.5[s], 차량 1과 3이 이전 차량 T =를 따릅니다. 0.5 [ s];(c) 모든 차량은 T = 0.5 [s]로 선행 차량을 따릅니다. (d) 모든 차량은 T = 1.5 [s]로 선행 차량을 따릅니다.
왼쪽 열 (a-1) ~ (d-1)은 게임에서 자신의 자동차 리더에 대한 자기 자동차의 믿음을 보여줍니다. 오른쪽 열 (a-2) ~ (d-2)는 강제 병합 과정에서 자신과 다른 자동차 동작의 시간 이력 결과를 보여줍니다. 구체적으로 오른쪽 열에는 각 블록의 경계선의 색상으로 차량을 구분하고, 블록의 숫자는 초 단위의 시간을 나타내며, 각 블록의 색상은 해당 순간의 차량 속도를 나타내며, 파란색 점선은 자가 차량의 흔적.
그림 7(a)에서 첫 번째 대화형 차량(차량 1)은 자신의 차량에 양보하려고 하여 1초 안에 전진하는 자신의 차량을 따르기로 선택하고 마지막 두 대화형 차량은 자신을 따라갑니다. - 0.5초 앞선 차량. 그림 7(a-1)에서 볼 수 있듯이, 셀프카는 그림 7(a)과 같이 차량 1이 게임에서 추종자가 될 확률이 높다고 믿고 차량 1 앞으로 합류하기로 선택합니다. -2).
그림 7(b)는 또 다른 상황, 즉 첫 번째 대화형 차량(차량 1)이 0.5만큼 전진하고, 두 번째 대화형 차량이 자신의 차량에 양보하려고 하며 자신의 차량을 따라가기 위해 0.5만큼 전진하는 상황을 보여줍니다. 따라서 이 경우에는 자기 차량의 관점에서 볼 때 차량 1이 게임에서 리더가 될 확률이 더 높고, 차량 2가 게임에서 추종자가 될 확률이 더 높습니다. 자가 차량 2번 차량 앞에서 차량이 성공적으로 합류했습니다.
다른 두 가지 비항복 사례는 그림 7(c)와 (d)에 나와 있습니다. 그림 7(c)는 선행 차량을 따르는 모든 상호 작용 차량에 대한 결과를 보여줍니다. 자가 차량의 관점에서 보면 상호 작용하는 모든 차량이 게임의 리더가 될 가능성이 높으므로 모든 차량이 통과한 후에 자가 차량이 성공적으로 합류할 수 있습니다.
그림 7(d)에서는 상호 작용하는 모든 차량이 1.5초의 속도로 전진하고 있습니다. 이 경우, 자체 차량은 차량 2가 보수적으로 행동한다는 것을 발견하고 차량 2가 게임에서 추종자가 될 확률이 더 높다고 믿습니다. 따라서 자체 차량은 차량 1과 차량 2를 성공적으로 병합합니다. (22)를 풀기 위한 평균 계산 시간은 각 시간 단계에서 0.198[s]입니다.
실제 교통 데이터를 따르는 다른 차량
우리는 리더/팔로워가 운전하는 다른 자동차와 리더-팔로워 게임의 IDM 모델에서 LFGC를 테스트했습니다. 우리는 실제 교통 데이터를 사용하여 컨트롤러의 성능을 추가로 테스트하고 싶었습니다. 특히, 우리는 미국 연방고속도로국에서 수집하고 공개적으로 이용 가능한 가장 큰 자연 주행 데이터 소스 중 하나로 간주되는 NGSIM(Next Generation Simulation) 웹사이트의 미국 고속도로 101 교통 데이터세트를 사용합니다. US Highway 101 데이터 세트는 문헌 [44], [45], [46]에서 광범위하게 연구되었습니다. 더 구체적으로 US 101 고속도로의 30분 분량의 차량 궤적을 포함하는 US 101 교통 데이터 세트의 일부를 고려합니다. 시간대는 오전 7시 50분부터 8시 20분까지로, 출근시간 전후의 혼잡함을 나타낸다. 데이터 세트에는 약 6000대의 차량에 대한 위치 및 속도 궤적과 차량 크기가 포함되어 있으며 정보는 0.1[s]마다 기록됩니다. 데이터 수집에 사용된 미국 고속도로 101 구간의 위에서 본 모습이 그림 8에 나와 있습니다. 연구 세그먼트에는 고속도로의 5개 주요 차선, 고속도로 진입로, 고속도로 진입로, 고속도로 합류 및 출구를 위한 보조 차선이 포함되었습니다. [47]에서 논의한 것처럼 US101 데이터 세트에는 비디오 분석 및 수치 미분으로 인해 상당한 양의 노이즈가 포함되어 있습니다. 이러한 단점을 극복하기 위해 우리는 Savitsky-Gorey 필터[48]를 활용하여 차량의 위치를 부드럽게 하고 해당 속도를 업데이트합니다. Savitzky-Golay 필터는 시간 창 길이가 21인 US101 데이터세트에서 잘 작동합니다[45]. 원래의 차량 궤적과 이에 상응하는 평활화된 차량 궤적이 그림 9에 나와 있습니다.
그림 8 US 101 교통 데이터를 수집하는 데 사용된 고속도로의 오버헤드 뷰 [34]
이 섹션에는 고속도로의 5개 주요 차선과 고속도로로 이어지는 1개의 차선이 포함됩니다. . 진입로, 고속도로에서 나가기 위한 출구 경사로, 고속도로에 합류하고 빠져나가기 위한 보조 차선.
그림 9 Savitsky-Gorey 필터를 사용한 US 101 교통 데이터 세트의 부드러운 차량 궤적
LFGC 검증 테스트를 위해 진입로 및 보조 차선에 중점을 둡니다. 병합된 모든 차량을 식별합니다. 병합 차량과 해당 시나리오를 식별한 후 그림 10에 따라 상호 작용 차량을 식별합니다. 구체적으로, 2초 이내에 목표 차선에 진입한 첫 번째 차량을 첫 번째 상호 작용 차량으로 간주하고, 연속된 차량을 두 번째 및 세 번째 차량으로 간주합니다. 현장에 있는 다른 모든 차량의 경우 자체 차량은 해당 차량을 환경 차량으로 취급하고 해당 차량이 일정한 속도로 이동한다고 가정합니다. 식별된 병합 시나리오는 그림 11에 나와 있습니다.
그림 10 인터랙티브 차량 선택: 셀프카(파란색 차량)는 선택 상자(빨간색 상자)에 있는 차량을 인터랙티브 차량으로 사용합니다.
프론트 엔드 선택 상자는 셀프카 2회 진행 앞에 있습니다. 선택 상자에서 대상 차선에 있는 첫 번째 차량이 첫 번째 대화형 차량이고, 뒤따르는 차량이 두 번째 및 세 번째 대화형 차량입니다. 고속도로의 다른 모든 차량의 경우 주변 차량으로 취급되며 일정한 속도를 유지하는 것으로 가정됩니다.
그림 11 US 101 트래픽 데이터 세트에서 결정된 병합 시나리오
이 시나리오에서는 차량 0(파란색 차량)이 병합된 차량이고 LFGC가 차량 0을 제어하도록 합니다. 우리의 대화형 차량 선정 기준에 따르면 차량 1(빨간색 차량)과 차량 2(분홍색 차량)가 대화형 차량으로 선택되고, 그 외 모든 차량(검은색 차량)은 고정 속도로 주행한다는 가정 하에 환경 차량으로 간주됩니다. .
병합된 각 시나리오에 대해 자체 차량이 교통 데이터를 추적하도록 하는 대신 LFGC를 사용하여 자체 차량의 동작과 결과 궤적을 제어합니다. 상호 작용하는 차량과 환경 차량을 포함한 다른 모든 차량의 경우 US 101 교통 데이터 세트에 나타나는 해당 궤적을 따릅니다. 그런 다음 LFGC는 상호 작용하는 차량의 의도를 추정하고 자가 차량이 적절하게 합류하도록 제어해야 합니다. 데이터 수집 중에 상호 작용하는 차량과 주변 차량은 실제 교통 중에 병합된 차량과 상호 작용할 수 있습니다. 1) LFGC는 사람의 조작과 다르게 행동할 수 있으므로 대화형 차량이나 환경 차량의 거동은 자율 차량의 거동에 반응하지 않습니다. 대신, 그들의 행동은 교통 데이터 세트에 의해 미리 결정되므로 충돌을 피하기 위해 보수적인 조치를 취해야 합니다. 2) 교통량이 많아 자가 차량이 다른 차량의 충돌 영역을 교차하지 않고 합류할 수 있는 안전한 여유가 없습니다.
표 2: US101 교통 데이터 세트를 사용한 LFGC 통계 검증
"성공"은 자율 차량이 충돌 없이 대상 차선에 성공적으로 합류했음을 의미합니다. "병합 실패"는 자신의 차량이 보조 차선 끝에서 합류할 수 없음을 의미합니다. '충돌'이란 자신의 차량과 다른 차량 간의 충돌을 말합니다. 마지막으로 저자는 분석을 위해 병합 과정의 스크린샷을 찍었습니다.
그림 12에서는 성공적인 병합의 스크린샷을 보여줍니다. 이 그림에서 파란색 차량은 LFGC에 의해 제어되며, 회색 상자는 데이터 세트에서 자체 차량의 실제 위치를 나타냅니다. 다른 모든 차량(빨간색 대화형 차량 및 검은색 환경 차량 포함)은 데이터세트의 해당 궤적을 따릅니다. LFGC에 의해 제어되는 자가 차량은 인간 운전자(회색 상자)와 유사한 결정을 내립니다. LFGC와 인간 운전자 모두 먼저 트럭(차량 1) 앞에서 가속 및 합류를 시도합니다. 그러나 트럭이 계속해서 양보하지 않을 가능성이 높다는 것을 깨닫고 자율주행차는 속도를 줄이고 트럭 뒤에서 합류하기로 결정했습니다.
그림 12 미국 고속도로 101 데이터 세트에서 LFGC 검증 시 성공적인 병합 설명
여기서 파란색 차량은 LFGC가 제어하는 자체 차량이고 회색 상자가 데이터가 나타나는 셀프카의 위치입니다.
본 논문에서는 병합 시나리오에서 자율주행차 계획 및 제어를 위한 Leader-Follower Game Controller(LFGC)를 제안했습니다. LFGC는 서로 다른 운전자 의도로 인해 발생하는 상호작용 불확실성을 잠재변수로 취하고, 다른 운전자 의도를 추정하고, 자율주행차 병합을 촉진하기 위한 조치를 선택합니다. 특히, LFGC는 명시적인 확률론적 안전 속성, 즉 차량 안전 제약 조건을 구현할 수 있습니다.
자체 차량과 상호 작용하는 차량 간의 쌍별 상호 작용을 고려하여 LFGC는 계산 가능한 방식으로 여러 차량과의 상호 작용을 처리할 수 있습니다. 마지막으로 LFGC의 효율성을 입증하기 위해 게임 내 다른 차량이 리더 또는 추종자를 따라가는 시나리오, 지능형 운전자 모델(IDM), 실제 미국 고속도로 101 데이터 등 여러 시뮬레이션 기반 검증을 수행합니다.
이 기사는
"강제 병합 시나리오에서 자율 주행 차량을 위한 상호작용 인식 궤도 예측 및 계획"
에서 번역되었습니다.위 내용은 강제 병합 시 자율주행을 위한 궤적 예측 및 계획의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!