
교통 사고 예측은 대시캠 영상에서 가능한 한 빠르게 사고를 예측하는 것을 목표로 하며, 이는 안전을 보장하는 자율 주행 시스템에 매우 중요합니다. 복잡한 교통 상황과 제한된 시각적 정보로 인해 초기 관찰된 프레임에서 얼마나 빨리 사고가 발생할지 예측하는 것은 큰 도전입니다. 기존의 대부분 접근 방식은 사고와 관련된 요소들의 특징을 학습하여 사고를 예측하는 데 중점을 두지만, 공간적 및 시간적 관계의 특징을 무시하고 있습니다. 또한, 현재 결정론적인 딥 뉴럴 네트워크는 잘못된 예측에 대해 과신할 수 있어, 자율 주행 시스템으로 인한 교통 사고 위험이 증가할 수 있습니다. 본 논문에서는 공간-시간 관계 학습을 활용한 불확실성 기반 교통 사고 예측 모델을 제안합니다. 이 모델은 대시캠 영상을 통해 교통 사고 발생 확률을 순차적으로 예측합니다. 구체적으로, 그래프 컨볼루션과 순환 신경망을 사용하여 관계 특징을 학습하고, 베이지안 신경망(Bayesian neural networks)을 활용하여 잠재적인 관계 표현의 내재적 변동성을 해결합니다. 유도된 불확실성 기반 순위 손실 함수는 관계 특징의 품질을 개선함으로써 모델 성능을 크게 향상시키는 것으로 확인되었습니다. 또한, 우리는 환경 속성과 사고 원인 주석이 포함된 새로운 차량 충돌 데이터셋(Car Crash Dataset, CCD)을 수집하여 교통 사고 예측에 활용하였습니다. 공개 데이터셋과 새로 구성된 데이터셋에서 수행한 실험 결과는 우리의 모델이 최신 연구 성과를 달성하였음을 보여줍니다. 우리의 코드와 CCD 데이터셋은 https://github.com/Cogito2012/UString에서 제공됩니다.