earticle

논문검색

차로별 좌표계 변환에 의한 차량 속도 추정 기반 사고 위험 상황 분류

원문정보

Classification of accident risk situations based on vehicle speed estimation through lane-specific coordinate transformation

김승현, 강한빈, 강종규, 배창석

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

Compared to typical road environments, urban backstreet intersections are known to have a particularly high risk of accidents. This paper proposes a model for recognizing risk situations from CCTV video installed at such urban backstreet intersections. The proposed model has two main features. First, since the distortion direction due to the camera viewpoint varies by lane at intersections, lane-specific independent coordinate transformations to Bird’s Eye Views (BEV) are necessary for accurate vehicle speed estimation. Second, to detect risk situations with better performance than existing video classification methods, the model determines risk situations at intersections based on the estimated speed results. To validate the performance of the proposed model, a simulated intersection environment was constructed, and a traffic accident video dataset was collected. The video data are classified into three intersection situations: ‘safe’, ‘caution’, and ‘danger’, with 72 video samples selected per class for training and performance validation. For training the risk detection model proposed in this paper, YOLO v8 is employed to track vehicles in the videos. Then, lane-specific independent BEV transformations are performed to correct distortion based on the camera angle. After that, the model can estimate vehicle positions and speeds. To confirm the real-world applicability of the proposed model, experimental results based on actual road driving video are presented, where vehicle speed estimation is demonstrated. Utilizing the estimated speeds and positions, a hazard recognition model based on a Multi-Layer Perceptron (MLP) classifier is proposed. For performance evaluation, the model is benchmarked against a Gate Recurrent Unit (GRU)-based model and an Inception v3-based video classification model. The experimental findings reveal that the YOLO and MLP-based model achieves an accuracy of 89% and an inference speed of 5ms, demonstrating superior performance in both accuracy and real-time processing compared to the GRU-based and video classification models.

한국어

일반적인 도로 환경에 비해 도심 이면 교차로는 사고 위험이 특히 높은 것으로 알려져 있다. 본 논문에서는 이러한 도심 이면 교차로에 설치한 CCTV 영상으로부터 위험 상황을 인지하는 모델을 제안한다. 제안하는 모델은 크게 다 음 2가지 특징을 가진다. 먼저, 교차로의 경우 차로별로 카메라 시점에 따른 왜곡 방향이 다르기 때문에 진행 차량 의 정확한 속도 추정을 위해서는 차로별로 독립적인 BEV (Bird’s Eye View)로의 좌표계 변환이 필요하다. 다음 으로는 기존의 동영상 분류 방법보다 우수한 성능으로 위험 상황을 인지하기 위해 속도 추정 결과를 바탕으로 교차 로에서의 위험 상황을 판단한다. 제안하는 모델의 성능을 검증하기 위해 교차로 모의 실험 환경을 구축하고 교통사 고 영상 데이터셋을 수집한다. 영상 데이터는 ‘안전’, ‘주의’, 그리고 ‘위험’으로 총 세 가지 교차로 상황의 클래스로 구분하고, 학습 및 성능 검증을 위해 각 클래스 별로 72개의 영상 데이터를 선별하여 사용한다. 논문에서 제안하는 위험 상황 인지 판단 모델 학습을 위해 YOLO v8 모델을 사용하여 영상 속 차량의 이동 궤적을 추적하고, 카메라 화각에 따른 왜곡을 보정하기 위해 차로별 독립 BEV 변환을 수행하고 차량의 위치와 속도를 추정한다. 제안하는 모 델의 현실 세계 적용 가능성을 확인하기 위해 실제 도로에서의 차량 주행 영상을 바탕으로 속도를 추정한 실험 결과 를 함께 제시하고 있다. 본 논문에서는 추정한 차량의 속도와 위치를 기반으로 MLP (Multi-Layer Perceptron) 분류기를 적용한 위험 상황 인지 모델을 제안한다. 또한, 제안하는 모델의 성능 평가를 위한 비교군으로 추정한 차 량의 속도와 위치를 기반으로 GRU (Gate Recurrent Unit) 분류기를 적용한 모델과 속도 추정없이 Inception v3 기반의 비디오 분류 모델을 사용하여 제안 모델을 평가한다. 제안하는 모델과 기존 모델의 성능을 비교한 본 논문의 실험 결과 YOLO와 MLP를 사용한 모델이 89%의 정확도와 5ms의 추론 속도를 보여주어 정확도와 실시 간성 측면에서 다른 비교 모델인 YOLO와 GRU 기반의 모델과 비디오 분류 모델에 비해 가장 뛰어남을 확인할 수 있다.

목차

요약
Abstract
1. 서론
2. 관련 연구
2.1 도로 환경 영상 분석 시스템 관련 기술
2.2 차량 검출, 추적 및 위험 상황 인지 관련 기술
3. 위험 상황 인지 모델 제안 구조
3.1 속도 추정 기반 위험 상황 인지 모델
3.2 비디오 분류 기반 위험 상황 인지 모델
4. 실험 및 성능 평가
4.1 실험 환경
4.2 실험 데이터셋 구축
4.3 위치 및 속도 추정 기반 위험 상황 인지 모델
4.4 비디오 분류 기반 위험 상황 인지 모델
4.5 실험 결과 분석
4.6 실세계 영상에 대한 제안 모델의 적용
5. 결론 및 향후 연구
참고문헌

저자정보

  • 김승현 Seung Hyun Kim. 대전대학교 정보통신공학과
  • 강한빈 Han Bin Kang. 대전대학교 정보통신공학과
  • 강종규 Jong Gyu Kang. 대전대학교 정보통신공학과
  • 배창석 Changseok Bae. 대전대학교 정보통신공학과

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.