earticle

논문검색

비디오 감시에서 심층 컨볼루션 신경망을 사용한 폭력 활동 감지

원문정보

Violent Activity Detection Using Deep Convolutional Neural Networks in Video Surveillance

알타프 후세인, 파트 유 민 울라, 이자즈 울 하크, 이미영, 백성욱

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

Recently, surveillance systems are globally installed for crime prevention by monitoring both private and public places which generate a massive amount of video data. This setup requires human experts to observe and monitor the ongoing activities continuously. To handle this tedious task, an automatic technique workable in real-time for violent activity detection (VAD) is a big challenge. Thus, this paper proposes a three-phase deep learning assisted framework for real-time VAD. In the first phase, a preprocessing step is applied to obtain the salient motion frames from the video data through frame differencing algorithm. These frames are fed into the second phase where a lightweight convolutional neural network (CNN) extracts the most discriminative features. Finally, a CNN model classifies the activity into violent and non-violent scene. In case of violent activity, the activity is reported to notify the nearest security departments and police stations for the prompt action. The proposed method achieves 96% accuracy on the publicly available dataset and outperforms over state-of-the-art methods.

한국어

최근에는 전세계적으로 범죄 예방을 위한 감시 시스템이 설치되어 방대한 양의 비디오 데이터를 생성하는 개인 및 공공장소를 모두 모니터링하고 있다. 이 설정에서 전문가가 진행 중인 활동을 지속적으로 관찰하고 모니터링해야 한 다. 이 지루한 작업을 처리하기 위해 실시간으로 실행 가능한 폭력 활동 감지(VAD) 기술이 큰 과제이다. 따라서 본 논문에서는 실시간 VAD을 위한 3단계 딥러닝 지원 프레임워크를 제안한다. 첫번째 단계에서는 프레임 차이 알고리즘을 통해 비디오 데이터에서 가장 중요한 모션 프레임을 획득하기 위한 사전 처리 단계를 적용한다. 이러한 프 레임은 경량 컨볼루션 신경 네트워크(CNN)가 가장 차별적인 특징을 추출하는 두 번째 단계로 제공된다. 마지막으 로 CNN 모델은 활동을 폭력적인 장면과 비폭력적인 장면으로 분류한다. 폭력적인 행위가 발생할 경우, 가장 가까 운 보안 부서와 경찰서에 신고하여 신속한 조치를 취하도록 한다. 제안된 방법은 공개적으로 사용 가능한 데이터 세 트에서 96%의 정확도를 달성하고 최신 방법보다 성능이 우수하다.

목차

요약
Abstract
1. Introduction
2. Proposed method
2.1. Preprocessing phase
2.2. Learning with CNN
3. Experimental evaluation
3.1. Dataset
3.2. Result and discussion
3.3. Comparative analysis of proposed model
4. Conclusions and Future Work
Acknowledgements
References

저자정보

  • 알타프 후세인 Altaf Hussain. 세종대학교
  • 파트 유 민 울라 Fath U Min Ullah. 세종대학교
  • 이자즈 울 하크 Ijaz Ul Haq. 세종대학교
  • 이미영 Mi Young Lee. 세종대학교
  • 백성욱 Sung Wook Baik. 세종대학교

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.