초록
영어
This study proposes a multimodal fire detection framework utilizing multiple sensors to overcome the limitations of existing single-sensor-based fire detection systems, which often struggle with early detection and high false alarm rates. The proposed framework consists of data collection, edge computing, and cloud analysis layer, which operate independently and exchange real-time data. The data collection layer integrates and collects multi-sensor data. The edge computing layer preprocesses the collected data in real time, performs analysis such as image analysis and sensor anomaly detection, and independently responds to network failures with local alerts. The cloud analysis layer integrates and manages data transmitted from the edge and applies an advanced deep learning model that fuses image and sensor features to determine the final fire risk. Developing a system based on this multimodal fire detection framework is expected to contribute to minimizing loss of life and property by reducing false alarms and increasing the accuracy of early fire detection through information complementation.
한국어
본 연구는 기존 단일 센서 기반 화재 감지 시스템의 한계인 초기 감지 어려움과 높은 오경보율을 극복하기 위해 멀티 센서를 활용한 멀티모달 화재 감지 프레임워크를 제안한다. 제안된 프레임워크는 데이터 수집 계층, 엣지 컴퓨팅 계층, 클라우드 분석 계층으로 구성되어 독립적으로 동작하면서 실시간 데이터를 상호 교환한다. 데이터 수집 계층에서는 멀티 센서 데이터를 통합 수집하며, 엣지 컴퓨팅 계층은 수집된 데이터를 실시간으로 전처리하고 영상 분석 및 센서 이상 탐지 등의 분석과 네트워크 장애 시 로컬 경보 기능으로 독립적으로 대응한다. 클라우드 분석 계층에서는 엣지에서 전송 된 데이터를 통합 관리하고, 영상 특징과 센서 특징을 융합하는 고도화된 딥러닝 모델을 적용하여 화재 위험도를 최종 판별한다. 이러한 멀티모달 화재감지 프레임워크를 기반하는 시스템을 개발하면, 정보의 상호 보완을 통해 오경보를 줄이 고 화재 초기 감지 정확도를 높여 인명과 재산 피해를 최소화하는 데 기여할 것으로 기대된다.
목차
요약
1. Introduction
2. Related Works
2.1 Single sensor-based approach
2.2 Vision-based approach
2.3 Multi-sensor approach
2.4 Image-thermal fusion based approach
3. Multimodal Fire Detection Framework
3.1 Data collection layer
3.2 Edge computing layer
3.3 Cloud & analysis layer
4. System Design and Implementation Plan
4.1 System architecture design
4.2 Data processing and analysis
5. Conclusions
REFERENCES
