earticle

논문검색

클라우드 시계열 데이터 관련 딥러닝 이상탐지 모델 성능 비교 연구

원문정보

A Comparative Study on the Performance of Deep Learning Anomaly Detection Models for Cloud Time Series Data

조은정, 김명화, 이종섭, 이정진

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

As cloud adoption rapidly expands, various issues are arising in complex cloud-native environments. Therefore, research is underway to address issues like security intrusions, abnormal network activity, and service disruptions using cloud time-series anomaly detection. An anomaly detection is defined as identifying a specific point in time where the system's behavior significantly deviates from its previous normal state. Although machine learning techniques have begun to be utilized to handle large volumes of cloud data, the lack of labeled data has led most anomaly detection research to rely on unsupervised learning models, specifically deep learning methods. This study also trained and compared the performance of state-of-the-art deep learning models with demonstrated effectiveness in previous time-series anomaly detection studies—namely, LSTM-AE, GMM-GRU-VAE, and GDN—using time-series data collected from an actual cloud operating environment. The GDN model achieved the highest performance with an AUPRC of 0.7488 and a BestTS F1 score of 0.9894, with the shortest testing time of just 10 minutes. LSTM-AE followed with an AUPRC of 0.7378 and a BestTS F1 score of 0.9594. The GMM-GRU-VAE model outperformed LSTM-AE in time-series prediction but ranked lowest in overall performance due to its AUPRC score of 0.7229. Therefore, GDN is evaluated as the most suitable model for time-series data analysis in cloud infrastructure, proving advantageous in environments requiring rapid processing time and high predictive accuracy.

한국어

클라우드 활용이 급속도로 확대되면서 복잡한 클라우드 네이티브 환경에서 다양한 장애가 발생하고 있다. 따라서 클 라우드 시계열 기반 이상 탐지를 이용하여 보안 침입, 비정상적인 네트워크 활동, 서비스 장애 등 다양한 문제들을 해결하고자 하는 연구들이 진행하고자 한다. 이상 탐지는 시스템의 동작이 이전의 정상 상태와 크게 다른 특정 시간 지점을 파악하는 것이다. 클라우드 자원의 대용량 데이터를 처리하기 위해 기계학습 기술을 활용하기 시작하였으나 레이블이 지정된 데이터가 부족하기 때문에 대부분 이상탐지는 비지도 학습 모델인 딥러닝 방법으로 해결하려는 연 구가 진행되고 있다. 본 연구에도 시계열 이상탐지 관련 선행 연구를 통해 확인된 우수한 성과를 보인 최신 딥러닝 모델들인 LSTM‐AE, GMM‐GRU‐VAE, GDN을 실제 클라우드 운영 환경에서 획득한 시계열 데이터들을 사용하 여 학습시켜서 성능을 비교하였다. GDN 모델이 0.7488 AUPRC 와 0.9894 BestTS F1 점수로 가장 우수한 성 능을 보였으며, 테스트 시간도 10분으로 가장 짧았다. LSTM-AE가 0.7378 AUPRC 와 0.9594 BestTS F1 점 수로 그 뒤를 따른다. GMM-GRU-VAE 모델은 시계열 예측에서 LSTM-AE 보다는 나은 성능을 보였으나, AUPRC 스코어가 0.7229로 가장 낮아 전반적인 성능에서 뒤처졌다. 따라서 클라우드 인프라의 시계열 데이터 분 석에서 GDN 모델이 가장 적합한 것으로 평가되며, 특히 빠른 처리 시간과 높은 예측 정확도를 요구하는 환경에서 유리한 선택임을 확인하였다.

목차

요약
Abstract
1. 서론
2. 관련 연구
2.1 클라우드 컴퓨팅
2.2 이상탐지
2.3 시계열 데이터 이상 탐지
2.4 시계열 이상 탐지 기법
3. 연구 방법 설명
3.1 TimeSeAD 벤치마크 결과 활용
3.2 연구진행 순서
3.3 자료 수집
3.4 연구 모델들 설명
4. 실험 방식과 결과
4.1 실험환경
4.2 LSTM‐AE, GMM‐GRU‐VAE, GDN 모델별성능 비교
5. 결론
참고문헌

저자정보

  • 조은정 Eunjung Jo. 숭실대학교 컴퓨터학과
  • 김명화 Myunghwa Kim. 숭실대학교 IT정책경영학과
  • 이종섭 Jongsub Lee. 숭실대학교 IT정책경영학과
  • 이정진 Jeongjin Lee. 숭실대학교 컴퓨터학과

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.