원문정보
초록
한국어
다양한 분야에서 인공지능을 활용한 사례가 증가하면서 침입탐지 분야 또한 다양한 이슈를 인공지능을 통해 해결하려는 시도가 증가하고 있다. 하지만, 머신러닝을 통한 예측된 결과에 관한 이유를 설명하거나 추적할 수 없는 블랙박스 기반이 대 부분으로 이를 활용해야 하는 보안 전문가에게 어려움을 주고 있다. 이러한 문제를 해결하고자 다양한 분야에서 머신러닝의 결정을 해석하고 이해하는데 도움이 되는 설명 가능한 AI(XAI)에 대한 연구가 증가하고 있다. 이에 본 논문에서는 머신러닝 기반의 침입탐지 예측 결과에 대한 신뢰성을 강화하기 위한 설명 가능한 AI를 제안한다. 먼저, XGBoost를 통해 침입탐지 모 델을 구현하고, SHAP을 활용하여 모델에 대한 설명을 구현한다. 그리고 기존의 피처 중요도와 SHAP을 활용한 결과를 비교 분석하여 보안 전문가가 결정을 수행하는데 신뢰성을 제공한다. 본 실험을 위해 PKDD2007 데이터셋을 사용하였으며 기존의 피처 중요도와 SHAP Value에 대한 연관성을 분석하였으며, 이를 통해 SHAP 기반의 설명 가능한 AI가 보안 전문가들에게 침입탐지 모델의 예측 결과에 대한 신뢰성을 주는데 타당함을 검증하였다.
목차
요약
ABSTRACT
1. 서론
2. 관련 연구
2.1 설명 가능한 AI (XAI)
2.2 침입탐지 분야의 XAI
3. 제안된 기법
3.1 제안 프로세스
3.2 피처 중요도 (Feature Importance)
3.3 SHAP(Shapley Additive exPlanations)
3.4 XGBoost
4. 실험 및 평가
4.1 데이터셋
4.2 데이터 전처리
4.3 실험 환경 및 평가 방법
4.4 실험 결과
5. 결론
참고문헌
ABSTRACT
1. 서론
2. 관련 연구
2.1 설명 가능한 AI (XAI)
2.2 침입탐지 분야의 XAI
3. 제안된 기법
3.1 제안 프로세스
3.2 피처 중요도 (Feature Importance)
3.3 SHAP(Shapley Additive exPlanations)
3.4 XGBoost
4. 실험 및 평가
4.1 데이터셋
4.2 데이터 전처리
4.3 실험 환경 및 평가 방법
4.4 실험 결과
5. 결론
참고문헌