earticle

논문검색

Session III : 인공지능 및 기계학습

산업 제어 시스템을 위한 Sequence-to-Seuence 신경망의 적대적 예제

원문정보

Adversarial Example on Sequence-to-Sequence Neural Network for Industrial Control System

전다연, 이문규

피인용수 : 0(자료제공 : 네이버학술정보)

초록

한국어

인공지능은 이미지 분류, 자연어 처리, 이상치 탐지와 같이 다양한 분야에서 활용된다. 하지만, 인공지능은 데이터에 왜곡이 추가되는 공격에 취약점을 가진다. 이러한 공격은 적대적 예제(adversarial example)라 불리는데, 사람은 일반적으로 이러한 왜곡이 추가되어도 큰 차이를 인식하지 못하지만, 인공지능 모델은 이를 다른 데이터로 오분류할 수 있다. 인공지능이 다양한 분야에 적용되는 것과 같이 적대적 예제도 이미지, 자연어, 시계열 데이터에 적용이 되어 모델을 오동작하게 만들 수 있다. 본 논문은 적대적 예제가 다양한 데이터에 적용될 수 있음을 보이기 위해 시계열 데이터인 Industrial Control System (ICS) dataset을 사용하였다. ICS는 네트워크를 통한 다양한 공격을 받을 수 있지만, 적대적 예제가 ICS dataset에 더해질 경우에도 시스템에 큰 피해를 줄 수 있다. 본 논문은 인공지능 모델 중 Sequence-to-Sequence Neural Network에 적대적 예제를 적용하는 실험을 수행하였다. 실험에서 두 종류의 ICS dataset이 사용되었고 적대적 예제 방법 중 하나인 Fast Gradient Sign Method (FGSM)가 사용되었다. 실험 결과는 FGSM이 적용되는 정도에 따라 달라지는 F1 score로 확인하였다. 실험 결과, 공격이 적용되는 정도가 커짐에 따라 기존 데이터와의 성능 차이가 커지고 dataset에 따라 결과의 변화율이 커지는 지점이 다름을 확인하였다.

목차

요약
1. 서론
2. 관련연구
3. 실험방법
3.1. 데이터셋
3.2. 실험환경
4. 실험결과
5. 결론
참고문헌

저자정보

  • 전다연 인하대학교 전기컴퓨터공학과
  • 이문규 인하대학교 컴퓨터공학과

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.