earticle

논문검색

적대적 사례 판별을 위한 푸리에 도메인 상에서 노이즈 필터링 기법

원문정보

Noise Filtering Method on Fourier Domain for Adversarial Example Detection

정승환, 정민영, 신영길

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

Recent advances in deep learning field have increased the importance of security and robustness. However, several works demonstrated that deep neural networks are vulnerable to adversarial examples which are indistinguishable to human eyes but lead to erroneous results. In this paper, we propose an classification method for the adversarial examples by using the extracted adversarial noises in the Fourier domain. We experimented our proposed method against the Projected Gradient Descent(PGD) and Deepfool adversarial attack method on Cifar-10. Our method achieves 93% accuracy against the PGD, and 85% accuracy against the Deepfool.

한국어

딥러닝의 연구가 활발해짐에 따라 안정성에 대한 중요성도 증대되고 있다. 특히 자율주행이나 의료 영상 판독과 같 은 분야에서는 안정성이 크게 요구된다. 그러나 사람 눈으로는 구별할 수 없지만, 딥러닝의 결과에 큰 영향을 끼치 는 적대적 사례(adversarial example)로 인한 취약성이 대두되고 있다. 따라서 최근 적대적 사례로 딥러닝 모델 을 공격하는 방법과 방어하는 방법은 활발히 연구가 되고 있다. 본 논문에서는 적대적 사례 영상을 푸리에 도메인 상으로 변환하여 분석하고, 푸리에 변환된 영상에서 얻은 노이즈 영상을 분류기의 입력으로 사용하여 적대적/비적 대적 사례로 이진 분류하는 방법을 제안한다. 흔히 사용되는 공격 방법 중 하나인 Projected Gradient Descent (PGD)와 Deepfool로 생성한 적대적 사례를 대상으로 판별 실험을 하였다. Cifar-10 데이터에 대해 실험한 결과, PGD의 경우 93% 분류 정확도를, Deepfool은 85%의 분류 정확도를 보여 향후 적대적 사례에 대한 방어 방법으 로 사용가능함을 확인하였다.

목차

요약
Abstract
1. 서론
2. 관련 연구
3. 방법
3.1 데이터 생성
3.2 노이즈 추출
3.3 딥러닝 네트워크
4. 결과
4.1 평가 지표
4.2 실험 결과
5. 결론
Acknowledgement
참고문헌

저자정보

  • 정승환 Seunghwan Jung. 서울대학교 공과대학 컴퓨터공학부
  • 정민영 Minyoung Chung. 숭실대학교 IT대학 소프트웨어학부
  • 신영길 Yeong-Gil Shin. 서울대학교 공과대학 컴퓨터공학부

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.