원문정보
Noise Filtering Method on Fourier Domain for Adversarial Example Detection
초록
영어
Recent advances in deep learning field have increased the importance of security and robustness. However, several works demonstrated that deep neural networks are vulnerable to adversarial examples which are indistinguishable to human eyes but lead to erroneous results. In this paper, we propose an classification method for the adversarial examples by using the extracted adversarial noises in the Fourier domain. We experimented our proposed method against the Projected Gradient Descent(PGD) and Deepfool adversarial attack method on Cifar-10. Our method achieves 93% accuracy against the PGD, and 85% accuracy against the Deepfool.
한국어
딥러닝의 연구가 활발해짐에 따라 안정성에 대한 중요성도 증대되고 있다. 특히 자율주행이나 의료 영상 판독과 같 은 분야에서는 안정성이 크게 요구된다. 그러나 사람 눈으로는 구별할 수 없지만, 딥러닝의 결과에 큰 영향을 끼치 는 적대적 사례(adversarial example)로 인한 취약성이 대두되고 있다. 따라서 최근 적대적 사례로 딥러닝 모델 을 공격하는 방법과 방어하는 방법은 활발히 연구가 되고 있다. 본 논문에서는 적대적 사례 영상을 푸리에 도메인 상으로 변환하여 분석하고, 푸리에 변환된 영상에서 얻은 노이즈 영상을 분류기의 입력으로 사용하여 적대적/비적 대적 사례로 이진 분류하는 방법을 제안한다. 흔히 사용되는 공격 방법 중 하나인 Projected Gradient Descent (PGD)와 Deepfool로 생성한 적대적 사례를 대상으로 판별 실험을 하였다. Cifar-10 데이터에 대해 실험한 결과, PGD의 경우 93% 분류 정확도를, Deepfool은 85%의 분류 정확도를 보여 향후 적대적 사례에 대한 방어 방법으 로 사용가능함을 확인하였다.
목차
Abstract
1. 서론
2. 관련 연구
3. 방법
3.1 데이터 생성
3.2 노이즈 추출
3.3 딥러닝 네트워크
4. 결과
4.1 평가 지표
4.2 실험 결과
5. 결론
Acknowledgement
참고문헌