earticle

논문검색

적대적 공격 방어를 위한 특이값 기반 무작위 이미지 재구성 기법

원문정보

Singular Value-Based Randomized Image Reconstruction Method for Adversarial Attack Defense

김희연, 정민영

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

As AI has evolved, so have adversarial attacks that cause AI to misjudge. To defend against this, research has focused primarily on increasing the robustness of neural networks. However, existing defense techniques are not robust against a variety of attack methods, leaving them vulnerable to new types of attacks. It is also very difficult to improve the defense rate while maintaining the network accuracy. In this work, we propose a novel neural network training and inference technique that can uniformly defend against various attack methods while maintaining the accuracy of the network. The algorithm we propose in this work performs randomization-based image reconstruction using singular value decomposition to defend against adversarial attacks by making the input data unpredictable to the attacker. We experimented with the method on the CIFAR-10 dataset and found it to be a simple and uniform defense technique. The method's performance is demonstrated by achieving a final defense rate for 61% against FGSM attacks.

한국어

인공지능이 발달함에 따라 인공지능의 오판을 야기하는 적대적 공격 기법도 발전하였다. 이를 방어하기 위해 주로 신경망의 강건성을 증가시키는 데 초점을 맞춰 연구가 이루어졌다. 하지만 기존 방어 기술들은 다양한 공격 방법에 대해 강건하지 않아 새로운 유형의 공격에는 취약하다. 또한 방어율을 향상하는 동시에 모델의 정확도를 유지하기는 매우 어렵다. 본 연구에서는 다양한 공격 기법에 대해 균일하게 방어하면서 신경망의 정확도도 유지할 수 있는 새로 운 신경망 훈련 및 추론 기법을 제안한다. 본 연구에서 제안하는 알고리즘은 특이값 분해(SVD)를 사용하여 무작위 화 기반의 이미지 재구성을 수행하고, 이를 통해 입력 데이터를 공격자가 예측할 수 없게 만들어 적대적 공격을 방 어한다. CIFAR-10 데이터 세트에서 제안하는 방법을 실험하여 간단하면서도 균일한 방어가 가능한 방어 기술임을 확인하였고, FGSM 공격에 대해서는 최종 방어율 61%를 기록하여 성능을 입증하였다.

목차

요약
Abstract
1. 서론
2. 방법
2.1 특이값 기반 무작위 이미지 재구성 알고리즘
2.2 모델 학습
2.3 모델 추론
3. 결과
3.1 평가 지표
3.2 실험 결과
4. 결론
Acknowledgement
참고문헌

저자정보

  • 김희연 Heeyeon Kim. 숭실대학교 IT대학 소프트웨어학부
  • 정민영 Minyoung Chung. 숭실대학교 IT대학 소프트웨어학부

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.