원문정보
Gradient-based Adversarial Attack Service Model of an AI Image Recognition Service Environment
초록
영어
AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology. Adversarial attack services exist to counter AI image services. This study focuses on gradient-based adversarial attack services. Gradient-based attacks utilize the gradient of the loss function of deep learning image models to introduce minimal changes to input images. In this study, we identify gradient-based adversarial attack methods and core codes, perform gradient-based adversarial attacks in the RestNet18 environment, and verify the results to assess the risk of attacks. We conducted adversarial attack experiments on five gradient-based adversarial attack models and evaluated the results using performance metrics such as adversarial attack success and PSNR. The results indicate that the MI-FGSM model is appropriate when maximizing attack success rate, the A-MI-FGSM model when visually stealthy attacks are desired, the FGSM+Random model when detection evasion is preferred, and the MI-FGSM model when a balance between attack effectiveness and efficiency is sought.
한국어
AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고 자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격 과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다.
목차
Abstract
Ⅰ. 서론
Ⅱ. AI 적대적 공격 서비스들
1. 관련 연구
2. Gradient Sign 공격 서비스
III. Gradient 기반 공격 모델들의 실험과 결과
1. 공격 핵심 코드
2. Test & Evaluation for FGSM 공격 모델의 시험과 평가
IV. 결론
Reference
