earticle

논문검색

YOLOv8 객체 탐지모델에 대한 적대적 패치 공격의 실용성 평가

원문정보

Evaluating the Practical Effectiveness of Adversarial Patches Against YOLOv8

남홍철, 권현, 이무현, 정관

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

In recent years, deep learning-based models have significantly advanced object detection performance. However, vulnerabilities to physical attacks such as adversarial patches remain a critical security threat. This study systematically analyzes the robustness of the latest object detector series, YOLOv8, with respect to model size and adversarial patch scale. Experiments were conducted using the COCO dataset and covered a range of YOLOv8 model variants, from YOLOv8n to YOLOv8x. The results demonstrate that as the model size increases, the degradation in detection performance caused by adversarial patches tends to decrease. Nevertheless, when the patch size exceeds a certain threshold, all models suffer substantial detection failures with high attack success rates. Furthermore, we investigate the practical effectiveness and applicability of adversarial patches in real-world settings.

한국어

최근 객체 탐지 분야에서 딥러닝 기반 모델들의 성능이 크게 향상되었으나, 적대적 패치(adversarial patch)와 같은 물리적 공격에 대한 취약성은 여전히 심각한 보안 위협으로 남아 있다. 본 연구에서는 최신 객체 탐지기인 YOLOv8 시리즈를 대상으 로, 모델 크기 및 적대적 패치 크기에 따른 견고성(robustness) 변화를 체계적으로 분석하였다. COCO 데이터셋을 기반으로 실험을 수행하였으며, YOLOv8의 다양한 모델 크기(YOLOv8n, YOLOv8x 등)를 포함하였다. 실험 결과, 모델 크기가 커질수 록 적대적 패치에 의한 객체 탐지 성능 저하가 감소하는 경향을 보였으나, 패치 크기가 일정 수준 이상으로 커지면 높은 성공 률로 객체 탐지가 잘 안되는 것을 분석하였다. 또한 이러한 적대적 패치에 대한 고찰에 대해서도 논의하였다.

목차

요약
ABSTRACT
1. 서론
2. 관련연구
2.1 적대적 샘플과 객체 탐지기의 취약성
2.2 적대적 패치 공격과 YOLO 계열 모델에 대한 연구 동향
3. 방법론
4. 실험 및 평가
4.1 데이터셋
4.2 모델
4.3 적대적 패치 생성
4.4 실험결과
4.5 적대적 패치에 대한 고찰
5. 결론
참고문헌

저자정보

  • 남홍철 Hongchul Nam. 육군사관학교 AI연구개발센터 연구원
  • 권현 Hyun Kwon. 육군사관학교 AI·데이터과학과 부교수
  • 이무현 Moohyun Lee. 육군사관학교 전자공학과 강사
  • 정관 Kwan Jeong. 육군사관학교 물리화학과 교수

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 4,000원

      0개의 논문이 장바구니에 담겼습니다.