원문정보
초록
영어
In recent years, deep learning-based models have significantly advanced object detection performance. However, vulnerabilities to physical attacks such as adversarial patches remain a critical security threat. This study systematically analyzes the robustness of the latest object detector series, YOLOv8, with respect to model size and adversarial patch scale. Experiments were conducted using the COCO dataset and covered a range of YOLOv8 model variants, from YOLOv8n to YOLOv8x. The results demonstrate that as the model size increases, the degradation in detection performance caused by adversarial patches tends to decrease. Nevertheless, when the patch size exceeds a certain threshold, all models suffer substantial detection failures with high attack success rates. Furthermore, we investigate the practical effectiveness and applicability of adversarial patches in real-world settings.
한국어
최근 객체 탐지 분야에서 딥러닝 기반 모델들의 성능이 크게 향상되었으나, 적대적 패치(adversarial patch)와 같은 물리적 공격에 대한 취약성은 여전히 심각한 보안 위협으로 남아 있다. 본 연구에서는 최신 객체 탐지기인 YOLOv8 시리즈를 대상으 로, 모델 크기 및 적대적 패치 크기에 따른 견고성(robustness) 변화를 체계적으로 분석하였다. COCO 데이터셋을 기반으로 실험을 수행하였으며, YOLOv8의 다양한 모델 크기(YOLOv8n, YOLOv8x 등)를 포함하였다. 실험 결과, 모델 크기가 커질수 록 적대적 패치에 의한 객체 탐지 성능 저하가 감소하는 경향을 보였으나, 패치 크기가 일정 수준 이상으로 커지면 높은 성공 률로 객체 탐지가 잘 안되는 것을 분석하였다. 또한 이러한 적대적 패치에 대한 고찰에 대해서도 논의하였다.
목차
ABSTRACT
1. 서론
2. 관련연구
2.1 적대적 샘플과 객체 탐지기의 취약성
2.2 적대적 패치 공격과 YOLO 계열 모델에 대한 연구 동향
3. 방법론
4. 실험 및 평가
4.1 데이터셋
4.2 모델
4.3 적대적 패치 생성
4.4 실험결과
4.5 적대적 패치에 대한 고찰
5. 결론
참고문헌
