원문정보
Classifier Encoder Sharing Framework for Stabilizing Counterfactual Explanation Generators for Medical Image Classifiers
초록
영어
While Deep Learning models show high accuracy in medical image diagnosis, their 'black box' nature limits clinical adoption, making eXplainable AI (XAI) essential. Among XAI methods, Counterfactual Explanations offer intuitive interpretations, but existing generative approaches suffer from training instability and architecture-dependency. This instability and dependency hinder the application of explainers to various modern classifiers and reduce their reliability. To address this, this paper proposes a novel counterfactual generation framework that shares the classifier's encoder with the discriminator's encoder. This architecture stabilizes GAN training by forcing the discriminator to assess realism within the classifier's semantic feature space, rather than at the pixel level, thus ensuring generalization. Experiments on the CheXpert (Chest X-ray) dataset demonstrate that the proposed framework significantly improves training stability and achieves high validity and realism (FID) across various classifiers, including ResNet, ResNeXt, DenseNet, and ConvNeXt.
한국어
딥러닝 기반 의료 영상 진단 모델의 신뢰성을 확보하기 위해 설명 가능한 AI 기술이 필수적으로 요구되고 있다. 다 양한 XAI 방법 중, 반사실적 설명은 직관적인 해석을 제공하지만, 기존 생성 모델 기반 방법론은 학습이 불안정하 고 특정 아키텍처에 의존하는 문제를 가진다. 이러한 불안정성과 의존성은 다양한 최신 분류기 모델에 대한 설명 생 성기의 적용을 어렵게 하고 신뢰성을 저해한다. 이 문제를 해결하기 위해, 본 연구는 분류기의 인코더를 판별기의 인 코더와 공유하는 새로운 반사실 설명 생성 프레임워크를 제안한다. 이 구조는 판별기가 픽셀 레벨이 아닌 분류기의 의 미론적 특징 공간 내에서 현실성을 판별하도록 유도하여, GAN 학습을 안정화시키고 일반화 성능을 확보한다. 흉부 X-ray(CheXpert) 데이터셋을 이용한 실험에서, 제안 프레임워크가 ResNet, ResneXt, DenseNet, ConvNeXt 등 다양한 분류기에서 학습 안정성을 크게 향상시키고, 높은 타당성(Validity)과 현실성(FID)을 달성함을 확인하 였다.
목차
Abstract
1. 서론
2. 관련 연구
2.1 반사실 적대적 생성 모델
2.2 반사실 맵 적대적 생성 모델
3. 방법
3.1 의료 이미지 분류기 설명을 위한 반사실 생성(LEAR)
3.2 판별기 인코더 공유를 통한 불안정성 개선
3.3 확장성을 위한 일반화 프레임워크
4. 실험 결과
4.1 실험 환경 및 데이터
4.2 평가 지표
4.3 학습 안정성 및 수렴 속도
4.4 반사실 타당성 및 현실성 정량평가
5. 한계 및 결론
Acknowledgement
참고문헌
