원문정보
A Structured Evaluation of Explainable AI Models through the GQM Framework
초록
한국어
AI 기술의 비약적인 발전은 사회 전반에 걸쳐 다양한 기능을 수행할 수 있는 모델들이 등장했다. 이에 따라 AI 모델들은 점차 대규모화되고 복잡한 구조를 갖추게 되었으며, 그 결과 이들의 의사결정 과정은 인간이 직관적으로 이해하기 어려운 수준에 이르렀다. 이러한 복잡성을 해소하고자 설명 가능 한 인공지능(XAI, eXplainable Artificial Intelligence)에 대한 연구가 활발히 진행되고 있으며, 다양 한 설명 모델들이 제안되고 있다. 설명 가능한 인공지능 모델은 각기 다른 접근법을 통해 모델의 판단 근거를 설명하려고 시도하고 있지만, 제공되는 설명의 대상, 평가 방식, 그리고 설명이 충족해야 할 요 구사항 등에 대해서는 여전히 명확한 기준이 부재한 실정이다. 이로 인해 AI 시스템을 실제 사회 기 반 시스템에 적용하는 데에는 여러 제약이 존재한다. 또한, 기존 XAI 모델들은 직관적인 설명을 제공 하는 데 집중해왔으나, 그 설명에 대한 정량적‧정성적 평가 또는 명확한 요구사항 정립은 부족했다. 특 히, 공공 및 주요 사회 시스템에서 신뢰할 수 있는 XAI 개발이 요구되고 있음에도 불구하고, 어떤 기 능적 또는 비기능적 요구사항을 충족해야 하는지에 대한 논의는 미비하다. 본 연구는 텍스트 및 이미 지 도메인 전반을 아우르며, XAI 모델이 갖춰야 할 핵심 요구사항을 정의하고 이를 분류하는 것을 목 표로 한다. 이를 위해 다양한 XAI 모델들을 분석하고, 이들이 사용하는 핵심 요소와 한계를 식별하며, 소프트웨어공학적 관점에서 이를 체계적으로 해석한다. 특히 Goal-Question-Metric(GQM) 접근법 을 적용하여 각 모델의 신뢰성, 설득력, 효용성에 대해 평가하고 요구사항 도출을 위한 근거를 마련한다.
목차
1. 서론
2. 관련 연구
2.1 설명 가능한 인공지능
2.2 주요 XAI 기법
2.3 설명 가능성의 실제 한계
2.4 요구공학 관점
2.5 Goal-Question-Metric(GQM) 프레임워크
3. 방법론
3.1 분석방법
3.2 모델분석
3.3 GQM 구축
4. 실험 및 결과
5. 결론
Acknowledgement
참고문헌
