초록 열기/닫기 버튼

나는 이 글에서 ‘신뢰가능한 인공지능’을 위해 요구되는 중요한 가치 중의 하나인 ‘설명가능성’에 대한 개념 비판적 고찰을 시도한다. 이를 위해 최근 발표된 유럽연합의 “인공지능 법”과 2019년에 발표된 “신뢰가능한 인공지능을 위한 윤리 가이드라인”을 분석하면서‘신뢰성’이 이미 인공지능 기술 개발 방향의 가장 중요한 가치로 자리 잡았다는 사실과 이개념을 구성하는 가장 중요한 요소가 설명가능성이라는 사실을 간략하게 소개한다. 이 문건들이 규정하는 ‘설명가능성’은 기술적 투명성과 인터페이스상의 소통가능성을 아우르고있기는 하지만, 후자에 더 많은 무게를 두고 있다는 사실을 밝힌다. 이를 배경으로 ‘설명가능성’ 개념의 기술적 구현의 대표적인 예로서 미국의 방위고등연구계획국의 ‘설명가능한인공지능 XAI’프로젝트에 주목하여 이 프로젝트에서 주장하는 설명가능성의 필요성의 근거가 무엇이며, 새로운 인공지능 기술이라고 주장하는 설명가능한 인공지능 XAI을 통해설명해 내고자 하는 것은 무엇인지 밝힌다. 그리고 이 둘이 서로 일치하지 않음을, 다시말해 그들이 설명이 필요하다고 하였을 때, 그 ‘설명’의 의미와 실제로 제시하고자 하는‘설명’의 의미가 다름을 지적하고자 한다.


In this paper, I critically examine the concept of ‘explainability’, a key value required for ‘trustworthy artificial intelligence’. I analyze the AI Act and the “Ethics Guidelines for Trustworthy AI” released by the EU in 2019, introducing the idea that 'trustworthiness’ has become the most important value in AI technology development, with ‘explainability’ being a crucial component. The ‘explainability’ defined in these documents encompasses technical transparency and the possibility of communication through interfaces but emphasizes the latter more. Based on this, I highlight the U.S. Defense Advanced Research Projects Agency’s ‘Explainable AI (XAI)’ project as a representative example of the technical implementation of explainability, discussing the rationale behind the project’s call for explainability and what it seeks. This paper argues that the emphasis on communication-oriented explainability in the EU framework may not align with the technical focus of the US approach, potentially hindering the development of truly trustworthy AI.