초록 열기/닫기 버튼

알고리듬 투명성은 인공지능 윤리 담론에서 핵심적인 가치로 간주되지만, 알고리듬 투명성이라는 개념 자체에 대한 분석은 충분치 않은 상황이다. 이 글에서 우리는 투명성 개념이 하나가 아님을 주장하고, 제작/사용 투명성, 모형 투명성, 판단 투명성의 구분을 제안한다. 제작/사용 투명성이 알고리듬의 제작과 사용에 관한 정보 공개의 차원이라면, 모형 투명성은 모형의 작동 방식에 관한 이해에 관계하며, 판단 투명성은 왜 모형이 특정한 판단을 산출했는지에 관한 이해에 관련된다. 우리는 이러한 분류법이 투명성을 증진하는 여러 시도를 적절히 구분하는 데 유용함을 보인다. 끝으로, 투명성에 대한 개념적 구분이 인공지능 윤리에 대해 가지는 함의를 논의한다.


Algorithmic transparency is regarded as one of core principles in AI ethics. Despite its agreed-upon importance, the concept of transparency itself has yet to be fully explicated. We propose a tripartite framework for the concept of transparency and examine attempts to enhance transparency based on this framework. We suggest that transparency can be divided into three forms: production/use transparency, which involves disclosing information about the algorithm's production and use, model transparency, which concerns understanding how the model works; and decision transparency, which concerns understanding the reason or ground of the decisions made by the model. Various explainable AI research can be seen as attempts to enhance model or decision transparency.