초록 열기/닫기 버튼

이 글이 다루고자 하는 핵심 문제는, 인공적 도덕행위자(AMA)에게 어떤 성격의 도덕적 책임을 물을 수 있는가이다. 이때 인공적 도덕행위자란, 자기 나름의 추론과정을 거쳐 도덕적으로 중요한 어떤 결과를 산출하는 인공지능 기계와 같은 행위자를 말한다. 이 글은 이 문제를 풀기 위한 다음 단계를 가진다. 먼저AMA의 특징과 그 특징에서 비롯하는 세 가지 책임 관련 문제 상황들이 제시된다(2장). 둘째, 이 문제를 이끌어갈 책임 개념을 순수히 개념적 차원에서 정하거나 성립 요건들을 나열하기보다 책임을 논하는 우리의 목적을 살펴보는 화용론적 접근으로 파악해본다. 우리가 AMA의 도덕과 책임을 논하는 목적, 인간행위자의 책임을 논하는 목적을 살펴서 그것에 기반하여 AMA의 책임 개념과 인간의 책임 개념을 대조하고 차이를 밝힌다. 이런 작업은 양 개념이 뒤섞여 생기는 불필요한 논란을 없애고 현실적으로 밝혀야 할 문제에 집중하게 한다(3장). 셋째, 2장에서 정리된 바에 비추어 AMA에게 요구되는 책임 세 가지, 즉 해명책임, 분산적 책임, 기능적 책임을 제시한다(4장). 넷째, 그 제안된 성격의 책임을 갖고 2장에서 제시된 문제 상황을 잘 해결할 수 있음을 보여 이 글이 지지하는 그 책임 개념이 설득력 있음을 다시 한번 밝힌다(5장).


This essay asks what kind of responsibility artificial moral agents(AMAs) can be thought to take. Here I mean AMAs as AI machines which have take part in moral situation by making some considerable outputs through their own process of reasoning. To figure out the above question, I go through the following steps. First I point out the characteristics of AI and three problems of responsibility issuing from those characteristics. Second, I inquire the idea of responsibility by pragmatic approach trying to make it clear what purpose we as human beings deal with AI’s morality and responsibility, rather than by theoretical approach trying to define a pure concept of responsibility, and thereby I contrast AMAs’ responsibility with human responsibility. This prevents us from confusing the former with the latter, and makes us concentrate on the actual problems we must figure out. Third, I suggest that AMAs should be taken three kinds of responsibility, that is, accountability, distributed responsibility and functional responsibility. Finally I emphasize the strengths of my suggestion by showing that the above three problems as to responsibility could be well figured out if those would be addressed by the concepts of responsibility that I suggested in the third step.