초록 열기/닫기 버튼

이 논문은 자율적인 AI 로봇의 진화로 인해 제기되는 책임 물음을 해명한 다음 그 해결책을 모색하는 데 그 목적이 있다. 따라서 이 글에서 필자는 AI 로봇과 책임의 관계를 주제로 다음의 세 물음을 윤리학적으로 논의하고자 한다. 첫째, AI 로봇이 책임 물음을 야기하는 존재론적 특성은 무엇인가? 둘째, AI 로봇은 윤리학적으로 어떤 책임 물음을 야기하는가? 셋째, AI 로봇은 도덕적 책임의 주체가 될 수 있는가? 첫째 물음에 대해 필자는 기술에 대한 도구주의를 비판하면서 AI 로봇도 자율성을 지녀 인간 통제에서 벗어날 수 있음을 강조하고자 한다. 둘째 물음에 대해 윤리학의 세 분야, 즉 응용윤리학, 메타윤리학, 규범윤리학 각각의 차원에서 AI 로봇이 서로 다른 종류의 책임 물음을 낳는다는 것을 밝히고자 한다. 그리고 마지막의 세 번째 물음에 대해 필자는 ‘책임 공백’의 물음을 규범 윤리학적으로 해결할 수 있는 길을 모색하고자 한다. 즉, 필자는 AI 로봇의 책임의 주체 인정이 책임 공백 내지 응보 공백의 문제를 야기해도 도덕 공동체는 여전히 지속가능하기 때문에, 해체의 철학과 도의적 책임에 근거하여 이를 윤리적으로 수용할 수 있음을 보여주고자 한다.


The purpose of this paper is to explain the responsibility questions posed by the evolution of autonomous AI robots and then to seek rational solutions to them.. Therefore, in this article, I would like to discuss the following three questions ethically on the relationship between AI robots and responsibility. First, what are the ontological characteristics of AI robots that cause responsibility questions? Second, what responsibility questions does AI robot cause ethically? Third, can AI robots be the subject of moral responsibility? In response to the first question, while criticizing the instrumentalism of technology, I would like to emphasize that AI robots can also have autonomy to escape human control. For the second question, I would like to explain that AI robots produce different types of responsibility questions in each of the three fields of ethics, that is, applied ethics, meta ethics, and normative ethics. And for the third question at the end, I would like to find a way to solve the question of 'responsibility gap' in a normative ethics. In other words, I would like to show that even if the recognition of the responsible subject of AI robots causes a responsibility gap or a retribution gap, human moral life already has this responsibility gap due to moral luck, so it can be accepted ethically as much as possible based on the ‘philosophy of dissolution’ and the ‘moral-ethical responsibility’.