초록 열기/닫기 버튼

이 논문은 인공지능이 도덕적 행위자로서 간주될 수 있는지의 문제와 관련된 쟁점을 ‘쉬운 문제’와 ‘어려운 문제’로 나누어 접근하고 그 해결책을모색한다. 이 두 문제의 성격을 분명히 드러내기 위해 자율주행차의 사례를 분석한다. 그리고 ‘쉬운 문제’의 해결에는 기존 윤리적 개념의 확장이 중요하다는점을 법인 개념의 탄생 과정과 변화 과정을 통해 설명한다. 또한 ‘어려운 문제’의 해결은 결국 ‘쉬운 문제’의 해결이 축적되는 과정에서 구성적으로 얻어질 것이라고 주장한다. 마지막으로 이 두 문제 해결과정이 서로 본질적으로 연결되어있기에 논문이 제시하는 방식의 해결이 불가능하다는 반론을 소개하고, 이 반론이 해결책을 찾는 과정을 구성적, 사회적 과정으로 보지 않고 순간적, 원리적과정으로 보기 때문이라고 답변한다.


I discuss if AI can be regarded as moral agent by dividing theissues into two categories: easy problems and difficult problems. Iillustrate them concepts using the case of autonomous vehicles. Then Iargue that in order to tackle the easy problems, we need to ‘extend’socially accepted ethical intuitions and legal frameworks. I explain howto achieve this by following the historical analysis of legal personconcept. I also claim that the resolution of ‘difficult problems’ can beobtained through our continous resolution of a number of the relatedeasy problems. Finally, I consider a potential critique that my approachis impossible to implement as the two kinds of problems areessentially interlinked, and reply to it by pointing out the constructiveand social aspects of my approach.