초록
영어
As the relationship between humans and AI becomes more intimate, a question often arises. Is it possible to ascribe responsibility to and punish AI when it causes morally harmful consequences? Morally punishing AI as a responsible entity has been persistently raised as a feasible alternative to the problem of accountability. This might be called this ‘AI retributivism.’ This paper examines the legitimacy of AI retributivism as a way of preparing for the increasingly intense challenges of AI responsibility. There are two strategies AI retributivism can use to justify punishing AI. One is to humanize AI, and the other is to dehumanize responsibility. This paper critically examines each of these strategies. It will first show that both the corporatization and anthropomorphization arguments, which are sub-strategies of the humanizing AI strategy, are problematic. Next, I will show that the dehumanizing strategy of responsibility, which argues that reconfiguring the concept of responsibility can be justified as conceptual engineering, is also unconvincing in that it is unclear what epistemic, moral, or practical improvements result from such reconfigurations. Thus, AI retributivism is not successful. This review sheds light on the problem of AI responsibility and punishment ultimately, the approaches that are needed to address it, and what it implies about human responsibility is.
한국어
인간과 AI의 관계가 밀접해짐에 따라 자주 제기되는 문제가 있다. 그것은 만약 AI가 도덕적으로 해로운 결과를 야기했을 때 그것에 책임을 묻고 처벌을 할 수 있느냐는 것이다. 실제로 AI를 책임의 주체로서 도덕적으로 처벌하는 것이 적어도 가능하다는 생각이 가능 한 대안으로서 제기될 수 있다. 이를‘AI 응보주의’라고 부를 수 있을 것이다. 본 논문은 앞으로의 더욱 거세어질 AI의 책임 문제에 대비하는 차원에서 AI 응보주의의 정당성을 검 토해 보고자 한다. AI 응보주의가 AI에 대한 처벌을 정당화할 수 있는 전략은 두 가지다. 하나는 AI를 인간화하는 것이고 다른 하나는 책임을 탈인간화하는 것이다. 본 논문은 이들 전략 각각을 비판적으로 검토한다. 우선 AI를 인간화하는 전략의 하위 전략인 법인화 논변 과 의인화 논변이 각각 문제에 봉착한다는 점을 보일 것이다. 다음으로 책임 개념을 재구 성하는 것이 개념 공학으로서 정당화될 수 있다는 책임의 탈인간화 전략 또한 그러한 재구 성으로 인해 어떤 인식적, 도덕적, 실천적 개선이 이루어지는지가 불분명하다는 점에서 설 득력이 떨어진다는 점을 보일 것이다. 결국 AI를 처벌할 수 있다는 AI 응보주의는 성공적 이지 못하다. 이러한 검토는 AI의 책임과 처벌이 궁극적으로 무엇의 문제인지, 그것을 해 결하기 위해서는 어떤 접근이 필요한지, 나아가 그것이 인간의 책임에 대해 무엇을 함축하는지를 알려준다.
목차
1. AI 응보주의
2. 기본 입장과 AI 응보주의의 전략들
3. AI를 인간화하기: 법인화와 의인화
가. AI에 대한 법인화 논변
나. AI에 대한 의인화 논변
4. 책임을 탈인간화하기: 책임 개념을 재구성하기?
가. 개념 공학으로서의 책임 개념의 재구성
나. 책임에 대한 개념 공학은 정당한가?
5. 실용주의, 도덕 형이상학, 그리고 인간의 책임
참고문헌
Abstract
