원문정보
초록
영어
As artificial intelligence's capacity for rational reasoning advances and humanoid robots equipped with AI can express subtle emotions such as joy and anger, the boundary between robots and humans is becoming increasingly blurred. In particular, there is an ongoing debate about the moral status of social robots that aim to establish intimate relationships with humans. Can a robot share love or friendship with a human? If love or friendship is indeed possible between a robot and a human, treating the robot merely as a tool would be immoral, and the robot should be recognized as an equal to humans. Should robots attain moral status equivalent to humans, human-robot relationships will enter an entirely new stage. Alexis Elder argues that robots, which only respond as programmed, cannot provide the "genuine reciprocity" required for friendship, regardless of how sophisticated their responses may be, due to their lack of inner consciousness. However, John Danaher claims that what matters in friendship is not unverifiable consciousness but consistency in performing actions expected of a true friend, something that current or near-future robots can accomplish. The opposing views represented by Elder and Danaher base the possibility of friendship with robots-or their moral status-on the presence or absence of "consciousness." On one side, it is argued that robots lack consciousness and thus cannot be moral agents or true friends; on the other side, since consciousness cannot be empirically verified, robots that behave similarly to morally acknowledged humans should possess equivalent moral status. However, we may ask whether the mere existence of consciousness guarantees moral status. According to Kant, consciousness is a necessary but not sufficient condition for moral status. Even if a being is conscious of its own desires and capable of striving to fulfill them, it cannot be a moral being unless it can reflect on the motivation behind those desires. Thus, Kant’s concept of humanity as a moral being may offer a new perspective on the debate over the moral status of robots, which has focused heavily on consciousness. This paper critically examines two opposing views on the moral status of robots: one that bases moral attributes on consciousness (Chapter 2) and another that bases it on relationships or behavior (Chapter 3). By doing so, this paper argues, through Kant’s Humanity Formula and the concept of purpose, that the basis for moral status lies not in mere internal attributes like consciousness but in the capacity of consciousness to set moral purposes (Chapter 4).
한국어
인공지능의 합리적 추론 능력이 발전하고, 인공지능과 결합한 휴머노이드 로봇이 기쁨이 나 분노와 같은 섬세한 감정을 표현할 수 있게 되면서 로봇과 인간 사이의 경계가 모호해지 고 있다. 특히 인간과 친밀한 관계를 맺는 것을 목표로 하는 사회적 로봇의 경우, 이 로봇의 도덕적 지위를 둘러싸고 다양한 논쟁이 전개되고 있다. 로봇은 인간과 사랑이나 우정을 나 눌 수 있는가? 만약 로봇과 인간 사이에 사랑이나 우정이 가능하다면, 진지한 사랑이나 우정 의 상대인 로봇을 단순히 도구로 대우하는 것은 비도덕적일 것이고, 로봇을 인간과 동등한 존재로 인정해야 할 것이다. 만약 로봇이 인간과 동등한 도덕적 지위를 갖게 된다면, 인간과 로봇의 관계는 지금까지와는 전혀 다른 새로운 단계에 들어서게 될 것이다. 엘더(Alexis Elder)는 프로그램 된 대로 반응하는 로봇은 그 반응이 아무리 정교하다고 해도 내면의 의식 이 없기 때문에 우정이 요구하는 ‘진정한 상호성’을 줄 수 없다고 주장한다. 하지만 다너허 (John Danaher)는 우정에서 중요한 것은 확인 불가능한 의식이 아니라, 진정한 친구라면 해 야 할 행동을 일관되게 하는 것 뿐이며, 현재나 가까운 미래의 로봇은 우정이 요구하는 행동 을 할 수 있다고 주장한다. 엘더와 다나허로 대변되는 두가지 상반되는 입장은 로봇과의 우 정의 가능성, 혹은 로봇의 도덕적 지위를 ‘의식’의 유무에 근거 짓고 있다. 한편에서 로봇은 의식이 없으므로 도덕적 주체가 될 수 없고 진정한 친구가 될 수 없다고 주장하고, 다른 한 편에서는 의식을 경험적으로 확인할 방법이 없으므로 도덕적 존재로 인정받는 인간과 유사 한 행동을 하는 로봇은 인간과 동등한 도덕적 지위를 가져야 한다고 주장한다. 하지만 우리 는 과연 의식의 존재만으로 도덕적 지위가 보장될 수 있는지 물을 수 있다. 칸트에 따르면, 의식은 도덕적 지위를 위한 필수조건이지만 충분조건은 아니다. 어떤 존재가 자신의 욕망을 의식하고 실현하기 위해 노력할 수 있다고 해도, 자기의 욕망의 동기 자체를 반성할 수 없다면 도덕적 존재가 될 수 없다. 따라서 칸트의 도덕적 존재로서의 인간성 개념은 의식의 유무 를 중심으로 전개되는 로봇의 도덕적 지위에 대한 논쟁에 다른 방향을 제시할 수 있을 것으 로 보인다. 이 글은 로봇의 도덕적 지위를 의식에 근거한 도덕적 속성에서 찾는 입장과(2장) 도덕적 속성이 아니라 관계나 행동에서 찾는 입장을(3장) 비판적으로 검토할 것이다. 그리고 이것을 통해서 도덕적 지위의 근거는 단순히 의식이라는 내적 속성이 아니라, 도덕적 목적 설정 능력으로서의 의식에 있다는 것을 칸트의 인간성의 정식에 나타난 목적 개념을 통해서 주장할 것이다(4장).
목차
1. 들어가는 말
2. 로봇의 도덕적 지위와 속성 실재론
3. 관계적 전회와 윤리적 행동주의
4. 도덕적 지위와 도덕적 목적
5. 나가는 말
참고문헌
Abstract
