초록 열기/닫기 버튼

오늘날 인공지능 기술은 단순한 자동화 기술을 넘어 인간의 판단과 의사결정 과정에 개입하여 상당한 수준의 자율성과 일정 범위에서 인간과의 유사성을 보이고 있다. 이러한 상황은 멀리 그리스의 오토마타(automata)와 유대의 골렘(Golem)까지 이어지는 낭만적 세계관과 결부되어 인공지능에게 일종의 주체성을 인정할 수 있을지 여부에 관한 담론이 생겨나는 계기가 되었다. 법학의 관점에서 보자면 이러한 논의는 인공지능에 법인격을 부여할 것인지 여부의 문제가 된다. 이 문제는 속성 기반 접근법과 관계 기반 접근법이라는 두 가지 방식으로 접근해볼 수 있다. 먼저 속성 기반 접근법은 인간에게 법인격이 인정되는 근거가 되는 속성을 인공지능 역시 지니고 있는지 여부에 관심을 둔다. 칸트 이래 근대 법학은 합리적 이성과 자유의지를 법인격의 초석으로 삼고 있다. 여러 학문의 발전으로 인간의 이성이 제한되어 있다는 점과 인간의 자유의지가 인과율을 초월한 것은 아님이 밝혀졌음에도 불구하고 이러한 토대는 여전히 유효하다. 현 단계의 인공지능은 주어진 과업을 효과적으로 수행한다는 의미에서 합리성을 지니며 인간의 개입이 최소화되어 있다는 의미에서 자율성도 갖고 있다. 그러나 이는 어디까지나 도구적 의미를 지닌 것에 불과하여 법인격 인정의 근거가 되는 인간의 이성과 자유의지와 같은 선상에서 논할 수 있는 것은 아니다. 영혼 내지 정신, 의식, 또는 감정과 같은 속성에 주목하는 견해도 있다. 그러나 현 단계의 인공지능은 이러한 속성을 지니고 있지 않다. 다만 기술의 발전으로 장차 인간과 구별할 수 없는 이른바 강인공지능이 출현한다면 속성 기반 접근법은 종족 중심주의를 취하지 않는 한 인공지능에 대한 법인격 부여를 요구하게 될 지도 모른다. 관계 기반 접근법은 무언가에게 법적 주체성이 인정될 것인지 여부를 그것이 지닌 속성보다는 다른 주체와의 관계에 의하여 판단하려고 한다. 역사를 돌아보면 인간임에도 불구하고 법인격이 인정되지 않은 경우도 있었고 반대로 인간이 아님에도 불구하고 법인격이 인정된 경우도 있었다. 오늘날 법제도에서 중추적 기능을 하는 법인 역시 그러한 예라고 할 수 있다. 인간이 아닌 존재에게 법인격을 부여하기 위해서는 사회적 현실과 법적 편의성이 인정되어야 한다. 먼저 사회적 현실의 측면을 보자면 현 단계의 인공지능이 기존의 법인격 주체들에 의하여 하나의 법적 주체로 받아들여지고 있다고 보기는 어렵다. 이처럼 사회적 현실이 뒷받침되지 않는 이상 법적 편의성 유무와 관계없이 법인격 부여는 불가능할 것이다. 뿐만 아니라 인공지능에 대한 법인격 인정은 책임 귀속을 용이하게 하는 등의 일부 이점에도 불구하고 이를 능가하는 위험과 비용을 초래하므로 법적 편의성이 있다고 하기도 어렵다. 책임의 적정한 귀속은 다른 법리에 의하여도 가능한 반면, 제도적‧물적 기반을 갖추기 위하여 상당한 비용이 들고, 혁신을 위축시킬 위험이 있으며, 무엇보다 기존 법질서에 미치는 충격이 상당할 것이기 때문이다. 따라서 인공지능에 대한 법인격 부여는 현 시점에서는 시기상조라고 할 수 있다. 장차 강인공지능이 도래할 것인지 여부는 알 수 없지만, 만약 그런 날이 온다고 하더라도 인공지능에 대한 법인격 부여에는 매우 신중할 필요가 있다.


Today’s AI technology goes beyond simple automation technology to intervene in human judgment and decision making, showing considerable autonomy and similarity to humans in a certain range. This situation, coupled with the romantic worldview going back to the Greek Automata and the Jewish Golem, led to a discourse on whether AI could be recognized as a kind of subjectivity. From the viewpoint of law, this discussion is a matter of whether to give legal personhood to AI. This problem can be approached in two ways: the property-based approach and the relationship-based approach. First, the property-based approach focuses on whether AI also has the property on the basis of which human beings are recognized as legal person. Since Immanuel Kant, modern law has considered rational reason and free will as the cornerstone of personhood. This foundation is still valid, despite advances in learnings that have shown that human reason is limited and that human free will does not transcend causality. The present AI is rational in the sense that it effectively performs a given task and autonomy in the sense that human intervention is minimized. However, this instrumental rationality and autonomy cannot be discussed in line with human reason and free will, which are the basis of legal personhood. Some views focus on attributes such as soul, mind, consciousness, or emotion. But the present AI does not have this property. However, if the development of technology leads to the emergence of so-called stong AI that is indistinguishable from humans in the future, the attribute-based approach may require the recognition of AI as legal person unless it does not take specism. A relationship-based approach attempts to judge whether something is recognized as a legal person by its relationship with other subjects rather than by its attributes. Looking back on history, some humans were not recognized as legal person. On the contrary, some non-humans were recognized as legal person. Juristic person such as corporation that plays a pivotal role in today’s legal system is one of those examples. In order to give legal personhood to non-human beings, social reality and legal convenience must be recognized. First of all, from the aspect of social reality, it is difficult to say that present AI is being accepted as a legal entity by existing legal entities. As long as social reality is not established, it’s impossible to grant legality regardless of legal convenience. In addition, legal recognition of AI is not legally convenient because it incurs risks and costs that outweigh some benefits, such as making it easy to establish liability. While proper attribution of liability is possible by other laws, there is a significant cost to make institutional foundation, the risk of shrinking innovation, and, above all, the profound impact on existing legal system. Therefore, the recognition of AI as legal person is premature at this point. Even though it’s hard to predict whether strong AI will be realized in the future, if such a day comes, it is necessary to be extremely cautious in assigning legal personhood to AI.