초록 열기/닫기 버튼

최근 몇 년 동안 우리 사회를 관통하는 키워드는 4차 산업혁명이다. 4차 산업혁명을 여러 가지로 표현할 수 있지만 가장 중요한 키워드는 “연결”이며, 이러한 연결이라는 관점에서 핵심적인 현상은 인공지능의 발달이다. 4차 산업혁명 그리고 인공지능의 파급력은 우리가 생각하는 정도 이상으로 사회 각 학문분과에서 이에 대응하는 논의가 진행되고 있으며 형사법 역시 예외가 아니다. 특히 형법은 인공지능에 대한 범죄주체성을 인정할 것인가를 시작해서 인공지능에 대한 형벌이 가능할 것인가에 대해 치열한 논쟁이 지속되고 있다. 인공지능의 발달에 따라 의도하든 의도하지 않든 법익 침해는 현실화될 수 있다. 사용자ㆍ개발자가 의도적으로 인공지능을 범죄에 활용하는 경우 인공지능은 인간의 도구로 전락한다. 문제는 사용자ㆍ개발자가 의도하지 않았지만 인공지능의 지적 활동 또는 소스코드상의 오류로 법익 침해가 이루어지는 경우를 어떻게 형법적으로 취급할 것인가에 대한 문제이다. 다만 이에 대해 고민하기 위한 전제는 인공지능 기술은 완성형이 아니라는 점이다. 즉, 인공지능에 의한 비의도적 법익 침해가 발생한 경우 이를 근거로 인간을 처벌하는 것은 개발에 대한 위축효과를 초래하여, 사회적 효용성이 명확한 인공지능 기술의 퇴보를 초래할 수 있기 때문이다. 따라서 본 연구는 인공지능에 의한 인적 요소가 배제된 상태에서 법익 침해가 발생한 경우 형법이 어떻게 대응해야 할 것인가를 검토한다. 이를 위해 인공지능에 대응하는 형사법의 현황을 우선 살펴본다. 여기서는 인공지능의 특정한 작동이 형법의 적용범위인 행위에 포섭될 것인가 그리고 만약 포섭된다면 그러한 특정한 작동을 초래한 인공지능에게 범죄 주체성을 인정할 것인가를 먼저 검토할 것이다. 이를 통해 인공지능의 특정 작동은 형법의 대상이 될 수 있으며, 여기서 더 나아가 만약 인공지능에 의한 법익 침해가 있다면 이는 범죄로 볼 여지가 있음을 확인한다. 다만 여기서 인공지능의 작용은 인적 요소가 배제된 비의도적 침해만을 상정하기로 한다. 인공지능이 인적 요소에 의해 법익을 침해하는 것은 인간의 도구와 동일한 의미를 가지기 때문이다. 하지만, 현재 진행형인 인공지능 기술의 발달은 이러한 형법의 개입에 의해 위축효과가 발생해 사회적 효용성이 분명한 인공지능 기술의 발달이 저해될 수 있기 때문에, 형법의 보충성과 위축효과와의 관계를 고려해 행정절차 이후에 보충적으로 형법이 개입되어야 함을 주장했으며, 이러한 행정절차의 실효성 보장을 위해 주무관청에 의한 시정조치와 시정조치 미이행에 따른 형사처벌의 이원화를 제시하였다.


The keyword that has penetrated our society in recent years is the Fourth Industrial Revolution. Although the Fourth Industrial Revolution can be described in many ways, the most important keyword is "connection" and the key phenomenon in terms of this connection is the development of artificial intelligence. The 4th Industrial Revolution and the ripple effect of artificial intelligence are being discussed in each academic division of society more than we think, and criminal law is no exception. In particular, criminal law has begun to recognize criminal identity for artificial intelligence, and fierce debate continues over whether it will be possible to punish artificial intelligence. With the development of artificial intelligence, infringement of the law, whether intended or not, can become a reality. If users and developers intentionally use artificial intelligence for crimes, artificial intelligence becomes a human tool. The problem is how to deal with criminal violations of the law when users and developers do not intend to do so, but there is an intellectual activity of artificial intelligence or errors in source code. However, the premise to think about this is that artificial intelligence technology is not complete. In other words, if unintentional infringement of the law by artificial intelligence occurs, punishing humans based on it can cause a shrinking effect on development, leading to the regression of artificial intelligence technology with clear social utility. Therefore, this study examines how criminal law should respond in the event of a violation of the law with human factors by artificial intelligence excluded. To this end, we will first look at the current state of criminal law in response to artificial intelligence. Here, we will first examine whether certain operations of artificial intelligence will be included in actions that are within the scope of criminal law and, if so, criminal identity will be recognized to the artificial intelligence that caused those specific operations. Through this, the specific operation of artificial intelligence can be subject to criminal law, and furthermore, if there is an infringement of the law by artificial intelligence, it is confirmed that there is room for crime. However, the action of artificial intelligence here is to postulate only unintentional infringement without human factors. Artificial intelligence violates the law by human factors because it has the same meaning as human tools. However, the ongoing development of artificial intelligence technology suggested that criminal law should be supplemented after administrative procedures to ensure the effectiveness of these procedures.