원문정보
초록
영어
With the rapid advancement of AI technology, the attribution of criminal liability for legal interests infringement caused by AI has emerged as a critical issue. The purpose of this study is to systematically analyze criminal liability for AI-related crimes from the perspective of 'human actors' and propose effective countermeasures. An examination of AI's legal status reveals that AI cannot be a subject of criminal acts and lacks the ontological foundation to possess the subjective elements of intent required under criminal law. Although there have been arguments for granting AI 'electronic personhood' to fill the accountability gap, such attempts were explicitly rejected during the EU AI Act legislative process, establishing the human-centered responsibility principle that views AI as a 'highly intelligent tool' and 'object of regulation' as an international norm. In analyzing the subjective liability of human actors who use AI as a tool, this study presents new interpretative directions by refuting existing critical views. Regarding user liability, while some argue that intent is difficult to establish due to AI's 'black box' characteristics, this overlooks that the essence of dolus eventualis lies not in 'result prediction' but in 'conscious risk acceptance.' Rather, AI's unpredictability can serve as strong circumstantial evidence of dolus eventualis, indicating that users committed crimes while aware of such risks. Concerning developer liability, contrary to arguments that it should be limited to civil product liability, this study demonstrates that specific safety obligations imposed on high-risk AI developers by regulations such as the EU AI Act can serve as clear grounds for criminal 'professional duty of care.' Rational solutions for AI-related crimes do not lie in creating AI as a new legal subject or mechanically applying existing liability models. The true solution must be found in more precisely applying traditional criminal law principles for determining human actors' intent and negligence, while fully considering the special characteristics of AI as a tool. This means that criminal law should not avoid or compromise with technological advancement, but rather respond by deepening and developing existing principles. Specific criminal policy measures are proposed, divided into interpretative and legislative tasks. As interpretative tasks, the study suggests actively evaluating technological uncertainty as circumstantial evidence of risk acceptance in determining AI users' dolus eventualis, and using safety obligations required by international norms as concrete criteria for judging 'professional negligence' for high-risk AI developers. As a legislative task, this study compares the regulations on high-risk (or high-impact) AI in the EU AI Act and Korea's AI Framework Act, proposing to utilize these safety obligations as a basis for determining the duty of care in a criminal context. Furthermore, it points out the limitations of current laws concerning 'AI voice phishing' and 'financial market manipulation' and presents specific legal amendments that clarify the tool-like nature of AI and strengthen the liability of human agents.
한국어
AI 기술의 급속한 발전과 함께 AI가 야기하는 법익침해 문제에 대한 형사책임 귀속 방안이 중요한 쟁점으로 대두되고 있다. 본 연구의 목적은 AI 관련 범죄에 대 한 형사책임을 ‘인간 행위자’ 관점에서 체계적으로 분석하고 실효적인 대응방안을 제시하는 것이다. AI의 법적 지위 검토 결과, AI는 형사법적으로 행위의 주체가 될 수 없고 고의의 주관적 요소를 가질 존재론적 기반도 없다. 비록 책임의 공백을 메 우기 위해 AI에 ‘전자적 인격’을 부여하자는 반론이 제기되기도 했으나, 이러한 시 도는 EU의 「AI 법」 입법 과정에서 명백히 기각되고 AI를 ‘고도로 지능화된 도구’ 이자 규제의 ‘객체’로 보는 인간 중심적 책임 원칙이 국제적 규범으로 자리 잡았 다. AI라는 도구를 사용하는 인간 행위자의 주관적 책임 분석에서는 기존의 비판 적 견해들에 대한 반박을 통해 새로운 해석 방향을 제시하였다. 사용자의 책임과 관련하여, AI의 ‘블랙박스’ 특성으로 인해 고의를 인정하기 어렵다는 반론이 존재 하지만, 미필적 고의의 본질이 ‘결 예측’이 아닌 ‘의식적인 위험 인수’에 있음을 고 려할 때, AI의 예측 불가능성은 오히려 사용자가 그 위험을 알면서도 범죄를 감행 했다는 미필적 고의의 강력한 정황이 될 수 있다. 또한 개발자의 책임에 대해서는 민사상 제조물 책임으로 한정해야 한다는 주장과 달리, EU AI 법이 고위험 AI 개 발자에게 부과하는 구체적인 안전의무가 형사상 ‘업무상 주의의무’'의 명확한 근거 가 될 수 있음을 논증하였다. AI 관련 범죄에 대한 합리적 해결책은 AI를 새로운 법적 주체로 창조하거나 기존 책임 모델을 기계적으로 적용하는 방식에 있지 않다. 진정한 해결책은 AI라는 도구가 지닌 특수성을 충분히 고려하되, 인간 행위자의 고의와 과실을 판단하는 전통적 형법 원리를 더욱 정밀하게 적용하는 데서 찾아야 한다. 이는 기술 발전에 형법이 회피하거나 타협하는 것이 아니라, 기존 원리를 심 화·발전시켜 대응해야 함을 의미한다. 구체적인 형사정책적 방안으로는 해석론적 과제와 입법론적 과제로 구분하여 제안하였다. 해석론적 과제로서 AI 이용자의 미 필적 고의 판단에 있어 기술의 불확실성을 위험 인수의 정황으로 적극 평가하고, 고위험 AI 개발자에게는 국제 규범에서 요구하는 안전의무를 근거로 ‘업무상 과 실’의 구체적 판단 기준으로 삼을 것을 제안하였다. 입법론적 과제로서 EU 「AI 법」과 우리나라 「인공지능기본법」상 고위험(고영향) AI 규제를 비교 분석하고, 이 를 바탕으로 개발자의 안전의무를 형사상 주의의무 판단의 근거로 활용할 것을 제 안하였다. 나아가 ‘AI 보이스피싱’과 ‘금융시장 교란 행위’를 중심으로 현행법의 한계를 지적하고, AI의 도구적 성격을 명시하여 인간 행위자의 책임을 강화하는 구체적인 법률 개정안을 제시하였다.
목차
Ⅰ. 들어가는 말
Ⅱ. AI의 형사법적 지위
Ⅲ. AI의 도구성과 인간의 행위 주체성
Ⅳ. AI 관련 범죄의 해석론적·입법론적 개선방안
Ⅴ. 나가는 말
참고문헌
