원문정보
초록
영어
Although Artificial Intelligence(AI) brings utility to human civilization, there is a risk of it being abused as a useful tool for various crimes. The recent rapid development of generative AI has caused controversy in various crimes such as the production and distribution of fake news, fraud, and sexual crimes. Europe has already enacted a law to regulate such AI, and Korea has also enacted the AI Framework Act in 2025, presenting standards for management of the AI industry. However, the effectiveness of the new Act 2025 is still questionable as it merely suggests a future direction rather than allowing the state to proactively prevent and actively regulate the risks of AI. The reason for this may be that it is difficult to clearly establish the nature of AI and that there were concerns that the development of related industries would be hindered. The AI Framework Act must be contained the following three things: Firstly, designation of prohibited AI, secondly, mandatory prior screening and certification of high-risk AI, and lastly, sanctions for breaches of duty by business operators should be strengthened. Rather, the current legislative trend is to create new punishment laws for each case, such as the regulation of deepfake pornography. There is concern that this method will lead to the enactment of punishment laws that lack theoretical review. Therefore, a theoretical review is required for detailed classification of high-risk AI, reasonable standards for duty of care under Product Liability Law, and distribution of responsibility among involved entities such as developers and manufacturers.
한국어
인공지능은 인류문명의 발전을 가져올 유용한 도구이기도 하지만, 다양한 범죄 의 도구가 되어 인간에게 위해가 될 수 있는 위험성이 있다. 이미 유럽은 인공지능 을 규제하기 위한 법적 근거를 마련하였고, 우리는 인공지능산업의 관리에 방점을 둔 2025년 인공지능기본법을 제정하였다. 그렇지만 동법은 인공지능의 위험을 사 전적으로 예방하여 적극적으로 규제하기보다는 관리의 방향을 제시하는 데 그쳤다 는 인상을 지우기 어렵다. 여기에는 인공지능의 표지를 명확하게 설정하기 어렵다 는 점과 관련 산업의 위축에 대한 입법자의 염려가 있었기 때문으로 사료된다. 제 정 인공지능기본법에는 인공지능을 위험도에 따라 4단계로 차등화하여 금지되는 인공지능을 지정하고, 고위험 인공지능의 사전 검·인증제도를 의무화하여야 한다. 그리고 의무위반에 대한 제재를 강화하여 건전한 인공지능산업의 발달을 도모할 필요가 있다. 오히려 현재의 입법동향은 딥페이크 음란물 규제처럼 개별적인 처벌법규를 규정하는 방식이다. 이를 통해 향후 인공지능의 통제를 예상하면 아직 이론 적 검토가 필요한 제조물책임법상 제조사의 포괄적 책임을 인정한다거나 과실범의 결과적가중범 형태의 처벌로 이어질 우려가 있다. 결과에 대한 구체적 타당성을 확 보하려는 처벌규정의 신설 이전에, 고위험 인공지능의 상세한 표지와 제조물책임 법상 주의의무의 합리적 기준, 그리고 개발자와 제조사 등 관여 주체들 간의 책임 분배를 위한 이론적 검토가 필요할 것이다.
목차
Ⅰ. 서론
Ⅱ. 인공지능 규제의 필요성
Ⅲ. 인공지능기본법에 의한 규제 가능성
Ⅳ. 인공지능의 형법적 통제방안 모색
Ⅴ. 맺음말
참고문헌
