원문정보
Global Governance for Ensuring Safety and Trustworthiness of HighRisk AI
초록
영어
This study is grounded in the critical recognition that as of the 2024–2025 period, the threats posed by high-risk artificial intelligence (AI) have transcended abstract discussion to become tangible realities-manifesting as legal liabilities and emerging security threats-thereby necessitating urgent governance frameworks to ensure safety and trustworthiness. Accordingly, this study aims to diagnose the limitations of current global governance and explore policy alternatives for securing interoperability by conducting a comparative analysis of the coexisting frameworks of the EU, the United States, the Republic of Korea, and the UN as of November 2025. To this end, this study analyzes the value hierarchies and regulatory mechanisms within key documents-including the EU AI Act, the U.S. America’s AI Action Plan and NIST AI RMF, South Korea’s Framework Act on AI, and UN resolutions from a comparative legal and policy perspective. The analysis reveals that each actor adopts a distinct governance model. The EU enforces strong legal controls centered on the protection of fundamental rights, whereas the United States emphasizes a deregulation approach focused on innovation and technological hegemony. The UN orients itself toward inclusive human rights norms, while South Korea adopts a hybrid model that seeks a compromise between industrial promotion and safety regulation. These divergences in normative approaches lead to inconsistencies in risk classification and control methods, thereby exacerbating the asymmetry of risks and benefits among nations and undermining the establishment of a global safety net. In conclusion, acknowledging the limitations of achieving a unified single legal framework, this study proposes securing “interoperability” based on a minimum norm of “human-centric safe control” as a key policy alternative. Specifically, it discusses the feasibility of constructing an effective global AI safety net through the establishment of cross-referable risk assessment criteria and the development of multilateral assurance mechanisms.
한국어
본 연구는 2024~2025년을 기점으로 고위험 인공지능(AI)의 위협이 법적 책임과 신종 안보 위협 등 현실적 문제로 부상함에 따라, 안전과 신뢰를 담보할 거버넌스 체계가 시급하 다는 문제의식에서 출발한다. 이에 2025년 11월 기준 병립하는 EU, 미국, 대한민국, UN의 프레임워크를 비교분석하여 글로벌 거버넌스의 한계를 진단하고 상호운용성 확보를 위한 정책적 대안을 모색하는 것을 목적으로 한다. 이를 위해 EU AI Act, 미국의 AI Action Plan 및 NIST AI RMF, 한국의 인공지능 기본법, UN 결의안 등 주요 문헌의 가치 위계와 규제 메커니즘을 비교 법·정책적으로 분석하였다. 분석 결과, 각 행위자는 상이한 거버넌스 모델 을 취하고 있다. EU는 기본권 보호를 위한 강력한 법적 통제를, 미국은 혁신과 기술 패권 중심의 탈규제 노선을 강조한다. UN은 포용적 인권 규범을 지향하며, 한국은 진흥과 안전 사이의 절충적 모델을 채택하고 있다. 이러한 규범적 접근의 차이는 위험 분류와 통제 방식 의 불일치를 야기하며, 국가 간 위험·이익의 비대칭성을 심화시켜 글로벌 안전망 구축을 저해하는 것으로 나타났다. 결론적으로 본 연구는 단일 법적 통일의 한계를 인정하고, ‘인 간 중심의 안전한 통제’를 최소 규범으로 하는 ‘상호운용성(Interoperability)’ 확보를 핵심 대안으로 제시한다. 특히 상호참조 가능한 위험 평가 기준 정립과 다자간 어슈어런스 메커 니즘 구축을 통해 실효적인 글로벌 AI 안전망 구성이 가능함을 논의한다.
목차
Ⅰ. 서론
Ⅱ. 고위험 인공지능의 규범적 과제와 거버넌스 지형
Ⅲ. 고위험 AI 거버넌스의 핵심 쟁점 비교 분석
Ⅳ. 안전한 통제를 위한 글로벌 거버넌스 정책 제언
Ⅴ. 결론
참고문헌
Abstract
