earticle

논문검색

고위험 인공지능의 안전과 신뢰 확보를 위한 글로벌 거버넌스에 관한 소고

원문정보

Global Governance for Ensuring Safety and Trustworthiness of HighRisk AI

조상헌, 이현정, 김민주, 김민규, 이수용, 황남조, 한주희, 김병규

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

This study is grounded in the critical recognition that as of the 2024–2025 period, the threats posed by high-risk artificial intelligence (AI) have transcended abstract discussion to become tangible realities-manifesting as legal liabilities and emerging security threats-thereby necessitating urgent governance frameworks to ensure safety and trustworthiness. Accordingly, this study aims to diagnose the limitations of current global governance and explore policy alternatives for securing interoperability by conducting a comparative analysis of the coexisting frameworks of the EU, the United States, the Republic of Korea, and the UN as of November 2025. To this end, this study analyzes the value hierarchies and regulatory mechanisms within key documents-including the EU AI Act, the U.S. America’s AI Action Plan and NIST AI RMF, South Korea’s Framework Act on AI, and UN resolutions from a comparative legal and policy perspective. The analysis reveals that each actor adopts a distinct governance model. The EU enforces strong legal controls centered on the protection of fundamental rights, whereas the United States emphasizes a deregulation approach focused on innovation and technological hegemony. The UN orients itself toward inclusive human rights norms, while South Korea adopts a hybrid model that seeks a compromise between industrial promotion and safety regulation. These divergences in normative approaches lead to inconsistencies in risk classification and control methods, thereby exacerbating the asymmetry of risks and benefits among nations and undermining the establishment of a global safety net. In conclusion, acknowledging the limitations of achieving a unified single legal framework, this study proposes securing “interoperability” based on a minimum norm of “human-centric safe control” as a key policy alternative. Specifically, it discusses the feasibility of constructing an effective global AI safety net through the establishment of cross-referable risk assessment criteria and the development of multilateral assurance mechanisms.

한국어

본 연구는 2024~2025년을 기점으로 고위험 인공지능(AI)의 위협이 법적 책임과 신종 안보 위협 등 현실적 문제로 부상함에 따라, 안전과 신뢰를 담보할 거버넌스 체계가 시급하 다는 문제의식에서 출발한다. 이에 2025년 11월 기준 병립하는 EU, 미국, 대한민국, UN의 프레임워크를 비교분석하여 글로벌 거버넌스의 한계를 진단하고 상호운용성 확보를 위한 정책적 대안을 모색하는 것을 목적으로 한다. 이를 위해 EU AI Act, 미국의 AI Action Plan 및 NIST AI RMF, 한국의 인공지능 기본법, UN 결의안 등 주요 문헌의 가치 위계와 규제 메커니즘을 비교 법·정책적으로 분석하였다. 분석 결과, 각 행위자는 상이한 거버넌스 모델 을 취하고 있다. EU는 기본권 보호를 위한 강력한 법적 통제를, 미국은 혁신과 기술 패권 중심의 탈규제 노선을 강조한다. UN은 포용적 인권 규범을 지향하며, 한국은 진흥과 안전 사이의 절충적 모델을 채택하고 있다. 이러한 규범적 접근의 차이는 위험 분류와 통제 방식 의 불일치를 야기하며, 국가 간 위험·이익의 비대칭성을 심화시켜 글로벌 안전망 구축을 저해하는 것으로 나타났다. 결론적으로 본 연구는 단일 법적 통일의 한계를 인정하고, ‘인 간 중심의 안전한 통제’를 최소 규범으로 하는 ‘상호운용성(Interoperability)’ 확보를 핵심 대안으로 제시한다. 특히 상호참조 가능한 위험 평가 기준 정립과 다자간 어슈어런스 메커 니즘 구축을 통해 실효적인 글로벌 AI 안전망 구성이 가능함을 논의한다.

목차

<요약>
Ⅰ. 서론
Ⅱ. 고위험 인공지능의 규범적 과제와 거버넌스 지형
Ⅲ. 고위험 AI 거버넌스의 핵심 쟁점 비교 분석
Ⅳ. 안전한 통제를 위한 글로벌 거버넌스 정책 제언
Ⅴ. 결론
참고문헌
Abstract

저자정보

  • 조상헌 Sang Hyun Cho. 방산안보학박사, 성균관대학교 AI 소요기획·사업관리 과정
  • 이현정 Hyun Jung Lee. 성균관대학교 AI 소요기획·사업관리 과정
  • 김민주 Min Ju Kim. 성균관대학교 AI 소요기획·사업관리 과정
  • 김민규 Min Gyu Kim. 성균관대학교 AI 소요기획·사업관리 과정
  • 이수용 Su Yong Lee. 성균관대학교 AI 소요기획·사업관리 과정
  • 황남조 Nam Jo Hwang. 성균관대학교 AI 소요기획·사업관리 과정
  • 한주희 Joo Hee Han. 방산안보학박사, 오션C&C 대표
  • 김병규 Byung Kyoo Kim. 성균관대학교 지도교수

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 7,600원

      0개의 논문이 장바구니에 담겼습니다.