earticle

논문검색

AI 기반 군사 작전의 의사결정 투명성 및 책임성 확보 프레임워크 연구

원문정보

A Study on the Framework for Ensuring Transparency and Accountability in AI-based Military Operations

성국일, 김지원

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

This study proposes a theoretical framework to systematically address the opacity of AI-based decision-making processes and the ambiguity of accountability in an environment where the military application of artificial intelligence (AI) is rapidly expanding. Although the adoption of AI technologies in the defense domain has accelerated, the black-box nature of deep learning–based algorithms limits commanders’ understanding of decision rationales and poses significant challenges to operational control and responsibility attribution. To address these challenges, this study analyzes the AI strategy of the North Atlantic Treaty Organization (NATO) and international norms related to Lethal Autonomous Weapon Systems (LAWS) to identify key requirements for transparency, accountability, and explainability in military operational contexts. Based on this analysis, an integrated framework is designed by combining explainable AI (XAI) with end-to-end traceability mechanisms, enabling meaningful human control (MHC) to function effectively within commanders’ decision-making processes. The proposed framework can serve as a reference model for enhancing decision-making reliability and accountability in AI-based command and decision support systems and manned–unmanned teaming operations. Furthermore, it provides practical implications for the design of military AI governance and the development of future defense policies.

한국어

본 논문은 인공지능(AI) 기술의 군사적 활용이 확대되는 환경에서, AI 기반 의사결정의 불투명성과 책임 소재의 모호성 문 제를 체계적으로 해소하기 위한 이론적 프레임워크를 제안한다. 최근 국방 분야에서 AI 적용이 가속화되고 있으나, 딥러닝 기 반 알고리즘의 블랙박스 특성은 지휘관의 판단 과정에 대한 이해를 제한하고, 작전 통제와 책임 귀속 측면에서 새로운 도전 과제를 야기하고 있다. 이에 본 연구는 북대서양조약기구(NATO)의 AI 전략과 자율형 무기체계(LAWS) 관련 국제 규범을 분 석하여, 군사 작전 환경에서 요구되는 투명성·책임성·설명성의 핵심 요소를 도출하였다. 이를 바탕으로 설명 가능한 AI(XAI) 와 전 과정 추적 가능성 메커니즘을 결합한 통합적 프레임워크를 설계하고, 지휘관의 결심 과정에서 유의미한 인간 통제 (MHC)가 실질적으로 작동할 수 있는 구조를 제시한다. 본 논문에서 제안한 프레임워크는 AI 기반 지휘결심 지원체계 및 유· 무인 복합전투체계 운용 시 지휘관의 의사결정 신뢰성과 책임성을 제도적으로 보완하는 기준으로 활용될 수 있으며, 향후 군 사 AI 거버넌스 설계와 정책 수립을 위한 참고 모델로 기여할 수 있다.

목차

요약
ABSTRACT
1. 서론
2. 이론적·정책적 배경
2.1 군사 AI 신뢰 확보를 위한 국제적 정책 원칙
2.2 국내외 국방 AI 정책 연구 및 동향의 한계
2.3 유의미한 인간 통제(MHC) 책임성 논의의이론적 한계
2.4 설명 가능한 AI(XAI)의 군사적 가능성과 제약
3. AI 기반 군사 작전 신뢰 확보 프레임워크
3.1 프레임워크의 구조적 설계
3.2 투명성 확보를 위한 기술적 구현 방안
3.3 책임성 보장을 위한 제도적 장치
3.4 설명 가능한 AI(XAI)의 군사적 인터페이스
4. 프레임워크 분석 및 군사적 효용성
4.1 국내외 유사 프레임워크와의 비교 분석
4.2 자동화 편향 방지 및 적정 신뢰 형성
4.3 인간-AI 팀워킹의 최적화 및 미래전 대응
5. 결론
참고문헌

저자정보

  • 성국일 Seong Kuk Il. 상지대학교 국가안보융학과 박사과정
  • 김지원 Kim Ji Won. 상지대학교 국가안보융학과 전임교수

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 4,000원

      0개의 논문이 장바구니에 담겼습니다.