원문정보
초록
영어
This study proposes a theoretical framework to systematically address the opacity of AI-based decision-making processes and the ambiguity of accountability in an environment where the military application of artificial intelligence (AI) is rapidly expanding. Although the adoption of AI technologies in the defense domain has accelerated, the black-box nature of deep learning–based algorithms limits commanders’ understanding of decision rationales and poses significant challenges to operational control and responsibility attribution. To address these challenges, this study analyzes the AI strategy of the North Atlantic Treaty Organization (NATO) and international norms related to Lethal Autonomous Weapon Systems (LAWS) to identify key requirements for transparency, accountability, and explainability in military operational contexts. Based on this analysis, an integrated framework is designed by combining explainable AI (XAI) with end-to-end traceability mechanisms, enabling meaningful human control (MHC) to function effectively within commanders’ decision-making processes. The proposed framework can serve as a reference model for enhancing decision-making reliability and accountability in AI-based command and decision support systems and manned–unmanned teaming operations. Furthermore, it provides practical implications for the design of military AI governance and the development of future defense policies.
한국어
본 논문은 인공지능(AI) 기술의 군사적 활용이 확대되는 환경에서, AI 기반 의사결정의 불투명성과 책임 소재의 모호성 문 제를 체계적으로 해소하기 위한 이론적 프레임워크를 제안한다. 최근 국방 분야에서 AI 적용이 가속화되고 있으나, 딥러닝 기 반 알고리즘의 블랙박스 특성은 지휘관의 판단 과정에 대한 이해를 제한하고, 작전 통제와 책임 귀속 측면에서 새로운 도전 과제를 야기하고 있다. 이에 본 연구는 북대서양조약기구(NATO)의 AI 전략과 자율형 무기체계(LAWS) 관련 국제 규범을 분 석하여, 군사 작전 환경에서 요구되는 투명성·책임성·설명성의 핵심 요소를 도출하였다. 이를 바탕으로 설명 가능한 AI(XAI) 와 전 과정 추적 가능성 메커니즘을 결합한 통합적 프레임워크를 설계하고, 지휘관의 결심 과정에서 유의미한 인간 통제 (MHC)가 실질적으로 작동할 수 있는 구조를 제시한다. 본 논문에서 제안한 프레임워크는 AI 기반 지휘결심 지원체계 및 유· 무인 복합전투체계 운용 시 지휘관의 의사결정 신뢰성과 책임성을 제도적으로 보완하는 기준으로 활용될 수 있으며, 향후 군 사 AI 거버넌스 설계와 정책 수립을 위한 참고 모델로 기여할 수 있다.
목차
ABSTRACT
1. 서론
2. 이론적·정책적 배경
2.1 군사 AI 신뢰 확보를 위한 국제적 정책 원칙
2.2 국내외 국방 AI 정책 연구 및 동향의 한계
2.3 유의미한 인간 통제(MHC) 책임성 논의의이론적 한계
2.4 설명 가능한 AI(XAI)의 군사적 가능성과 제약
3. AI 기반 군사 작전 신뢰 확보 프레임워크
3.1 프레임워크의 구조적 설계
3.2 투명성 확보를 위한 기술적 구현 방안
3.3 책임성 보장을 위한 제도적 장치
3.4 설명 가능한 AI(XAI)의 군사적 인터페이스
4. 프레임워크 분석 및 군사적 효용성
4.1 국내외 유사 프레임워크와의 비교 분석
4.2 자동화 편향 방지 및 적정 신뢰 형성
4.3 인간-AI 팀워킹의 최적화 및 미래전 대응
5. 결론
참고문헌
