earticle

논문검색

인공지능(AI)을 악용한 비군사적 안보 위협 대응방안에 관한 연구

원문정보

A Study on the Response to Non-Military Security Threats Using Artificial Intelligence(AI)

정강모, 정주호

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

Artificial intelligence(AI) technology is attracting attention as a key strategic technology for continuous social development and securing competitiveness in new industries, but it can pose various threats in terms of national security (non-military fields) due to the finiteness and inaccuracy of learning data. For example, sophisticated fake videos with deepfake technology can lead to national confusion, regardless of peacetime and wartime, and Generative AI such as ChatGPT can continuously inject misinformation into emotionally vulnerable people and affect their value judgment. In addition, fake news made with AI technology is being used to manipulate elections, the flower of democracy, and is being exploited for cyber attacks such as producing malicious codes that are difficult to detect in the existing way. To prevent the possibility of such national security threat, the EU has established the world's first AI regulation law that divides the risk of AI into four grades, the United States has mandated federal government notices when companies develop AI systems that can pose a security threat, and China has specified that Generative AI services reflect the core values of socialism. Accordingly, Korea should specify cases of national security violations caused by AI in the process of enacting the "Basic Act on Artificial Intelligence" and regulate them not to damage the core values of liberal democracy by introducing a certification system. In addition, it is necessary to establish a public-private cooperation system to respond to cyber psychological warfare that abuses AI, and to develop and share a system for determining the authenticity of deepfake by national security agencies.

한국어

인공지능(AI) 기술은 사회의 지속적인 발전과 신산업 분야 경쟁우위 확보를 위한 핵심 전략기술로 주목받고 있지만, 그 기반이 되는 학습 데이터의 유한성·부정확성 등으로 인 해 국가안보(비군사적 분야) 측면에서 다양한 위협이 될 수 있다. 예를 들면, 딥페이크 기술이 적용된 정교한 가짜 영상이 평·전시를 막론하고 국가 혼란 을 가져올 수 있으며, ChatGPT와 같은 생성형 AI가 정서적으로 취약한 사람에게 잘못된 정보를 지속적으로 주입시켜 그 가치 판단에 영향을 끼칠 수도 있다. 또한, AI 기술로 만들 어진 가짜 뉴스가 민주주의의 꽃인 선거 조작에 활용되고, 기존 방식으로 탐지하기 어려운 악성코드 제작 등 사이버 공격에 악용되고 있다. 이러한 국가안보 침해 가능성을 방지하기 위해 EU는 AI의 위험성을 4등급으로 구분하 는 세계 최초의 AI 규제법을 마련하였고, 미국은 안보에 위협이 될 수 있는 AI 시스템을 개발하는 경우에 연방정부 고지를 의무화하는 한편, 중국은 생성형 AI 서비스에 사회주의 핵심가치를 반영하도록 명시하였다. 이에, 우리나라도 ‘인공지능 기본법’ 제정 과정에서 AI로 인한 국가안보 침해 사례를 명시하고, 인증제 도입 등을 통해 자유민주주의 핵심 가치를 훼손하지 못하도록 규제하여 야 한다. 또한, AI를 악용한 사이버 심리전에 맞대응하기 위한 민관 협력체계를 구축하고, 국가안보 유관기관이 딥페이크 진위 판별을 위한 시스템을 개발·공유할 필요가 있다.

목차

[ 국문초록 ]
Ⅰ. 서론
Ⅱ. AI 기술의 위험 및 한계
Ⅲ. AI 기술의 ‘비군사적 안보’ 분야 위협 사례
Ⅳ. 해외 주요국의 AI 규제 동향
Ⅴ. 대응 방안 및 결론
참고문헌
【Abstract】

저자정보

  • 정강모 Jeong, Kang Mo. 가천대학교 경찰안보학과 박사과정
  • 정주호 Jeong, Ju Ho. 가천대학교 경찰안보학과 교수

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      0개의 논문이 장바구니에 담겼습니다.