초록 열기/닫기 버튼

본 연구 목적은 인공지능 기술의 위험관리와 과학기술 정책이 인공지능 활용 불안감을 감소시키는지 실증적으로 연구하는 것이다. 연구 방법은 인공지능 기술 위험관리, 과학기술 정책, 인공지능 활용 불안감 등변수들을 구조방정식 모델로 설정하였다. 연구 결과를 살펴보면, 인공지능 위험 관리 변수로서 기술평가, 기술공유, 기술관리 등 세 가지 변수가 과학기술 정책에 영향력을 제공하였다. 이중 인공지능 기술평가와기술관리는 모니터링 정책 및 시민참여 정책에 긍정적 영향을 제공하였다. 그러나 인공지능 기술공유는과학기술 모니터링 정책에 부정적 영향을 제공하였다. 이는 인공지능 기술공유가 모니터링 정책 활동을정형화하고 체계화하는데 갈등을 유발시키는 것으로 판단할 수 있다. 한편, 과학기술 모니터링 정책은 인공지능 활용 불안감을 감소시키는데 영향력이 없었으며, 시민참여 정책 활동만 인공지능 활용 불안감을 감소시키는데 효과를 보여주었다. 이에 본 연구에서는 시민 단체가 인공지능 불안감을 줄일 수 있는 과학정책 참여자로서 강력히 필요하다고 주장한다. 마지막으로 본 연구가 인공지능 기술 관리와 사회과학 정책의 방향성을제시하였다.


Purpose: We empirically investigate an application anxiety decrease by a risk management of artificial intelligence(AI) technology and a science policy. Methods: The research model of structural equation has organized variables by risk management of AI technology, science policy activity and AI application anxiety. Results: A technology evaluation and a technology management in the risk management of AI technology provided positive effects on policy activity of monitoring and civic group. However, a technology sharing in the risk management of AI technology has been shown a negative impact on the monitoring policy. This will lead to conflicts in the formalization and systematization of the monitoring policy. The monitoring policy has been shown no effect on the AI application anxiety, but the civic group activities shown the anxiety reduction. Conclusion: An intensive activity of the civic group in the science policy can decrease the AI application anxiety. Finally, This paper suggests a direction of AI technology in the social and science policy.