원문정보
피인용수 : 0건 (자료제공 : 네이버학술정보)
초록
한국어
여러 산업 분야에서 다양한 성공 사례가 쏟아지면서, 인공 지능을 이용한 사회 대변혁의 기대감이 커지고 있으며, 인공 지능을 배제한 산업과 미래를 생각할 수 없는 정도에 이르렀 다. 그러나 이러한 장밋빛 전망에도 불구하고 인공지능의 전 면적인 적용이 우려스러운 점은 인공지능이 편향적인 판단을 하는 사례가 지속적으로 보고된다는 점이다. 특히 이러한 인 공지능의 편향성이 단순히 일회성 해프닝이 아니고, 인공지능 시스템을 개발하는데 필연적으로 발생하는 구조적인 문제로 밝혀지면서, 편향성을 피하기 어렵다는 비관적인 전망들이 나 오고 있다. 이는 인공지능 시스템의 구성에는 설계자인 인간 의 편향부터 학습데이터에 녹아있는 편향, 그리고 학습과정의 편향까지 다양한 편향이 존재할 수 있기 때문이다. 본 고에서 는 이러한 인공지능의 편향성의 사례와 원인을 분석하고, 이 의 측정 방안과 최소화하기 위한 방법에 대해 살펴본다. 또한 ISO/IEC에서의 인공지능 편향과 관련된 표준화 동향에 대해 알아보고 향후 발전 방향에 대해 논의한다.
목차
Abstract
Ⅰ. 서론
Ⅱ. 인공지능의 편향성 고찰
(1) 인간의 인지 편향(Human Cognitive Bias)
(2) 데이터 편향 (Data Bias)
(3) 기계학습모델 편향 (Machine Learning Model Architecture Bias)
Ⅲ. 인공지능의 편향성 측정 및 표준화
(1) 링크드인 LiFT
(2) 리눅스 재단 AI Fairness 360
Ⅳ. 결론
References
Ⅰ. 서론
Ⅱ. 인공지능의 편향성 고찰
(1) 인간의 인지 편향(Human Cognitive Bias)
(2) 데이터 편향 (Data Bias)
(3) 기계학습모델 편향 (Machine Learning Model Architecture Bias)
Ⅲ. 인공지능의 편향성 측정 및 표준화
(1) 링크드인 LiFT
(2) 리눅스 재단 AI Fairness 360
Ⅳ. 결론
References
저자정보
참고문헌
자료제공 : 네이버학술정보
