earticle

논문검색

인공지능 기반 화자 식별 기술의 불공정성 분석

원문정보

Analysis of unfairness of artificial intelligence-based speaker identification technology

신나연, 이진민, 노현, 이일구

초록

영어

Digitalization due to COVID-19 has rapidly developed artificial intelligence-based voice recognition technology. However, this technology causes unfair social problems, such as race and gender discrimination if datasets are biased against some groups, and degrades the reliability and security of artificial intelligence services. In this work, we compare and analyze accuracy-based unfairness in biased data environments using VGGNet (Visual Geometry Group Network), ResNet (Residual Neural Network), and MobileNet, which are representative CNN (Convolutional Neural Network) models of artificial intelligence. Experimental results show that ResNet34 showed the highest accuracy for women and men at 91% and 89.9% in Top1-accuracy, while ResNet18 showed the slightest accuracy difference between genders at 1.8%. The difference in accuracy between genders by model causes differences in service quality and unfair results between men and women when using the service.

한국어

Covid-19으로 인한 디지털화는 인공지능 기반의 음성인식 기술을 급속하게 발전시켰다. 그러나 이 기술은 데이터셋이 일부 집단에 편향될 경우 인종 및 성차별과 같은 불공정한 사회적 문제를 초래하고 인공지능 서비스의 신뢰성과 보안성 을 열화시키는 요인이 된다. 본 연구에서는 대표적인 인공지능의 CNN(Convolutional Neural Network) 모델인 VGGNet (Visual Geometry Group Network), ResNet(Residual neural Network), MobileNet을 활용한 편향된 데이터 환경에서 정 확도에 기반한 불공정성을 비교 및 분석한다. 실험 결과에 따르면 Top1-accuracy에서 ResNet34가 여성과 남성이 91%, 89.9%로 가장 높은 정확도를 보였고, 성별 간 정확도 차는 ResNet18이 1.8%로 가장 작았다. 모델별 성별 간의 정확도 차 이는 서비스 이용 시 남녀 간의 서비스 품질에 대한 차이와 불공정한 결과를 야기한다.

목차

요약
ABSTRACT
1. 서론
2. 배경기술 및 관련연구
3. 실험 결과와 분석
3.1 실험환경
3.2 실험결과
4. 결론
참고문헌

저자정보

  • 신나연 Shin Na Yeon. 성신여자대학교 미래융합기술공학과
  • 이진민 Lee Jin Min. 성신여자대학교 미래융합기술공학과
  • 노현 No Hyeon. 성신여자대학교 미래융합기술공학과
  • 이일구 Lee Il Gu. 성신여자대학교 미래융합기술공학과

참고문헌

자료제공 : 네이버학술정보

    ※ 기관로그인 시 무료 이용이 가능합니다.

    • 4,000원

    0개의 논문이 장바구니에 담겼습니다.