원문정보
Comparison of Korean Facial Expression Classification Performance between Deep Learning Based Image Filters
초록
영어
In this paper, we use a method of extracting facial features by applying edge detection filters to images, rather than a method of classifying conventional facial expressions using facial landmarks. Among the Convolution Neural Network (CNN) structures used for image classification of artificial neural networks, we intend to use the commonly used ResNet and Visual Geometry Group (VGG). It uses 60,000 Korean face data provided by AI Hub and classifies facial expressions. The four expressions that classify are sad, happy, angry, and neutral. The edge detection filter uses a Laplacian filter, a Sobel filter and a Scharr filter, and a Canny edge detection filter. After that, we propose a system that learns preprocessing images from the model, identifies the filter with the highest prediction accuracy for each expression in the test data, and finally combines the results of classifying fine expressions to grasp human psychology.
한국어
본 논문에서는 얼굴 랜드마크를 사용하는 기존의 표정을 분류하는 방법이 아닌 이미지에 가장자리 검출 필터를 적용하여 얼굴 특징을 추출하는 방법을 사용한다. 인공 신경망의 이미지 분류에 사용되는 Convolution Neural Network (CNN) 구조 중 일반적으로 사용되는 Residual Learning Network (ResNet)와 Visual Geometry Group (VGG)를 사용하고자 한다. AI Hub에서 제공하는 한국인 얼굴 데이터 6만 장을 사용하며, 표정을 분류한 다. 분류하는 네 가지 표정은 슬픔, 행복, 분노, 그리고 무표정이다. 가장자리 검출 필터는 라플라시안 필터, 소벨 필터 및 샤르 필터, 캐니 가장자리 검출 필터를 사용한다. 그 후, 전처리 된 이미지를 모델에 학습하고, 테스트 데 이터에서 각 표정별 예측 정확도가 가장 높은 필터를 확인하고, 최종적으로 미세표정을 분류한 결과를 조합해 인 간의 심리를 파악하는 시스템을 제안하고자 한다.
목차
Abstract
Ⅰ. 서론
Ⅱ. 관련 연구
Ⅲ. 데이터 수집 및 전처리
Ⅴ. 실험 결과
Ⅵ. 결론 및 향후 계획
REFERENCES