원문정보
A Study on Effective Emotion Expression of Metaverse Avatars through Bio-signal Analysis - Focused on Facial Expression and Gesture
초록
영어
Communication spaces are moving from social networks to metaverse virtual spaces. Metaverse users express their emotions to their counterparts through motions of various body sites based on avatars, which are nonverbal communications. Such nonverbal body motions make it possible to express emotions through avatars' actions and situations, so that they play key roles in communication. The purpose of this study is to find an effective method of expressing emotions based on the results of bio-signal experiments when expressing and delivering emotions through the human-like 3D avatar of the metaverse and presenting them to virtual character creators. The viewer's bio-signal data according to the expression factors were analyzed by deriving three types of emotional expression types according to the avatar's movement: facial expression, gesture and gesture with facial expression. As a result of the study, the average of GSR(galvanic skin response) value of facial expression type was high and the gaze was fixed for longer in the facial expression part. Through the result of immersion and likability, it was found that viewers' attention lingered more on facial expressions rather than gesture, and the sympathetic nervous system was activated. It was observed that viewers read information through facial expressions. Character creation focusing on face expression of human-like 3D avatar would help effective emotion expression and delivery. This study is expected to prepare the academic foundation for emotion expression and communication of avatars with face expression and motion, and to extend to the studies on communication of various platform avatars and characters.
한국어
소통의 공간은 소셜 네트워크에서 메타버스의 가상공간으로 이동하고 있다. 메타버스의 가상공간에서는 아바타를 통해 비언 어적 커뮤니케이션인 다양한 신체부위의 움직임을 통해 상대방에게 감정을 표현하고 있다. 이러한 비언어적인 신체 움직임은 아바타의 행동과 상황에 따른 감정 표현을 전달함으로써 의사소통에서 중요한 요소로 작용한다. 본 연구의 목적은 메타버스 의 인간형 3D 아바타를 통해 감정을 표현하고 전달할 때 생체 신호 실험 결과를 바탕으로 효과적인 감정 표현 방법을 찾아 가상 캐릭터 제작자에게 제시하고자 한다. 감정 표현 유형을 아바타의 신체 움직임에 따라 표정, 동작, 표정과 동작의 3가지 로 도출하여 표현 요인에 따른 시청자의 생체 신호 데이터를 분석하였다. 시선 추적과 피부 전기 반응을 통하여 몰입도를 알 아보았으며, 동공의 반응을 통해 호감도를 알아보았다. 연구 결과, 표정 유형의 GSR 평균값이 높았으며 얼굴 영역에 시선이 더 오래 고정되었다. 호감도의 차이를 동공의 지름 크기 변화를 통해 알아본 결과 얼굴 영역에서 동공의 지름 크기가 확장되 었음을 알 수 있었다. 몰입도와 호감도를 알아본 결과 동작보다는 표정에 시선이 머물고 교감신경이 활성화되었으며 시청자 들은 표정을 통해 정보를 읽는다는 것을 알 수 있었다. 인간형 3D 아바타는 표정에 중점을 두고 제작하면 효과적인 감정 표 현과 감정 전달에 도움이 될 것이다. 본 연구를 통해 표정과 동작으로 표현하는 인간형 3D 아바타의 감정 표현 및 의사소통 의 학술적 토대를 마련하고 다양한 플랫폼들의 아바타와 캐릭터 의사소통에 관한 연구로 확장하고자 한다.
목차
국문초록
1. 서론
1.1 연구 배경 및 목적
2. 이론적 배경
2.1. 비언어적 감정 표현의 유형
2.2. 메타버스 아바타의 비언어적 감정 표현
2.3. 생체 신호 연구 방법
3. 연구방법
3.1. 연구가설
3.2. 실험 설계 및 실험 측정
3.3. 분석방법
4. 연구결과
4.1. 아바타의 감정 표현 유형에 따른 몰입도 분석
4.2. 동공의 크기 측정 호감도 결과 분석
5. 결론
참고문헌