earticle

논문검색

문화 융합(CC)

실제 배우의 외형적 특성을 반영한 디지털 액터의 표정연기 개선 방법

원문정보

Methods to Enhance Facial Expression Acting of Digital Actors Reflecting Actual Physical Characteristics of Real-actors

나원희, 주지희, 김두범

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

The final purpose of this study is to find a method of projecting the characteristics and attractiveness of actual actor's facial expressions onto avatars based on facial capture technology to improve facial expressions of digital actors. Metaverse performances can create various situations without time and space constraints, providing new cultural experiences to the audience watching them. However, it is also true that in current metaverse performances, digital actors' facial expressions are partially vulnerable to conveying emotions. It also acts as one of the factors that interfere with the audience's immersion. One of the problems is that not all avatars have unique characteristics outwardly, so the lack of differentiation is also one of the problems. To overcome these limitations, we propose a method of modeling the actual actor's facial expressions with 3D scans to create a morph target and applying it to avatars using facial capture technology.

한국어

본 연구는 디지털 액터의 표정연기 개선을 위해 페이셜 캡처 기술을 기반으로 실제 배우 표정의 특징과 매력 을 아바타에 투영하는 방법을 모색하는 것에 최종 목적을 둔다. 메타버스 공연은 시공간의 제약 없이 다양하게 상황 을 연출 할 수 있어 이를 관람하는 관객에게 새로운 문화적 경험을 제공한다. 하지만 현재 메타버스 공연에서 디지털 액터의 표정연기는 감정을 전달하는 것에 일정 부분 취약한 것도 사실이다. 또한 이는 관객의 몰입을 방해하는 요인 중 하나로 작용한다. 모든 아바타가 외형적으로 고유한 특징을 지니지 못하여 차별성이 부족한 부분도 문제점 중 하 나이다. 이러한 한계점을 극복하기 위하여 실제 배우의 표정을 3D 스캔으로 모델링하여 모프타겟을 제작하고, 페이셜 캡처 기술을 활용하여 아바타에 적용하는 방법을 제안한다.

목차

요약
Abstract
Ⅰ. 서론
Ⅱ. 이론적 개괄
1. 디지털 액터와 디지털 휴먼
2. 디지털 액터의 연기: 디지털 액팅
3. 페이셜 캡처 (facial Capture): 마커리스 페이셜캡처
4. 모프타겟(Morph Tarket): 표정 변화의 구현
Ⅲ. 표정연기 개선을 위한 모프타겟제작 및 적용
Ⅳ. 결론
References

저자정보

  • 나원희 Won-Hee Na. 서경대학교 공연예술학과 석사과정 연구원
  • 주지희 Ji-Hyi Ju. 서경대학교 공연예술학부 부교수
  • 김두범 Du-Beom Kim. 서경대학교 공연예술학부 부교수

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.

      0개의 논문이 장바구니에 담겼습니다.