초록 열기/닫기 버튼

본 연구의 목적은 한국 농인들이 한국수어 단어를 처리할 때 한국수어 정보처리 양상을 탐색해보고, 사람의 수어와 아바타의 수어를 처리하는 과정에서 차이가 있는가를 알아보는 것이다. 이를 위해 사람의 수어 영상은 녹화본을 사용하였고, 아바타의 수어 영상은 마야(MAYA) 및 유니티(Unity) 소프트웨어를 통해 제작하였다. 본 실험에 사용된 수어 자극은 각각 단어 50개, 비단어 50개로 이루어졌다. 실험에 참여한 농인 42명은 수어 영상을 보고 단어인지 비단어인지 최대한 빠르고 정확하게 판단해야 하는 수어 어휘판단과제를 실시하였다. 실험 결과 농인들은 아바타의 수어보다 사람의 수어에 더 짧은 반응시간을 보였다. 또한, 농인들은 수어를 구사하는 주체에 따라 서로 다른 반응기준을 가지고 응답하였는데, 사람의 수어 조건에서는 모험 편향을 나타내었으나 아바타의 수어 조건에서는 보수 편향을 나타내었다. 이러한 결과는 농인들이 아바타가 구사하는 수어보다 사람이 구사하는 수어를 볼 때 더 정확하고 빠르게 어휘성을 판단함을 나타내며, 농인들이 아바타가 구사하는 수어를 처리할 때 인지적인 부담을 느낌을 시사한다.


The purpose of this study is to investigate how deaf signers of Korean Sign Language (KSL) process KSL words and whether there are differences in processing between human-generated sign language and avatar-generated sign language. To compare the two processes, human sign videos were created by recording a sign language interpreter expressing KSL words, while avatar sign videos were created with the Maya and the Unity software. The sign language stimuli used in the experiment consisted of 50 words and 50 nonwords. Forty-two deaf signers took part in a sign language lexical decision task, where they were asked to watch sign language videos and determine whether the stimuli were words or nonwords as fast and accurately as they can. The results showed that the signers responded more quickly to human sign videos than to avatar sign videos. Furthermore, the participants responded with different criteria depending on the conditions: they showed a liberal bias in the human sign condition, while they exhibited a more conservative bias in the avatar sign condition. These findings indicate that the singers were able to process information from human sign videos more accurately and rapidly than the same information from avatar sign videos. Additionally, our results support that signers tend to experience cognitive burden when processing words signed by an avatar.