earticle

논문검색

<경영컨설팅 사례⋅방법론>

자율주행차량 환경에서 XR HUD와 입력 방식이 사용자 경험에 미치는 영향 : 사용성·상황인식·작업성과의 실증적 분석

원문정보

Examining the Effects of XR HUD and Input Modalities on User Experience in Autonomous Vehicles : Usability, Situation Awareness, and Task Performance

한정수

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

This study empirically examined the effects of user interface (UI) type (XR HUD vs. 2D display) and input modality (gaze+voice vs. touch) on user experience in autonomous vehicles. The purpose of the study was to verify the effectiveness of XR-based interfaces from a multidimensional perspective and to derive academic and industrial implications for next-generation UI design. A total of 40 participants aged 20–40 years were recruited, and a 2×2 factorial design (two-way ANOVA) was applied to measure usability, situation awareness, and task performance. The results indicated that the XR HUD condition significantly outperformed the 2D display across all measures, while the gaze+voice input modality showed higher efficiency and accuracy compared to touch input. Notably, the combination of XR HUD and gaze+voice input yielded the highest usability, situation awareness, and optimal task performance. These findings empirically demonstrate that XR HUD combined with multimodal input can serve as the optimal configuration for autonomous vehicle UI, highlighting its potential as a core technology that simultaneously ensures safety, immersion, and convenience. Furthermore, this study extends beyond the limitations of prior research focused only on safety or immersion by providing an integrated verification of holistic user experience. In addition, the results align with ongoing industrial efforts by global companies such as Tesla, Audi Holoride, and Volvo, thereby offering empirical evidence to inform future discussions on UI design and standardization in autonomous vehicles.

한국어

본 연구는 자율주행차량 환경에서 사용자 인터페이스(UI) 유형(XR HUD vs. 2D 디스플레이)과 입력 방식(시선+음성 vs. 터치)이 사용자 경험에 미치는 영향을 실증적으로 분석하였다. 연구의 목적은 자율주행차량 내 확장현실(Extended Reality, XR) 기반 인터페이스의 효과를 다 차원적 관점에서 검증하고, 차세대 UI 설계에 필요한 학문적·산업적 시사점을 도출하는 데 있다. 이를 위해 40명의 참가자를 대상으로 2×2 요 인설계(two-way ANOVA)를 적용하여 사용성(Usability), 상황인식(Situation Awareness), 작업성과(Task Performance)을 측정하였다. 분석 결과, XR HUD는 2D 디스플레이보다 모든 지표에서 유의하게 우수한 성과를 보였으며, 시선+음성 입력 또한 터치 입력보다 높은 효율성과 정 확성을 나타냈다. 특히 XR HUD와 시선+음성 입력의 결합 조건에서 가장 높은 사용성과 상황인식, 그리고 최적의 작업성과가 보고되었다. 이 러한 결과는 XR HUD와 멀티모달 입력이 자율주행차 UI의 최적 조합으로 기능할 수 있음을 실증적으로 보여주며, 자율주행차의 안전성, 몰입 성, 편리성을 동시에 보장하는 핵심 기술로서의 가능성을 제시한다 할 수 있다. 또한 본 연구는 기존 연구가 안전성 또는 몰입성에 국한되었던 한계를 넘어 총체적 사용자 경험을 통합적으로 검증했다는 점에서 학문적 의의를 갖는다. 이밖에도 Tesla, Audi Holoride, Volvo 등 글로벌 기업들의 산업적 시도와 일치하는 실증적 근거를 제공함으로써 향후 자율주행차 UI 설계 및 표준화 논의에 기여할 수 있을 것이다 사료되는 바이다.

목차

요약
I. 서론
II. 이론적 배경
1. 자율주행차량의 발전과 생활화
2. 차량 내 사용자 인터페이스(UI)와 사용자 경험(UX)
3. 확장현실(XR) 기반 UI 연구
4. 입력 방식(Input Modalities) 연구 동향
5. 사용자 경험 평가 요인
6. 기존 연구의 한계와 본 연구의 차별성
III. 연구 방법
1. 연구 설계
2. 연구대상 및 실험 환경
3. 실험 절차 및 측정도구
4. 자료 분석 방법
IV. 연구결과
4.1 사용성(Usability) 분석 결과
4.2 상황인식(Situation Awareness) 분석 결과
4.3 작업성과(Task Performance)
4.4 종합 해석
V. 결론 및 제언
참고문헌
Abstract

저자정보

  • 한정수 Han, Jung-Soo. 백석대학교 컴퓨터공학부 교수

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 4,200원

      0개의 논문이 장바구니에 담겼습니다.