원문정보
A Qualitative Case Study on Human-AI Collaboration in Data Processing within Qualitative Research
초록
영어
This study explores the impact of Generative AI on qualitative research processes by analyzing the human–AI collaborative experiences of six researchers who employed AI in real research projects. Recently, large language models such as ChatGPT have been used across various stages of qualitative analysis—including data summarization, transcription, initial coding, theme generation, and writing support—substantially reshaping work practices, interpretive practices, and professional identities. Data were collected through multiple rounds of semi-structured in-depth interviews, reenactments of AI-use episodes, document analysis, and researcher reflexive journals. Braun and Clarke’s reflexive thematic analysis was applied. The findings indicate that while Generative AI significantly enhanced efficiency in repetitive tasks, it simultaneously produced a paradoxical structure in which researchers bear heightened responsibility for verifying and supervising AI outputs. Participants also reported experiencing ambivalence —both dependence on and distrust of AI—along with cognitive and emotional tensions arising from the redistribution of interpretive authority. AI sometimes disrupted researchers’ voices and identities in writing and interpretation, and its linguistic and cultural biases created structural disadvantages for non-English-speaking researchers. By examining human–AI collaboration not merely from a technological standpoint but through interpretive, ethical, and identity-based perspectives, this study offers new insights for qualitative methodology and research ethics.
한국어
최근 ChatGPT 등 대규모 언어모델은 자료 요약, 전사, 초기 코딩, 주제 도출, 글쓰기 보조 등 질적 분석 전 단계에 활용되고 있으며, 연구자의 분석, 해석, 위치 성 변화에 중대한 영향을 미치고 있다. 이런 맥락에서 본 연구의 목적은 질적연구 과정에서 연구자의 생성형 인공지능 활용 경험을 탐색하는 데 있다. 이를 위해 질적연구 프로젝트에서 AI 활용 경험이 있는 연구자 6인의 인간-AI 협업 경험을 질적 사례연구로 분석하였다. 자료수집은 반구조화 심층 인터뷰를 통해 진행되었 으며, 문서자료와 연구자 성찰일지도 포함하였다. 자료 분석은 Braun과 Clarke의 반성적 주제분석을 적용하였다. 사례 내 분석 및 사례 간 분석 결과, 생성형 AI는 반복적 과업에서 연구 효율성을 크게 향상시켰으나, AI 출력의 검증 및 감독의 책임은 연구자에게 강화되었다. 또한 연구자들은 AI에 대한 의존과 불신의 양가성 을 경험하며, 해석 권력의 재편에 따른 인지적·정서적 긴장을 보고하였다. AI는 글쓰기 및 해석 과정에서 연구자의 해석과 위치성을 흔들기도 하였고, 언어·문화 적 편향은 비영어권 연구자에게 구조적 불리함을 초래하였다. 본 연구는 인간-AI 협업을 기술 중심이 아닌 해석, 윤리, 위치성의 관점에서 조명함으로써, 질적연구 방법론과 연구윤리 논의에 새로운 통찰을 제공한다.
목차
Ⅰ. 서론
Ⅱ. 이론적 배경
1. AI 등장과 질적연구 패러다임 전환
2. 인간-AI 협업에서 인간연구자 위치성
Ⅲ. 연구방법
1. 연구개요
2. 연구참여자
3. 자료수집 및 분석
4. 연구윤리 및 신뢰성 확보
Ⅳ. 연구결과
1. 사례 내 분석
2. 사례 간 분석
Ⅴ. 결론
References
Abstract
