earticle

논문검색

한국어 번역 교육을 위한 인공지능 기반 평가모델 연구 - 다중 자동평가지표 활용을 중심으로 -

원문정보

A Study on AI Models for Korean Translation Evaluation - Focusing on Multi-layered Automatic Evaluation Metrics (AEMs) -

임형재, 리번켈빈

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

Using Multi-layered Automatic Evaluation Metrics (AEMs) like AEM-L2, AEM-S1, and AEM-M1, this study develops a model to evaluate translation quality across form, syntax, and semantics. Its implementation offers valuable feedback for learners and professionals. It also suggests integrating Speech-to-Text and Text-to-Speech technologies to assess interpretation accuracy and naturalness. Future research will focus on more diverse, pragmatic evaluation metrics.

한국어

본고는 다중 자동평가지표(Multi-layered AEMs)를 활용한 번역 자동평 가 모델의 구축과 응용에 대한 실제 개발 과정을 담고 있다. 인공지능 모델 을 활용한 자동평가지표는 기계번역 시스템의 성능을 신속하고 객관적 으로 평가할 수 있는 도구로, 인간 평가보다 효율적이며 일관된 결과를 제공한다. 형태, 통사, 의미의 다양한 측면을 평가할 수 있는 지표들을 통 합하여 포괄적이고 신뢰성 있는 번역 평가 모델을 개발하였다. 이를 위해 ‘AEM-L2’, ‘AEM-S1’, ‘AEM-M1’ 지표를 활용하여 번역 품질을 다각적 으로 평가하고 개선할 수 있는 모델을 설계하였다. 또한, 번역 자동평가 모델 프로그램 개발 사례를 통해 실제 구현 가능성을 탐구하였으며, 번역 학습자와 전문가에게 유용한 피드백을 제공하였다. 더 나아가 통역 평가 에서도 STT(Speech to Text)와 TTS(Text to Speech) 기술을 도입하여 통역 의 정확성과 자연스러움을 평가하는 방법을 제안하였다. 이러한 모델은 번역 품질을 향상시키는 데 중요한 도구로 작용할 수 있으며, 자동평가와 인간 평가의 통합을 통해 더욱 정밀한 평가를 가능하게 한다. 향후 연구에 서는 기존 지표의 보완뿐 아니라 새로운 지표의 도입을 통해 평가의 포괄 성을 확대할 필요가 있다. 앞으로는 더 다양한 자동평가지표를 통합하고, 화용적 측면을 평가할 수 있는 지표 개발이 필요하다. 연구의 한계로는 구체적인 자동평가지표의 이름을 공개하지 않은 점과 화용적 평가 지표 의 부재가 있다. 본 연구는 번역 시스템 성능 향상과 번역 교육의 질을 높이 는 데 기여할 수 있을 것이다.

목차

Abstract
1. 서론
2. 자동평가지표와 자동평가 모델의 검토
2.1. 번역 텍스트에 대한 자동평가의 필요성
2.2. 자동평가지표에 대한 기존 연구
2.3. 번역 자동평가 모델 구축의 가능성과 원리
3. 번역 자동평가 모델의 구축
3.1. 자동평가지표의 검토와 선정
3.2. 자동평가지표의 활용과 적용
4. 다중 자동평가지표 모델화와 적용
4.1. 다중 자동평가지표의 통합과 모델화
4.2. 통번역 텍스트 평가에서의 응용 사례
5. 결론
참고문헌
국문초록

저자정보

  • 임형재 Lim HyungJae. 한국외대
  • 리번켈빈 Lee Bun Calvin. 한국외대

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.

      • 6,700원

      0개의 논문이 장바구니에 담겼습니다.