earticle

논문검색

인터넷방통융합

트랜스포머 기반 효율적인 자연어 처리 방안 연구

원문정보

A Study on Efficient Natural Language Processing Method based on Transformer

임승철, 윤성구

피인용수 : 0(자료제공 : 네이버학술정보)

초록

영어

The natural language processing models used in current artificial intelligence are huge, causing various difficulties in processing and analyzing data in real time. In order to solve these difficulties, we proposed a method to improve the efficiency of processing by using less memory and checked the performance of the proposed model. The technique applied in this paper to evaluate the performance of the proposed model is to divide the large corpus by adjusting the number of attention heads and embedding size of the BERT[1] model to be small, and the results are calculated by averaging the output values of each forward. In this process, a random offset was assigned to the sentences at every epoch to provide diversity in the input data. The model was then fine-tuned for classification. We found that the split processing model was about 12% less accurate than the unsplit model, but the number of parameters in the model was reduced by 56%.

한국어

현재의 인공지능에서 사용되는 자연어 처리 모델은 거대하여 실시간으로 데이터를 처리하고 분석하는 것은 여러 가지 어려움들을 야기하고 있다. 이런 어려움을 해결하기 위한 방법으로 메모리를 적게 사용해 처리의 효율성을 개선하 는 방법을 제안하고 제안된 모델의 성능을 확인하였다. 본 논문에서 제안한 모델의 성능평가를 위해 적용한 기법은 BERT[1] 모델의 어텐션 헤드 개수와 임베딩 크기를 작게 조절해 큰 말뭉치를 나눠서 분할 처리 후 출력값의 평균을 통해 결과를 산출하였다. 이 과정에서 입력 데이터의 다양성을 주기위해 매 에폭마다 임의의 오프셋을 문장에 부여하였 다. 그리고 모델을 분류가 가능하도록 미세 조정하였다. 말뭉치를 분할 처리한 모델은 그렇지 않은 모델 대비 정확도가 12% 정도 낮았으나, 모델의 파라미터 개수는 56% 정도 절감되는 것을 확인하였다.

목차

요약
Abstract
Ⅰ. 서론
1. 트랜스포머[4] 기반 자연어 처리 모델의 크기
2. 메모리 효율적인 처리방법
Ⅱ. 관련 연구
Ⅲ. 제안한 모델 구조
Ⅳ. 제안한 모델 학습 방법
1. 학습환경
2. 사전 훈련
3. 미세 조정
Ⅴ. 학습 결과
ⅤI. 결론
References

저자정보

  • 임승철 Seung-Cheol Lim. 정회원, 우송대학교 IT융합학부
  • 윤성구 Sung-Gu Youn. 정회원, 우송대학교 IT융합학부

참고문헌

자료제공 : 네이버학술정보

    함께 이용한 논문

      ※ 기관로그인 시 무료 이용이 가능합니다.
      ※ 학술발표대회집, 워크숍 자료집 중 4페이지 이내 논문은 '요약'만 제공되는 경우가 있으니, 구매 전에 간행물명, 페이지 수 확인 부탁 드립니다.

      • 4,000원

      0개의 논문이 장바구니에 담겼습니다.