원문정보
피인용수 : 0건 (자료제공 : 네이버학술정보)
초록
한국어
최근 다양한 분야(Domain)에서 기존의 지식 그래프를 기반으로 해당 분야에 최적화된 새로운 지식 체계를 구축하려는 시도가 활발하게 이루어지고 있다. 하지만 기존의 지식 그래프는 일반적인 개체의 일반적인 관계만을 표현하기 때문에 최근의 팬데믹(pandemic) 상황처럼 새로운 이슈에 대한 지식정보가 빈번하게 추가, 갱신되는 상황에서는 기존의 지식 그래프를 활용한 지식 체계의 정립이 거의 불가능하다는 한계를 갖는다. 이에 본 연구는 이러한 한계를 극복하기 위하여 정형화된 지식 체계를 활용하지 않고 특정 분야의 지식 체계를 구축하는 새로운 방안을 제안한다. 구체적으로는 COVID-19 관점의 개체 사전을 정의하고, BERT를 활용하여 COVID-19 관점의 새로운 사전 학습 모델인 Co-BERT를 구축한다. 이후 이렇게 구축된 Co-BERT 모델의 Self-Attention 가중치를 활용하여 COVID-19 관점의 지식그래프를 생성하는 방법을 제안한다. 본 제안 방법은 특정 도메인에 특화된 지식 그래프를 생성할 수 있는 방법으로, 향후 제안 방법론을 다양한 분야에 적용하여 특화된 지식 체계를 구축하는 연구에 활용할 수 있을 것이라 기대한다.
목차
Abstract
Introduction
Related Works
Pre-Trained Language Model
Proposed Method
Conclusion
References
Introduction
Related Works
Pre-Trained Language Model
Proposed Method
Conclusion
References
저자정보
참고문헌
자료제공 : 네이버학술정보
