※ 기관로그인 시 무료 이용이 가능합니다.
※ 학술발표대회집, 워크숍 자료집 중 4페이지 이내 논문은 '요약'만 제공되는 경우가 있으니, 구매 전에 간행물명, 페이지 수 확인 부탁 드립니다.
3,000원
원문정보
초록
한국어
최근 다양한 분야(Domain)에서 기존의 지식 그래프를 기반으로 해당 분야에 최적화된 새로운 지식 체계를 구축하려는 시도가 활발하게 이루어지고 있다. 하지만 기존의 지식 그래프는 일반적인 개체의 일반적인 관계만을 표현하기 때문에 최근의 팬데믹(pandemic) 상황처럼 새로운 이슈에 대한 지식정보가 빈번하게 추가, 갱신되는 상황에서는 기존의 지식 그래프를 활용한 지식 체계의 정립이 거의 불가능하다는 한계를 갖는다. 이에 본 연구는 이러한 한계를 극복하기 위하여 정형화된 지식 체계를 활용하지 않고 특정 분야의 지식 체계를 구축하는 새로운 방안을 제안한다. 구체적으로는 COVID-19 관점의 개체 사전을 정의하고, BERT를 활용하여 COVID-19 관점의 새로운 사전 학습 모델인 Co-BERT를 구축한다. 이후 이렇게 구축된 Co-BERT 모델의 Self-Attention 가중치를 활용하여 COVID-19 관점의 지식그래프를 생성하는 방법을 제안한다. 본 제안 방법은 특정 도메인에 특화된 지식 그래프를 생성할 수 있는 방법으로, 향후 제안 방법론을 다양한 분야에 적용하여 특화된 지식 체계를 구축하는 연구에 활용할 수 있을 것이라 기대한다.
목차
Abstract Introduction Related Works Pre-Trained Language Model Proposed Method Conclusion References
키워드
Deep-LearningKnowledge GraphText AnalyticsPre-Trained Language ModelBERT