Recently, studies about bilingual word embedding have been gaining much attention. However, bilingual word embedding with Korean is not actively pursued due to the difficulty in obtaining a sizable, high quality corpus. Local embeddings that can be applied to specific domains are relatively rare. Additionally, multi-word vocabulary is problematic due to the lack of one-to-one word-level correspondence in translation pairs. In this paper, we crawl 868,163 paragraphs from a Korean-English law corpus and propose three mapping strategies for word embedding. These strategies address the aforementioned issues including multi-word translation and improve translation pair quality on paragraph-aligned data. We demonstrate a twofold increase in translation pair quality compared to the global bilingual word embedding baseline.
한국어
최근 이중 언어 임베딩(bilingual word embedding) 관련 연구들이 각광을 받고 있다. 그러나 한국어와 특정 언어로 구성된 병렬(parallel-aligned) 말뭉치로 이중 언어 워드 임베딩을 하는 연구는 질이 높은 많은 양의 말뭉치를 구하기 어려우 므로 활발히 이루어지지 않고 있다. 특히, 특정 영역에 사용할 수 있는 로컬 이중 언어 워드 임베딩(local bilingual word embedding)의 경우는 상대적으로 더 희소하다. 또한 이중 언어 워드 임베딩을 하는 경우 번역 쌍이 단어의 개수에서 일대일 대응을 이루지 못하는 경우가 많다. 본 논문에서는 로컬 워드 임베딩을 위해 한국어-영어로 구성된 한국 법률 단락 868,163 개를 크롤링(crawling)하여 임베딩을 하였고 3가지 연결 전략을 제안하였다. 본 전략은 앞서 언급한 불규칙적 대응 문제를 해결하고 단락 정렬 말뭉치에서 번역 쌍의 질을 향상시켰으며 베이스라인인 글로벌 워드 임베딩(global bilingual word embedding)과 비교하였을 때 2배의 성능을 확인하였다.
목차
요약 Abstract 1. 서론 2. 관련 연구 2.1 Word Embedding 2.2 교차 언어 임베딩(Cross-lingual embedding) 3. 이중 언어 워드 임베딩 모델 3.1 Random Match 3.2 Single Match Greedy Intersect 3.3 Multiple Match Greedy Intersect 4. 실험 4.1 Dataset 4.2 실험 방법 4.3 실험 결과 및 분석 5. 결론 및 향후 연구 REFERENCES
키워드
이중 언어 워드 임베딩자연어처리영역 특수적법률 영역단어집반지도 학습단락 정렬단어 유사도로컬 임베딩skip-gramBilingual word embeddingnatural language processingdomain-specificlaw domaindictionary seedsemi-supervised trainingparagraph-alignedword similarityskip-gramlocal embedding
저자
최순영 [ Soon-Young Choi | 고려대학교 컴퓨터학과 석사과정 ]
Andrew Stuart Matteson [ 고려대학교 컴퓨터학과 석사과정 ]
임희석 [ Heui-Seok Lim | 고려대학교 컴퓨터학과 교수 ]
Corresponding author