Earticle

현재 위치 Home

최신 기계번역 품질 예측 연구
Research on Recent Quality Estimation

첫 페이지 보기
  • 발행기관
    한국융합학회 바로가기
  • 간행물
    한국융합학회논문지 KCI 등재 바로가기
  • 통권
    제12권 제7호 (2021.07)바로가기
  • 페이지
    pp.37-44
  • 저자
    어수경, 박찬준, 문현석, 서재형, 임희석
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A397632

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
Quality estimation (QE) can evaluate the quality of machine translation output even for those who do not know the target language, and its high utilization highlights the need for QE. QE shared task is held every year at Conference on Machine Translation (WMT), and recently, researches applying Pretrained Language Model (PLM) are mainly being conducted. In this paper, we conduct a survey on the QE task and research trends, and we summarize the features of PLM. In addition, we used a multilingual BART model that has not yet been utilized and performed comparative analysis with the existing studies such as XLM, multilingual BERT, and XLM-RoBERTa. As a result of the experiment, we confirmed which PLM was most effective when applied to QE, and saw the possibility of applying the multilingual BART model to the QE task.
한국어
기계번역 품질 예측(Quality Estimation, QE)은 정답 문장(Reference sentence) 없이도 기계번역 결과의 질을 평가할 수 있으며, 활용도가 높다는 점에서 그 필요성이 대두되고 있다. Conference on machine translation(WMT)에서 매년 이와 관련한 shared task가 열리고 있고 최근에는 대용량 데이터 기반 Pretrained language model(PLM)을 적용한 연구들이 주로 진행되고 있다. 본 논문에서는 기계번역 품질 예측 task에 대한 설명 및 연구 동향에 대한 전반적인 survey를 진행했고, 최근 자주 활용되는 PLM의 특징들에 대해 정리하였다. 더불어 아직 활용된 바가 없는 multilingual BART 모델을 이용하여 기존 연구들인 XLM, multilingual BERT, XLM-RoBERTa와 의 비교 실험 및 분석을 진행하였다. 실험 결과 어떤 사전 학습된 다중언어 모델이 QE에 적용했을 때 가장 효과적인지 확인하였을 뿐 아니라 multilingual BART 모델의 QE 태스크 적용 가능성을 확인했다.

목차

요약
Abstract
1. 서론
2. 기계번역 품질 예측 역사
2.1 전통적인 기계번역 품질 예측 연구
2.2 WMT16부터 WMT19까지의 연구
2.3 WMT20 연구
3. 기계번역 품질 예측 Sub-Task 소개
3.1 Sentence-level direct assessment task
3.2 Word and sentence-level post-editing effort task
3.3 Document-level QE task
4. 최신 기계번역 품질 예측 모델
4.1 multilingual BERT
4.2 Cross-lingual language model(XLM)
4.3 multilingual BART
4.4 XLM-RoBERTa
5. 실험
5.1 데이터 및 모델
5.2 실험의 필요성
5.3 실험 결과
6. 결론
REFERENCES

키워드

기계번역 품질 예측 인공신경망 기계번역 딥러닝 언어 융합 자연언어처리 Quality Estimation Neural Machine Translation Deep Learning Language Convergence Natural Language Processing

저자

  • 어수경 [ Sugyeong Eo | 고려대학교 컴퓨터학과 석·박사통합과정 ]
  • 박찬준 [ Chanjun Park | 고려대학교 컴퓨터학과 석·박사통합과정 ]
  • 문현석 [ Hyeonseok Moon | 고려대학교 컴퓨터학과 석·박사통합과정 ]
  • 서재형 [ Jaehyung Seo | 고려대학교 컴퓨터학과 석·박사통합과정 ]
  • 임희석 [ Heuiseok Lim | 고려대학교 컴퓨터학과 교수 ] Corresponding author

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국융합학회 [Korea Convergence Society]
  • 설립연도
    2011
  • 분야
    복합학>학제간연구
  • 소개
    본회는 융합학문 및 융합기술을 교류를 통한 학문기술의 확대․발전․보급 및 기술개발 전략에 과학적으로 접근하여 융합학문 및 기술을 더욱 활성화하고, 회원 상호간의 정보 교류를 도모함으로써 지역과 나라발전에 기여함을 목적으로 한다.

간행물

  • 간행물명
    한국융합학회논문지 [Journal of the Korea Convergence Society]
  • 간기
    월간
  • pISSN
    2233-4890
  • 수록기간
    2010~2022
  • 십진분류
    KDC 530 DDC 620

이 권호 내 다른 논문 / 한국융합학회논문지 제12권 제7호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장