Earticle

현재 위치 Home

LLM(Large Language Model) 속성과 성능 연관성 연구
A study on the Correlation Between LLM (Large Language Model) Properties and Performance

첫 페이지 보기
  • 발행기관
    한국EA학회 바로가기
  • 간행물
    정보화연구 KCI 등재 바로가기
  • 통권
    제20권 3호 (2023.09)바로가기
  • 페이지
    pp.257-266
  • 저자
    임철홍
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A436205

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
OpenAI's ChatGPT showed remarkable improvements over existing technologies, and active research and development and utilization of generative AI began. Advances in computing power have led to the use of large-scale artificial intelligence language models (LLMs). This study presents methods to evaluate performance when building an LLM and factors to be considered throughout the entire process of building an LLM to increase performance. It includes the entire process of building a model by learning from raw data and fine-tuning the created backbone model. We present how to improve performance from considering the quantity and quality of learning data, model and parameter size, learning frequency, and fine tuning. When it comes to the English dataset, there have been achievements in improving performance while reducing the model size, while in the case of Korean, it is essential to build and disseminate an open source model that is small but has excellent performance and can be used without restrictions for research and development and services.
한국어
OpenAI의 ChatGPT는 기존 기술보다 놀랍게 향상된 기능을 보여주었고 생성형 AI에 대한 활 발한 연구개발과 활용이 시작되었다. 컴퓨터 성능의 비약적인 발전으로 거대한 크기의 인공지능 언어 모델(LLM)을 활용하게 되었다. 본 연구는 LLM을 구축할 때 성능을 평가할 방법과 성능을 높이기 위 해 LLM의 구축 모든 과정에 걸쳐 고려해야 할 요인을 제시한다. 원시 데이터로부터 학습하여 backbone 모델을 만드는 것부터 만들어진 모델에 fine-tuning을 통해서 최종 모델을 구축하는 과정을 포함한다. 학습 데이터의 양과 품질, 모델 및 파라미터크기, 학습횟수 및 fine-tuning에 관련된 방안을 제시한다. 영문모델은 크기를 줄이면서 성능을 높이는 성과가 있는 반면에 한국어 모델은 작고 성능이 우수하면 서 연구개발과 서비스에 제한 없이 활용 가능한 오픈소스 모델의 구축과 보급이 필수적이다.

목차

요약
Abstract
1. 서론
2. 연구의 이론적 배경 및 연구 방법
2.1 이론적 배경
2.2 연구 방법
3. LLM 생성기술과 성능 결정요인
3.1 LLM 생성기술
3.2 LLM 생성과정에서 성능 결정요인
4. LLM 성능 평가 및 향상
4.1 성능 평가 방법
4.2 성능 향상 방안
5. 결론
REFERENCES

키워드

거대언어 모델 트랜스포머 셀프 어텐션 전이학습 large language model GPT LLaMA transformer Self-attention Transfer learning

저자

  • 임철홍 [ Chol-Hong Im | 광주대학교 컴퓨터공학과 조교수 ] Corresponding Author

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국EA학회 [한국엔터프라이즈아키텍처학회]
  • 설립연도
    2002
  • 분야
    복합학>과학기술학
  • 소개
    한국EA학회는 전사적 관점의 아키텍처 개념 및 원칙을 국내 민간기업 및 정부기관에 적용 확산시키고, EA 및 관련 분야의 연구, 전문인력의 양성 및 정책적 건의 등을 통해 기업 및 정부기관의 경쟁력 및 생산성을 향상시키고, 우리나라 지식 기반 산업 등의 고도화를 도모하는 것을 목적으로 합니다.

간행물

  • 간행물명
    정보화연구 [정보화연구(구 정보기술아키텍처연구)]
  • 간기
    계간
  • pISSN
    1738-382X
  • 수록기간
    2004~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 325 DDC 658

이 권호 내 다른 논문 / 정보화연구 제20권 3호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장