Earticle

현재 위치 Home

Artistic character generation technique using a controllable diffusion model
디퓨전 모델 기반의 조건 제어가 가능한 예술적 캐릭터 생성 기법

첫 페이지 보기
  • 발행기관
    한국컴퓨터게임학회 바로가기
  • 간행물
    컴퓨터게임및콘텐츠논문지(구 한국컴퓨터게임학회논문지) KCI 등재 바로가기
  • 통권
    제36권 제3호 (2023.09)바로가기
  • 페이지
    pp.11-17
  • 저자
    Hyemin YANG, Heekyung YANG, Kyungha MIN
  • 언어
    영어(ENG)
  • URL
    https://www.earticle.net/Article/A436725

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
With the recent advent of Metaverse, the character industry that reflects the characteristics of users' faces is drawing attention. there is a hassle that users have to select face components such as eyes, nose, and mouth one by one. In this paper, we propose a diffusion-based model that automatically generates characters from content human photographs. Our model generates user artistic characters by reflecting content information such as face angle, direction, and shape of a content human photo. In particular, our model automatically analyzes detailed information such as glasses and whiskers from content photo images and reflects them in artistic characters generated. Our network generates the final character through a three-step: diffusion process, UNet, and denoising processes. We use image encoders and CLIP encoders for the connection between style and input data. In the diffusion process, a collection of noise vectors is gradually added to a style vector to enable lossless learning of the detailed styles. All input values except for the style images are vectorized with CLIP encoders and then learned with noise style vectors in the UNet. Subsequently, noise is removed from the vectors through the UNet to obtain the artistic character image. We demonstrate our performance by comparing the results of other models with our results. Our method reflects content information without loss and generates natural high-definition characters.
한국어
본 논문에서는 인물 사진에서 자동으로 캐릭터를 생성하는 diffusion 기반 모델을 제안한다. 우리의 네트워크는 세 단계 diffusion process, UNet, denoising 과정을 거쳐 최종 캐릭터를 생성한다. diffusion process에서는 세부 스타일까지 손실 없이 학습하게 하기 위해 스타일 벡터에 노이즈를 점진적으로 추가한 노이즈 벡터 집합을 만든다. 스타일 이미지를 제외한 모든 입력 값은 CLIP 인코더로 벡터로 만든 뒤, 앞서 생성한 노이즈 스타일 벡터와 UNet에서 학습하게 된다. 우리는 세부 조건을 조정하기 위해 CLIP 인코더를 사용한다. 그 후 UNet을 통한 벡터의 노이즈를 제거해 최종적인 캐릭터 이미지를 얻는다

목차

ABSTRACT
1. Introduction
1.1 Related Resarch
2. Body
2.1 OverView
2.2 Methode
3. Conclusion
3.1 Conclusion
3.2 compare
Reference
<국문초록>
<결론 및 향후 연구>

키워드

Automatic character generation Diffusion model CLIP UNet

저자

  • Hyemin YANG [ 양혜민 | Dept. of Computer Science, Sangmyung Univ. ]
  • Heekyung YANG [ 양희경 | Dept. of Software, Sangmyung Univ. ] Corresponding author
  • Kyungha MIN [ 민경하 | Dept. of Computer Science, Sangmyung Univ. ] Corresponding Author

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국컴퓨터게임학회 [Korean Society for Computer Game]
  • 설립연도
    2002
  • 분야
    공학>컴퓨터학
  • 소개
    1. 게임산업을 활성화 하고, 2. 게임기술과 기술 인력을 양산할 수 있도록 교육기관의 교과과정을 개발하고, 3. 관련기술에 대한 연구발표회, 강연회, 강습회 등을 개최하며, 4. 학회지, 논문지 및 관련 문헌을 발간하고, 5. 게임 기술 개발을 위한 국제화, 표준화 등을 지원하고, 6. 산.학.연.관이 협동할 수 있는 국제적 학술교류 및 협력을 지원하고, 7. 회원 상호간의 공동 이익과 친목을 증진시킨다.

간행물

  • 간행물명
    컴퓨터게임및콘텐츠논문지(구 한국컴퓨터게임학회논문지) [Journal of Computer Games and Contents]
  • 간기
    월간
  • pISSN
    3091-7409
  • eISSN
    3092-3638
  • 수록기간
    2002~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 691 DDC 793

이 권호 내 다른 논문 / 컴퓨터게임및콘텐츠논문지(구 한국컴퓨터게임학회논문지) 제36권 제3호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장