Earticle

현재 위치 Home

데이터 품질 기반 학습을 통한 멀티모달 감정 분류 성능 향상 연구
Enhancing Multimodal Emotion Classification Performance through Data Quality-Aware Learning

첫 페이지 보기
  • 발행기관
    한국융합학회 바로가기
  • 간행물
    미래기술융합논문지 KCI 등재후보 바로가기
  • 통권
    제4권 제4호 (2025.08)바로가기
  • 페이지
    pp.167-172
  • 저자
    황재민, 김봉현
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A471462

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
This study proposes a multimodal deep learning-based emotion recognition model that integrates speech and text data, and introduces a quality-aware learning framework to enhance classification performance by incorporating data quality into the training process. Speech signals are processed through the extraction of various acoustic features such as MFCC, Chroma, Pitch, and Formant, and modeled using a CNN-BiLSTM architecture. Text data are vectorized using pre-trained BERT embeddings to capture emotional semantics. The two modalities are fused using an intermediate fusion approach, and Cleanlab-based quality scores are included as additional input features to mitigate overfitting caused by variations in data quality. Experiments were conducted on a Korean emotional speech dataset comprising 510,000 utterances. The proposed model achieved an accuracy of 74.0% on the test set, with both macro and weighted average F1-scores reaching 0.74. Analysis of the confusion matrix suggests that similarities in emotional expression and variations in data quality influenced classification results.
한국어
본 연구는 음성 및 텍스트 데이터를 통합한 멀티모달 딥러닝 기반 감정 인식 모델을 설계하고, 학습 데이터의 품질을 반영한 Quality-aware 학습 구조를 제안함으로써 감정 분류 성능의 향상을 도모하였다. 음성 신호는 MFCC, Chroma, Pitch, Formant 등 다양한 음향 특징을 추출하고 CNN-BiLSTM 구조로 처리하였으며, 텍스트는 사전학습된 BERT 임베딩을 통해 정서적 의미를 벡터화하였다. 두 모달리티는 Intermediate Fusion 방식으로 융합되며, Cleanlab 기반의 품질 점수를 입력 feature에 추가하여 데이터 품질 편차에 따른 과적합 문제를 완화하고자 하였다. 총 51만 개의 한국어 감정 발화 데이터를 활용한 실험 결과, 제안한 모델은 테스트 데이터셋에서 정확도 74.0%, macro 및 weighted 평균 F1-score 0.74를 기록하였다. 혼동 행렬 분석 결과는 감정 간 표현 유사성과 데이터 품질의 영향을 시사하였다.

목차

요약
Abstract
1. 서론
1.1 연구 배경 및 필요성
1.2 연구 목적
2. 이론적 배경
2.1 감정 인식의 개요
2.2 음성 기반 감정 분석
2.3 텍스트 기반 감정 분석
2.4 멀티모달 감정 인식
2.5 선행 연구
3. 감정 분석 모델 설계 및 구현
3.1 감정 인식의 개요
3.2 음성 특징 처리 구조
3.3 텍스트 임베딩 처리 구조
3.4 멀티모달 융합 및 분류 구조
4. 실험 결과 및 분석
4.1 실험 환경 및 설정
4.2 학습 및 검증 결과
4.3 테스트 결과 및 분석
5. 결론
REFERENCES

키워드

감정 인식 멀티모달 학습 음성 감정 분석 텍스트 임베딩 Cleanlab Emotion Recognition Multimodal Learning Speech Emotion Analysis Text Embedding Cleanlab

저자

  • 황재민 [ Jae-Min Hwang | 서원대학교 정보통신공학 석사과정 ]
  • 김봉현 [ Bong-Hyun Kim | 서원대학교 컴퓨터공학과 교수 ] Corresponding Author

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국융합학회 [Korea Convergence Society]
  • 설립연도
    2011
  • 분야
    복합학>학제간연구
  • 소개
    본회는 융합학문 및 융합기술을 교류를 통한 학문기술의 확대․발전․보급 및 기술개발 전략에 과학적으로 접근하여 융합학문 및 기술을 더욱 활성화하고, 회원 상호간의 정보 교류를 도모함으로써 지역과 나라발전에 기여함을 목적으로 한다.

간행물

  • 간행물명
    미래기술융합논문지
  • 간기
    격월간
  • eISSN
    2951-2468
  • 수록기간
    2022~2026
  • 등재여부
    KCI 등재후보
  • 십진분류
    KDC 530 DDC 620

이 권호 내 다른 논문 / 미래기술융합논문지 제4권 제4호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장