Earticle

현재 위치 Home

Robust Facial Expression Recognition in Occluded VR Environments : Leveraging Temporal Information for Enhanced Recognition
차폐된 VR 환경에서의 견고한 안면 표정 인식 : 인식 성능 향상을 위한 시계열 정보 활용

첫 페이지 보기
  • 발행기관
    한국디지털정책학회 바로가기
  • 간행물
    디지털정책학회지 KCI 등재후보 바로가기
  • 통권
    제4권 제3호 (2025.09)바로가기
  • 페이지
    pp.35-42
  • 저자
    Jun Yin, Myeon-Gyun Cho
  • 언어
    영어(ENG)
  • URL
    https://www.earticle.net/Article/A472883

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
Driven by VR’s rapid adoption and the need for natural interaction, this study tackles FER when head-mounted displays (HMDs) occlude key facial regions. We propose a multi-region fusion architecture that processes upper-face, lower-face, and full-face streams in parallel, enhanced by a temporal attention mechanism to emphasize crucial frames. On the DFEW dataset with synthetic occlusion, we benchmarked CNN-LSTM, C3D, Transformer, and our model. Ours achieves 81.2% accuracy at 12.3 FPS under occlusion—a 19.9-point gain over the best baseline—demonstrating robust, real-time FER and maintaining competitive inference speed. This confirms that combining spatial region processing with temporal dynamics yields effective emotion detection in immersive VR, offering practical solutions to enhance emotional communication and user experience across social VR, gaming, and remote collaboration.
한국어
VR의 빠른 보급과 사용자간 자연스러운 상호작용 필요에 따라, 본 연구는 HMD가 얼굴 주요 부위를 가리 는 환경에서 표정 인식(FER) 문제를 다룬다. 상·하·전체 얼굴 스트림을 병렬 처리하는 멀티-리전 퓨전 아키텍처와 시공간적 중요 프레임을 강조하는 시간 인지 어텐션 메커니즘을 제안했다. 합성 가림이 적용된 DFEW 데이터셋에 서 CNN-LSTM, C3D, Transformer 모델과 비교 평가한 결과, 제안 모델은 가림 환경에서 12.3 FPS에 81.2% 정확도를 달성해 최상위 기준 모델 대비 19.9%p 향상을 보이며 견고한 실시간 FER을 입증했다. 이 접근법은 공간 별 처리와 시퀀스 동적 결합이 몰입형 VR에서 효과적인 감정 인식을 가능하게 함을 확인하며, 소셜 VR, 게임, 원격 협업 등 다양한 애플리케이션에서 감정 소통과 사용자 경험을 개선할 실용적 솔루션을 제공한다.

목차

Abstract
요약
1. Introduction
2. Related Works
3. The Proposed Method
3.1 Multi-Region Fusion Architecture
3.2 Temporal Modeling with LSTM
3.3 Multi-Region Fusion Strategy
3.4 Loss Function
4. Experiments and Results
4.1 Experimental Setup and Validation Methods
4.2 Experimental Results Analysis
5. Discussion and Conclusion
REFERENCES

키워드

얼굴 표정 인식 가상현실 딥러닝 가림 처리 DFEW 데이터셋 Facial Expression Recognition Virtual Reality Deep Learning Occlusion Handling DFEW Dataset

저자

  • Jun Yin [ 윤준 | PhD. Student, Information Communication, Semuyung University ]
  • Myeon-Gyun Cho [ 조면균 | Professor, Division of Smart Information Technology, Semyung University ] Corresponding Author

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국디지털정책학회 [The Society of Digital Policy & Management]
  • 설립연도
    2003
  • 분야
    복합학>과학기술학
  • 소개
    디지털기술 및 산업정책, 디지털경제, 관련 산업의 연구, 전자정부, 디지털정치에 관한 제도적, 정책적 연구, 디지털경영, 전자상거래, e-비즈니스에 관한 실용적 연구, 학술연구지 발간 및 학술대회 개최 등을 통하여 디지털경제 및 디지털경영에 관련되는 국가정책 분야의 연구 및 교류를 촉진하고 국가 및 기업 정보화와 디지털산업의 발전에 공헌한다.

간행물

  • 간행물명
    디지털정책학회지
  • 간기
    월간
  • eISSN
    2951-245X
  • 수록기간
    2022~2026
  • 등재여부
    KCI 등재후보
  • 십진분류
    KDC 569 DDC 620

이 권호 내 다른 논문 / 디지털정책학회지 제4권 제3호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장