Earticle

현재 위치 Home

의료 이미지 분류기에 대한 반사실 설명 생성기 안정화를 위한 분류기 인코더 공유 프레임워크
Classifier Encoder Sharing Framework for Stabilizing Counterfactual Explanation Generators for Medical Image Classifiers

첫 페이지 보기
  • 발행기관
    한국차세대컴퓨팅학회 바로가기
  • 간행물
    한국차세대컴퓨팅학회 논문지 KCI 등재 바로가기
  • 통권
    Vol.22 No.1 (2026.02)바로가기
  • 페이지
    pp.21-31
  • 저자
    이동현, 정민영
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A480828

원문정보

초록

영어
While Deep Learning models show high accuracy in medical image diagnosis, their 'black box' nature limits clinical adoption, making eXplainable AI (XAI) essential. Among XAI methods, Counterfactual Explanations offer intuitive interpretations, but existing generative approaches suffer from training instability and architecture-dependency. This instability and dependency hinder the application of explainers to various modern classifiers and reduce their reliability. To address this, this paper proposes a novel counterfactual generation framework that shares the classifier's encoder with the discriminator's encoder. This architecture stabilizes GAN training by forcing the discriminator to assess realism within the classifier's semantic feature space, rather than at the pixel level, thus ensuring generalization. Experiments on the CheXpert (Chest X-ray) dataset demonstrate that the proposed framework significantly improves training stability and achieves high validity and realism (FID) across various classifiers, including ResNet, ResNeXt, DenseNet, and ConvNeXt.
한국어
딥러닝 기반 의료 영상 진단 모델의 신뢰성을 확보하기 위해 설명 가능한 AI 기술이 필수적으로 요구되고 있다. 다 양한 XAI 방법 중, 반사실적 설명은 직관적인 해석을 제공하지만, 기존 생성 모델 기반 방법론은 학습이 불안정하 고 특정 아키텍처에 의존하는 문제를 가진다. 이러한 불안정성과 의존성은 다양한 최신 분류기 모델에 대한 설명 생 성기의 적용을 어렵게 하고 신뢰성을 저해한다. 이 문제를 해결하기 위해, 본 연구는 분류기의 인코더를 판별기의 인 코더와 공유하는 새로운 반사실 설명 생성 프레임워크를 제안한다. 이 구조는 판별기가 픽셀 레벨이 아닌 분류기의 의 미론적 특징 공간 내에서 현실성을 판별하도록 유도하여, GAN 학습을 안정화시키고 일반화 성능을 확보한다. 흉부 X-ray(CheXpert) 데이터셋을 이용한 실험에서, 제안 프레임워크가 ResNet, ResneXt, DenseNet, ConvNeXt 등 다양한 분류기에서 학습 안정성을 크게 향상시키고, 높은 타당성(Validity)과 현실성(FID)을 달성함을 확인하 였다.

목차

요약
Abstract
1. 서론
2. 관련 연구
2.1 반사실 적대적 생성 모델
2.2 반사실 맵 적대적 생성 모델
3. 방법
3.1 의료 이미지 분류기 설명을 위한 반사실 생성(LEAR)
3.2 판별기 인코더 공유를 통한 불안정성 개선
3.3 확장성을 위한 일반화 프레임워크
4. 실험 결과
4.1 실험 환경 및 데이터
4.2 평가 지표
4.3 학습 안정성 및 수렴 속도
4.4 반사실 타당성 및 현실성 정량평가
5. 한계 및 결론
Acknowledgement
참고문헌

키워드

반사실 시각적 설명 적대적 생성 모델 학습 안정성 딥러닝 Counterfactual Visual Explanation Generative Adversarial Generative Model Training Stability Deep Learning

저자

  • 이동현 [ Dong Hyun Lee | 숭실대학교 IT대학 소프트웨어학부 ]
  • 정민영 [ Minyoung Chung | 숭실대학교 IT대학 소프트웨어학부 ] 교신저자

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국차세대컴퓨팅학회 [Korean Institute of Next Generation Computing]
  • 설립연도
    2005
  • 분야
    공학>컴퓨터학
  • 소개
    본 학회는 차세대 PC 및 그 관련분야의 학술활동을 통하여 차세대 PC의 학문 및 기술발전을 도모하고 산업발전 및 국제협력 증진을 목적으로 한다.

간행물

  • 간행물명
    한국차세대컴퓨팅학회 논문지 [THE JOURNAL OF KOREAN INSTITUTE OF NEXT GENERATION COMPUTING]
  • 간기
    격월간
  • pISSN
    1975-681X
  • 수록기간
    2005~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 566 DDC 004

이 권호 내 다른 논문 / 한국차세대컴퓨팅학회 논문지 Vol.22 No.1

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장