Earticle

현재 위치 Home

반 사실적 설명을 사용한 인공지능 시스템 설명 인터페이스 개발
Explanation of AI Results : The Why not-How to-What if Interface Based on Counterfactual Explanation

첫 페이지 보기
  • 발행기관
    한국EA학회 바로가기
  • 간행물
    정보화연구 KCI 등재 바로가기
  • 통권
    제17권 1호 (2020.04)바로가기
  • 페이지
    pp.63-71
  • 저자
    신소연, 김상연, 이상원
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A373712

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
To enhance the trust and usability of the AI system, recent studies have adopted the concept of explainable artificial intelligence(XAI) and proposed explanation methods for the system’s result. One way to understand AI output is to utilize a counterfactual explanation. However, existing methods cannot properly address categorical features. In addition, human cannot analyze approximated decision boundary represented by counterfactual cases with complex features. In this paper, we extend counterfactual explanation with three sequential steps why not, how to, what if reflecting human causal cognition. To find the potential of the suggested interface, we perform a simple scenario-based experiment, where users communicate with an AI system’s results for loan prediction. The experiment results indicate that our interface had better performance in trustworthiness, usefulness, and satisfaction to the AI system, compared to an existing interface.
한국어
인공지능 시스템의 신뢰도와 유용성을 높이기 위해 최근 연구에서는 설명가능 인공지능이라는 개념을 통해 시스템의 결과에 대한 설명 방법을 제안하고 있다. 그 중 하나는 반 사실적 설명을 사용 하는 것이다. 그러나 기존 방법은 범주형 특성값을 사용해 반 사실적 설명을 생성할 수 없고 인간은 복잡한 입력 값의 조합과 의사 결정 경계의 근삿값을 모두 분석할 수 없다. 본 논문에서는 인간이 인 과관계를 이해하는 과정을 반영한 반 사실적 설명 방법을 제안한다. Intelligibility type explanation 을 기반으로 한 why not, how to, what if를 사용해 세 가지 순차적 단계를 통해 설명 인터페이스를 사용자들에게 제공한다. 제안한 인터페이스의 유효성을 확인하기 대출 예측을 수행하는 인공지능 시 스템을 사용해 시나리오 기반의 실험을 수행하였다. 그 결과 제안된 설명 인터페이스를 사용할 경우 기존 시스템에 비해 신뢰도, 유용성 및 만족도가 향상되었다. 이를 통해 기존 블랙박스로 여겨지던 인 공 지능 시스템을 이해하는데 제안한 설명 인터페이스가 도움이 된다는 것을 확인할 수 있었다.

목차

요약
Abstract
1. 서론
2. 선행 연구
2.1 설명 가능한 인공지능
2.2 반 사실적 설명
2.3 Intelligibility type explanation
3. 설명 인터페이스 제안
3.1 Foil 발생
3.2 Why not 질문
3.3 How to 설명
3.4 What if 설명
4. 설명 인터페이스 구현 및 테스트
4.1 시스템 구현
4.2 실험 순서
4.3 측정 방법
4.4 실험 결과
5. 토의 및 결론
REFERENCES

키워드

인간-인공지능 상호작용 설명 설명 가능한 인공지능 설명 인터페이스 반 사실적 사고 Human-AI interaction Explanation Explainable artificial intelligence Intelligibility Explanation interface Counterfactual thinking

저자

  • 신소연 [ Soyeon Shin | 성균관대학교 인터랙션사이언스학과 석사과정 ]
  • 김상연 [ Sangyeon Kim | 성균관대학교 인터랙션사이언스학과 박사과정 ]
  • 이상원 [ Sangwon Lee | 성균관대학교 인터랙션사이언스학과 부교수 ] Corresponding Author

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국EA학회 [한국엔터프라이즈아키텍처학회]
  • 설립연도
    2002
  • 분야
    복합학>과학기술학
  • 소개
    한국EA학회는 전사적 관점의 아키텍처 개념 및 원칙을 국내 민간기업 및 정부기관에 적용 확산시키고, EA 및 관련 분야의 연구, 전문인력의 양성 및 정책적 건의 등을 통해 기업 및 정부기관의 경쟁력 및 생산성을 향상시키고, 우리나라 지식 기반 산업 등의 고도화를 도모하는 것을 목적으로 합니다.

간행물

  • 간행물명
    정보화연구 [정보화연구(구 정보기술아키텍처연구)]
  • 간기
    계간
  • pISSN
    1738-382X
  • 수록기간
    2004~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 325 DDC 658

이 권호 내 다른 논문 / 정보화연구 제17권 1호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장