Earticle

현재 위치 Home

주인-대리인이론으로 바라본 인공지능 윤리 : 신뢰할 수 있는 인공지능

첫 페이지 보기
  • 발행기관
    한국경영정보학회 바로가기
  • 간행물
    한국경영정보학회 정기 학술대회 바로가기
  • 통권
    2020 한국경영정보학회 추계학술대회 (2020.12)바로가기
  • 페이지
    pp.97-98
  • 저자
    배나연, 김병초
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A392579

원문정보

초록

한국어
인공지능 기술은 사람들의 인식 여부와 상관없이 폭넓게 사용되고 있는 반면, 인공지능이 노동 시장에서 인간의 일자리를 위협하고, 허위 정보와 가짜 뉴스를 확산시키며, 더 나아가 인간을 필터 버블에 빠뜨리거나, 개인의 프라이버시를 침해하고, 인종 차별을 조장하며, 살상 무기에 사용되는 등 인공지능으로 야기될 수 있는 위험과 부정적인 영향에 관한 우려들도 생기고 있다. 기술과 관련된 윤리 문제가 갑자기 등장한 것은 아니다. 컴퓨터 윤리, 인터넷 윤리, 로봇 윤리 등 기술의 등장과 함께 논의되어온 바 있다. 그러나 인공지능 윤리의 중요성이 더욱 부각되는 이유는 인공지능 기술이 여타 다른 기술의 윤리적인 문제와 비교했을 때, 그 영향이 광범위하고 이의 파급효과가 매우 크기 때문이다. 이러한 점에서, IEEE(2019)에서는 인공지능 윤리에 인간의 웰빙이라는 개념을 도입하여, 인공지능이 인간에게 미치는 정신적, 육체적, 환경적, 사회적인 영향까지 함께 고려해야 할 필요가 있다고도 제안하였다. 인공지능 기술은 인간 같은 인지능력을 표방하며, 실제로도 인간 같은 의사결정을 한다. 그러나 인공지능이 어떤 근거로 의사결정하는지 알 수 없는 블랙박스 문제는 여전히 존재하고 있으며, 인공지능에 입력되는 데이터는 물론이고 심지어 인공지능에 반영할 윤리를 연구하고 개발하려는 노력에도 인간의 편향이 내장될 위험이 있다. 인공지능으로 문제가 발생할 때도, 누가 문제에 대한 책임을 져야 할지 뚜렷하게 정의되지 않아 책임의 선은 더욱 모호하다. 책임의 소재를 분명히 하여 적절한 대응을 할 수 있도록 인공지능이 내린 의사결정의 책임 주체를 확립하려는 다양한 노력이 시도되고 있는 가운데, 2017년 유럽의회에서는 인공지능에 전자 인격(Electronic personhood)이라는 법적 지위를 부여하자는 안건도 상정되었다. 최근 공공 부문과 민간 부문, 학술 부문을 막론하고 이러한 문제를 자각한 여러 조직에서 인공지능 윤리에 관한 연구를 급격히 진행하고 있다(유럽의회의 인공지능 전문가 그룹, OECD의 인공지능 전문가 그룹, 싱가포르의 인공지능과 데이터의 윤리적 이용에 관한 자문 위원회, 영국 상원 인공지능 선정위원회, 미국의 국가과학기술위원회(NSTC), 한국의 정보문화포럼 산하 지능정보화사회 윤리분과위원회, IEEE를 비롯한 학회, 삼성과 아마존·구글·마이크로소프트를 포함한 인공지능(AI) 국제협력단체 PAI(Partnership on AI), 테슬라가 주도하는 비영리 인공지능 연구소 Open AI, 카카오 등). 그러나 아직 어떤 윤리가 인공지능에 선별되어 입력되어야 하는지 구체적인 표준에 대한 합의가 이루어지지 않았다. 또, 대부분의 연구가 실질적으로 적용 가능한 규제나 솔루션 중심이 아닌 윤리 원칙과 같은 가치 기반 연구에만 집중되고 있다. 인공지능을 둘러싼 문제들은 근본적으로 인간이 자신보다 더 많은 정보와 계산 능력을 가진 인공지능에게 과제를 위임함으로써 발생한다. 인공지능은 자신의 능력 내에서 주어진 일을 처리하지만, 여기에서 발생한 효과나 영향은 인간에게 귀속된다. 그런데 본질적으로 인간과 인공지능 시스템이 추구하는 이익은 각각 다를 수 있다. 인간은 윤리적인 방식으로 자신의 이익을 최대화하려는 목적을 가지는 반면, 인공지능 시스템의 목적은 이것과 완전히 합치된다고 보기에는 어렵다. 이러한 점을 들어, 본 연구에서는 주인-대리인 이론을 적용하여, 인간과 인공지능 시스템의 관계를 실증적으로 검증한다. 이로써, 인간과 인공지능 시스템의 관계를 조명하고, 인간-인공지능 시스템 사이에 대리인 문제가 발생하는지 확인함으로써 주인-대리인 이론이 인공지능 맥락에도 적용 가능한지 연구한다. 다음으로 주인-대리인 이론의 솔루션으로 제시되는 방법들을 인공지능 윤리 맥락에 적용하여, 주인-대리인 이론의 솔루션이 인간과 인공지능 사이의 문제 해결에도 기여할 수 있는지 탐색하고자 한다. 또, “신뢰할 수 있는 인공지능”을 구축해야 한다는 의견이 대두되는 가운데, 인간이 만족하는 인공지능의 핵심 요소로 신뢰성을 함께 다룬다. 마지막으로, 기술에 익숙한 IT업계 종사자와 그렇지 않은 일반인의 인식 차이를 비교 분석한다.

목차

Abstract

키워드

인공지능 윤리 주인-대리인이론 신뢰성 인공지능 시스템 대리인 문제 인공지능 윤리 인식

저자

  • 배나연 [ 국제경영학과 석사과정 한국외국어대학교 ]
  • 김병초 [ Global Business & Technology학부 교수 한국외국어대학교 ]

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국경영정보학회 [The Korea Society of Management information Systems]
  • 설립연도
    1989
  • 분야
    사회과학>경영학
  • 소개
    이 학회는 경영정보학의 연구 및 교류를 촉진하고 학문의 발전과 응용에 공헌함을 목적으로 합니다.

간행물

  • 간행물명
    한국경영정보학회 정기 학술대회 [KMIS Conference]
  • 간기
    반년간
  • 수록기간
    1990~2025
  • 십진분류
    KDC 325 DDC 658

이 권호 내 다른 논문 / 한국경영정보학회 정기 학술대회 2020 한국경영정보학회 추계학술대회

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장