Earticle

현재 위치 Home

[일반논문]

생성형 AI와 인간 행위자간 형사책임의 구성 방안
A Method for Establishing Criminal Liability between Generative AI and Human Agents

첫 페이지 보기
  • 발행기관
    한국입법학회 바로가기
  • 간행물
    입법학연구 KCI 등재 바로가기
  • 통권
    제22집 제2호 (2025.08)바로가기
  • 페이지
    pp.85-117
  • 저자
    김남훈, 이경렬
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A472353

※ 기관로그인 시 무료 이용이 가능합니다.

7,500원

원문정보

초록

영어
With the rapid advancement of AI technology, the attribution of criminal liability for legal interests infringement caused by AI has emerged as a critical issue. The purpose of this study is to systematically analyze criminal liability for AI-related crimes from the perspective of 'human actors' and propose effective countermeasures. An examination of AI's legal status reveals that AI cannot be a subject of criminal acts and lacks the ontological foundation to possess the subjective elements of intent required under criminal law. Although there have been arguments for granting AI 'electronic personhood' to fill the accountability gap, such attempts were explicitly rejected during the EU AI Act legislative process, establishing the human-centered responsibility principle that views AI as a 'highly intelligent tool' and 'object of regulation' as an international norm. In analyzing the subjective liability of human actors who use AI as a tool, this study presents new interpretative directions by refuting existing critical views. Regarding user liability, while some argue that intent is difficult to establish due to AI's 'black box' characteristics, this overlooks that the essence of dolus eventualis lies not in 'result prediction' but in 'conscious risk acceptance.' Rather, AI's unpredictability can serve as strong circumstantial evidence of dolus eventualis, indicating that users committed crimes while aware of such risks. Concerning developer liability, contrary to arguments that it should be limited to civil product liability, this study demonstrates that specific safety obligations imposed on high-risk AI developers by regulations such as the EU AI Act can serve as clear grounds for criminal 'professional duty of care.' Rational solutions for AI-related crimes do not lie in creating AI as a new legal subject or mechanically applying existing liability models. The true solution must be found in more precisely applying traditional criminal law principles for determining human actors' intent and negligence, while fully considering the special characteristics of AI as a tool. This means that criminal law should not avoid or compromise with technological advancement, but rather respond by deepening and developing existing principles. Specific criminal policy measures are proposed, divided into interpretative and legislative tasks. As interpretative tasks, the study suggests actively evaluating technological uncertainty as circumstantial evidence of risk acceptance in determining AI users' dolus eventualis, and using safety obligations required by international norms as concrete criteria for judging 'professional negligence' for high-risk AI developers. As a legislative task, this study compares the regulations on high-risk (or high-impact) AI in the EU AI Act and Korea's AI Framework Act, proposing to utilize these safety obligations as a basis for determining the duty of care in a criminal context. Furthermore, it points out the limitations of current laws concerning 'AI voice phishing' and 'financial market manipulation' and presents specific legal amendments that clarify the tool-like nature of AI and strengthen the liability of human agents.
한국어
AI 기술의 급속한 발전과 함께 AI가 야기하는 법익침해 문제에 대한 형사책임 귀속 방안이 중요한 쟁점으로 대두되고 있다. 본 연구의 목적은 AI 관련 범죄에 대 한 형사책임을 ‘인간 행위자’ 관점에서 체계적으로 분석하고 실효적인 대응방안을 제시하는 것이다. AI의 법적 지위 검토 결과, AI는 형사법적으로 행위의 주체가 될 수 없고 고의의 주관적 요소를 가질 존재론적 기반도 없다. 비록 책임의 공백을 메 우기 위해 AI에 ‘전자적 인격’을 부여하자는 반론이 제기되기도 했으나, 이러한 시 도는 EU의 「AI 법」 입법 과정에서 명백히 기각되고 AI를 ‘고도로 지능화된 도구’ 이자 규제의 ‘객체’로 보는 인간 중심적 책임 원칙이 국제적 규범으로 자리 잡았 다. AI라는 도구를 사용하는 인간 행위자의 주관적 책임 분석에서는 기존의 비판 적 견해들에 대한 반박을 통해 새로운 해석 방향을 제시하였다. 사용자의 책임과 관련하여, AI의 ‘블랙박스’ 특성으로 인해 고의를 인정하기 어렵다는 반론이 존재 하지만, 미필적 고의의 본질이 ‘결 예측’이 아닌 ‘의식적인 위험 인수’에 있음을 고 려할 때, AI의 예측 불가능성은 오히려 사용자가 그 위험을 알면서도 범죄를 감행 했다는 미필적 고의의 강력한 정황이 될 수 있다. 또한 개발자의 책임에 대해서는 민사상 제조물 책임으로 한정해야 한다는 주장과 달리, EU AI 법이 고위험 AI 개 발자에게 부과하는 구체적인 안전의무가 형사상 ‘업무상 주의의무’'의 명확한 근거 가 될 수 있음을 논증하였다. AI 관련 범죄에 대한 합리적 해결책은 AI를 새로운 법적 주체로 창조하거나 기존 책임 모델을 기계적으로 적용하는 방식에 있지 않다. 진정한 해결책은 AI라는 도구가 지닌 특수성을 충분히 고려하되, 인간 행위자의 고의와 과실을 판단하는 전통적 형법 원리를 더욱 정밀하게 적용하는 데서 찾아야 한다. 이는 기술 발전에 형법이 회피하거나 타협하는 것이 아니라, 기존 원리를 심 화·발전시켜 대응해야 함을 의미한다. 구체적인 형사정책적 방안으로는 해석론적 과제와 입법론적 과제로 구분하여 제안하였다. 해석론적 과제로서 AI 이용자의 미 필적 고의 판단에 있어 기술의 불확실성을 위험 인수의 정황으로 적극 평가하고, 고위험 AI 개발자에게는 국제 규범에서 요구하는 안전의무를 근거로 ‘업무상 과 실’의 구체적 판단 기준으로 삼을 것을 제안하였다. 입법론적 과제로서 EU 「AI 법」과 우리나라 「인공지능기본법」상 고위험(고영향) AI 규제를 비교 분석하고, 이 를 바탕으로 개발자의 안전의무를 형사상 주의의무 판단의 근거로 활용할 것을 제 안하였다. 나아가 ‘AI 보이스피싱’과 ‘금융시장 교란 행위’를 중심으로 현행법의 한계를 지적하고, AI의 도구적 성격을 명시하여 인간 행위자의 책임을 강화하는 구체적인 법률 개정안을 제시하였다.

목차

국문초록
Ⅰ. 들어가는 말
Ⅱ. AI의 형사법적 지위
Ⅲ. AI의 도구성과 인간의 행위 주체성
Ⅳ. AI 관련 범죄의 해석론적·입법론적 개선방안
Ⅴ. 나가는 말
참고문헌

키워드

인공지능(AI) 형사책임 미필적 고의 업무상 과실 고위험 AI(고영향 AI) AI 보이스피싱 범죄 Artificial Intelligence (AI) Criminal Liability Dolus Eventualis Professional Negligence High-Risk AI (High-Impact AI) AI Voice Phishing Crimes

저자

  • 김남훈 [ Nam-Hun Kim | 성균관대학교 철학과 학부생 ] 제1저자
  • 이경렬 [ Kyung-Lyul Lee | 성균관대학교 법학전문대학원 교수, 법학박사 ] 공동저자, 교신저자

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국입법학회 [Korean Society of Legislation Studies]
  • 설립연도
    2005
  • 분야
    사회과학>법학
  • 소개
    오늘날 대륙법계 국가는 물론 영미법계 국가에서도 제정법의 중요성이 점증하고 있음에도 불구하고 그동안 법학의 주된 관심은 해석법학에 머무르고 있는 것이 현실이다. 같은 맥락에서 법률전문가들도 한결 같이 법의 해석·적용에만 천착하고 있을 뿐이며 해석·적용의 전제가 되는 입법 자체에 대하여 관심과 소양을 가지고 있는 전문가는 찾아보기 힘든 실정이다. 국민의 여론을 충실히 반영하면서도 형평성과 체계성·조화성 등을 고루 갖추어 헌법과 입법원칙에 부합하는 입법이 적시에 이루어진다면 불필요한 법적 분쟁을 예방하고 국민의 법 생활을 윤택하게 하며 법치주의의 성공적인 구현에 크게 기여할 수 있을 것이다. 입법학회는 이러한 전제 하에 올바른 입법을 위한 이론적 토대를 마련하기 위한 학문적 탐구를 진행하고자 함.

간행물

  • 간행물명
    입법학연구 [Journal of Legislative Studies]
  • 간기
    반년간
  • pISSN
    1229-9251
  • 수록기간
    2000~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 345 DDC 320

이 권호 내 다른 논문 / 입법학연구 제22집 제2호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장