Earticle

현재 위치 Home

인공지능(AI) 딥페이크(deepfake)와 피해자 영향 진술
AI Deepfakes and Victim Impact Statement

첫 페이지 보기
  • 발행기관
    원광대학교 법학연구소 바로가기
  • 간행물
    원광법학 KCI 등재 바로가기
  • 통권
    제42집 제1호 (2026.03)바로가기
  • 페이지
    pp.83-102
  • 저자
    김종구
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A484051

원문정보

초록

영어
This article examines the legal and constitutional issues that arise when artificial intelligence (AI) - especially generative technologies such as deepfakes - is used to deliver Victim Impact Statements (VIS) in criminal proceedings, and it draws implications for the Korean legal system. A recent U.S. sentencing case (the Pelkey case), in which a deceased victim “appeared” in court through an AI-generated digital avatar to address the offender, triggered both acclaim as a victim-centered innovation and serious concerns about procedural fairness and defendants’ rights. VIS can serve legitimate aims by informing decision-makers of the concrete impact of crime and by supporting victims’ participation and emotional closure. Yet, because VIS may influence sentencing through emotional appeal, it has long developed within a tension between victims’ interests and defendants’ constitutional protections. The trajectory of U.S. Supreme Court jurisprudence illustrates this structural conflict: the initial restriction in Booth, the shift toward general admissibility in Payne coupled with an acknowledgment that excessively prejudicial statements may render a proceeding fundamentally unfair, and the controversy surrounding highly emotional memorial videos highlighted by Kelly. Against this background, AI-based VIS has notable benefits: it can “represent” the perspective and voice of a deceased victim, enhance the meaningfulness of the right to be heard, and convey the victim’s individuality and the gravity of harm with heightened vividness. At the same time, however, it raises distinct risks. A deepfake VIS may amount to a constructed narrative rather than an authentic statement by the person concerned; it is difficult to subject an AI avatar to traditional modes of verification such as cross-examination; and its audiovisual realism may amplify undue prejudice. Additional concerns include inequality of arms due to the costs and expertise required to produce sophisticated AI media, and broader authenticity crises in the deepfake era - where parties may exploit uncertainty about what is real and what is fabricated (the “liar’s dividend”), undermining public trust in adjudication. The article then evaluates the Korean framework. Korea’s Constitution guarantees a victim’s right to make statements in criminal proceedings, and the Criminal Procedure Act operationalizes this right largely through the structure of witness examination. Yet AI-mediated statements (deepfake videos, synthetic voice, and related digital media) do not fit neatly within that procedural model, and Korea’s adjudicatory practice - where fact-finding and sentencing are not always sharply separated - may increase the risk that emotionally powerful materials distort judicial conviction formation. The article concludes that rather than adopting a blanket ban, Korea should build procedural “guardrails”: advance notice and pre-screening, full disclosure to the defense with opportunities for objections and rebuttal, clear authentication/verification standards for AI-generated media, and guidance on timing and permissible modes of presentation. Such safeguards are necessary to harmonize the meaningful realization of victims’ participatory rights with the defendant’s right to a fair trial.
한국어
본 논문은 인공지능(AI) 기술, 특히 딥페이크(deepfake)와 같은 생성형 기술이 형 사사법 절차에서 ‘피해자 영향 진술(Victim Impact Statement)’과 결합할 때 발생하는 법적 쟁점을 분석하고, 우리 법제에 대한 시사점을 도출한 것이다. 최근 미국에서 사 망한 피해자가 인공지능(AI)로 생성된 디지털 아바타의 형태로 법정에 등장하여 양 형 단계에서 진술한 Pelkey 사건은, 피해자 보호의 혁신적 수단이라는 평가와 함께, 피고인의 절차적 권리 및 공정한 재판 보장에 대한 중대한 우려를 동시에 촉발하였 다. 우선, 피해자 영향 진술(VIS) 제도는 범죄 피해의 실질을 재판부에 전달하고 피해 자와 유족의 참여와 치유를 도모한다는 점에서 정당성을 갖지만, 그 내용과 표현 방 식이 과도하게 감정에 호소할 경우 판단자의 중립성과 형벌의 객관성을 훼손할 위험 이 있다. 미국 연방대법원 판례의 전개는 이러한 긴장을 잘 보여준다. 즉 Booth 판 결의 금지 입장, Payne 판결의 원칙적 허용 및 근본적 불공정에 이르면 적법절차 위 반이 될 수 있다는 한계 언급, 그리고 Kelly 사건을 계기로 드러난 ‘영상·음악 등으 로 강화된 추모 비디오’의 편견 유발 위험 논쟁은 피해자 영향 진술(VIS)이 본질적 으로 피해자와 피고인의 권리 사이의 세심한 조정이 필요함을 시사한다. 이러한 맥락에서 AI 기반 피해자 영향 진술(VIS)은 사망 피해자의 관점과 목소리 를 절차에 표상하게 하여 피해자 진술권을 실질화하고, 판결자에게 피해자의 인간적 면모와 피해의 구체성을 보다 생생하게 전달하는 긍정적 기능을 갖는다. 그러나 동 시에 딥페이크 진술은 ‘실제 당사자의 진술’이 아니라 제3자에 의해 구성된 허구적 산물일 수 있고, 반대신문 등 진술 검증의 구조가 작동하기 어렵다는 점에서 신뢰성 과 절차적 정당성에 취약하다. 더 나아가 시청각적 사실감이 감정적 설득력을 증폭 시켜 편견(undue prejudice)을 강화하고, 제작 비용·기술 격차로 인해 불평등을 초래 할 수 있으며, ‘가짜를 진짜로, 진짜를 가짜로’ 주장하는 딥페이크 시대의 진위 혼란 을 통해 사법 신뢰를 약화시킬 위험도 내포한다. 따라서 AI 딥페이크 기술 등 첨단 기술을 활용한 피해자의 재판진술권 행사에는 신중한 규범의 마련이 필요하다. 우리 헌법 제27조 제5항은 범죄피해자의 재판절차진술권을 보장하고, 형사소송법 제294조의2는 피해자 또는 유족을 증인으로 신문하는 방식으로 그 권리를 구체화하 고 있다. 그러나 AI 매개 진술, 즉 딥페이크 영상·음성합성 등을 이용한 진술은 현행 ‘증인신문’ 구조와 충돌할 소지가 있고, 우리 재판은 유·무죄와 양형 판단이 분리되 지 않는 측면이 있어 감정적 자료가 심증 형성에 부당한 영향을 미칠 위험도 고려되 어야 한다. 따라서 이러한 기술 활용을 배제하지 않으면서도, 사전 통지·사전 심사, 당사자 간 사전 공유와 이의신청 절차, 영상 합성물의 검증·인증 기준 정립, 제출 시 기·표현 방식에 대한 가이드라인 마련 등 절차적 안전장치를 구축함으로써 피해자 진술권의 실질화와 피고인의 공정한 재판권을 조화시키는 방향의 입법정책이 타당하다고 판단된다.

목차

국문초록
Ⅰ. 머리말
Ⅱ. 피해자 영향 진술의 의의와 권리 충돌
Ⅲ. AI 기술을 활용한 피해자 영향 진술
Ⅳ. AI 기반 피해자 진술에 대한 쟁점과 논의
Ⅴ. 우리 법제에의 시사점
Ⅵ. 맺음말
참고문헌
ABSTRACT

키워드

인공지능 딥페이크 피해자 영향 진술 피해자 재판절차 진술권 공정한 재판권 Artificial Intelligence Deepfake Victim Impact Statement Victim’s Right to be Heard in Criminal Proceedings Right to a Fair Trial

저자

  • 김종구 [ Kim, Jong Goo | 조선대학교 법사회대학 교수, 법학박사 ]

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    원광대학교 법학연구소 [THE LAW RESEARCH INSTITUTE WONKWANG UNIVERSTIY]
  • 설립연도
    1961
  • 분야
    사회과학>법학
  • 소개
    법에 대한 이론적 · 실제적 연구를 수행하고 그 결과를 발표하여 한국과 지역사회의 법률문화의 발전에 기여함을 목적으로 설립되었으며 법학일반이론과 법학교육방법 등의 연구와 법률구조안내 및 상담을 한다

간행물

  • 간행물명
    원광법학 [Journal of Law research]
  • 간기
    계간
  • pISSN
    1598-429X
  • eISSN
    2508-4526
  • 수록기간
    1962~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 360 DDC 340

이 권호 내 다른 논문 / 원광법학 제42집 제1호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장