This article examines the legal and constitutional issues that arise when artificial intelligence (AI) - especially generative technologies such as deepfakes - is used to deliver Victim Impact Statements (VIS) in criminal proceedings, and it draws implications for the Korean legal system. A recent U.S. sentencing case (the Pelkey case), in which a deceased victim “appeared” in court through an AI-generated digital avatar to address the offender, triggered both acclaim as a victim-centered innovation and serious concerns about procedural fairness and defendants’ rights. VIS can serve legitimate aims by informing decision-makers of the concrete impact of crime and by supporting victims’ participation and emotional closure. Yet, because VIS may influence sentencing through emotional appeal, it has long developed within a tension between victims’ interests and defendants’ constitutional protections. The trajectory of U.S. Supreme Court jurisprudence illustrates this structural conflict: the initial restriction in Booth, the shift toward general admissibility in Payne coupled with an acknowledgment that excessively prejudicial statements may render a proceeding fundamentally unfair, and the controversy surrounding highly emotional memorial videos highlighted by Kelly. Against this background, AI-based VIS has notable benefits: it can “represent” the perspective and voice of a deceased victim, enhance the meaningfulness of the right to be heard, and convey the victim’s individuality and the gravity of harm with heightened vividness. At the same time, however, it raises distinct risks. A deepfake VIS may amount to a constructed narrative rather than an authentic statement by the person concerned; it is difficult to subject an AI avatar to traditional modes of verification such as cross-examination; and its audiovisual realism may amplify undue prejudice. Additional concerns include inequality of arms due to the costs and expertise required to produce sophisticated AI media, and broader authenticity crises in the deepfake era - where parties may exploit uncertainty about what is real and what is fabricated (the “liar’s dividend”), undermining public trust in adjudication. The article then evaluates the Korean framework. Korea’s Constitution guarantees a victim’s right to make statements in criminal proceedings, and the Criminal Procedure Act operationalizes this right largely through the structure of witness examination. Yet AI-mediated statements (deepfake videos, synthetic voice, and related digital media) do not fit neatly within that procedural model, and Korea’s adjudicatory practice - where fact-finding and sentencing are not always sharply separated - may increase the risk that emotionally powerful materials distort judicial conviction formation. The article concludes that rather than adopting a blanket ban, Korea should build procedural “guardrails”: advance notice and pre-screening, full disclosure to the defense with opportunities for objections and rebuttal, clear authentication/verification standards for AI-generated media, and guidance on timing and permissible modes of presentation. Such safeguards are necessary to harmonize the meaningful realization of victims’ participatory rights with the defendant’s right to a fair trial.
한국어
본 논문은 인공지능(AI) 기술, 특히 딥페이크(deepfake)와 같은 생성형 기술이 형 사사법 절차에서 ‘피해자 영향 진술(Victim Impact Statement)’과 결합할 때 발생하는 법적 쟁점을 분석하고, 우리 법제에 대한 시사점을 도출한 것이다. 최근 미국에서 사 망한 피해자가 인공지능(AI)로 생성된 디지털 아바타의 형태로 법정에 등장하여 양 형 단계에서 진술한 Pelkey 사건은, 피해자 보호의 혁신적 수단이라는 평가와 함께, 피고인의 절차적 권리 및 공정한 재판 보장에 대한 중대한 우려를 동시에 촉발하였 다. 우선, 피해자 영향 진술(VIS) 제도는 범죄 피해의 실질을 재판부에 전달하고 피해 자와 유족의 참여와 치유를 도모한다는 점에서 정당성을 갖지만, 그 내용과 표현 방 식이 과도하게 감정에 호소할 경우 판단자의 중립성과 형벌의 객관성을 훼손할 위험 이 있다. 미국 연방대법원 판례의 전개는 이러한 긴장을 잘 보여준다. 즉 Booth 판 결의 금지 입장, Payne 판결의 원칙적 허용 및 근본적 불공정에 이르면 적법절차 위 반이 될 수 있다는 한계 언급, 그리고 Kelly 사건을 계기로 드러난 ‘영상·음악 등으 로 강화된 추모 비디오’의 편견 유발 위험 논쟁은 피해자 영향 진술(VIS)이 본질적 으로 피해자와 피고인의 권리 사이의 세심한 조정이 필요함을 시사한다. 이러한 맥락에서 AI 기반 피해자 영향 진술(VIS)은 사망 피해자의 관점과 목소리 를 절차에 표상하게 하여 피해자 진술권을 실질화하고, 판결자에게 피해자의 인간적 면모와 피해의 구체성을 보다 생생하게 전달하는 긍정적 기능을 갖는다. 그러나 동 시에 딥페이크 진술은 ‘실제 당사자의 진술’이 아니라 제3자에 의해 구성된 허구적 산물일 수 있고, 반대신문 등 진술 검증의 구조가 작동하기 어렵다는 점에서 신뢰성 과 절차적 정당성에 취약하다. 더 나아가 시청각적 사실감이 감정적 설득력을 증폭 시켜 편견(undue prejudice)을 강화하고, 제작 비용·기술 격차로 인해 불평등을 초래 할 수 있으며, ‘가짜를 진짜로, 진짜를 가짜로’ 주장하는 딥페이크 시대의 진위 혼란 을 통해 사법 신뢰를 약화시킬 위험도 내포한다. 따라서 AI 딥페이크 기술 등 첨단 기술을 활용한 피해자의 재판진술권 행사에는 신중한 규범의 마련이 필요하다. 우리 헌법 제27조 제5항은 범죄피해자의 재판절차진술권을 보장하고, 형사소송법 제294조의2는 피해자 또는 유족을 증인으로 신문하는 방식으로 그 권리를 구체화하 고 있다. 그러나 AI 매개 진술, 즉 딥페이크 영상·음성합성 등을 이용한 진술은 현행 ‘증인신문’ 구조와 충돌할 소지가 있고, 우리 재판은 유·무죄와 양형 판단이 분리되 지 않는 측면이 있어 감정적 자료가 심증 형성에 부당한 영향을 미칠 위험도 고려되 어야 한다. 따라서 이러한 기술 활용을 배제하지 않으면서도, 사전 통지·사전 심사, 당사자 간 사전 공유와 이의신청 절차, 영상 합성물의 검증·인증 기준 정립, 제출 시 기·표현 방식에 대한 가이드라인 마련 등 절차적 안전장치를 구축함으로써 피해자 진술권의 실질화와 피고인의 공정한 재판권을 조화시키는 방향의 입법정책이 타당하다고 판단된다.
목차
국문초록 Ⅰ. 머리말 Ⅱ. 피해자 영향 진술의 의의와 권리 충돌 Ⅲ. AI 기술을 활용한 피해자 영향 진술 Ⅳ. AI 기반 피해자 진술에 대한 쟁점과 논의 Ⅴ. 우리 법제에의 시사점 Ⅵ. 맺음말 참고문헌 ABSTRACT
키워드
인공지능딥페이크피해자 영향 진술피해자 재판절차 진술권공정한 재판권Artificial IntelligenceDeepfakeVictim Impact StatementVictim’s Right to be Heard in Criminal ProceedingsRight to a Fair Trial