2025 (14)
2024 (12)
2023 (10)
2022 (15)
2021 (15)
2020 (14)
2019 (13)
2018 (13)
2017 (13)
2016 (7)
2015 (8)
행정의 디지털 전환에 따른 인공지능 규제의 최근 동향과 시사점 - 인공지능에 대한 인격권 보호의 문제를 겸하여 -
언론중재위원회 미디어와 인격권 제9권 제2호 2023.08 pp.1-36
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
행정의 디지털 전환과 인공지능은 시대의 화두이다. 디지털화와 인공지능시스템은 방대한 데이터의 수집・처리를 하지만, 개인정보의 유출로 인격권이나 프라이버시권을 중대하게 침해할 수도 있다. 또한 알고리즘에 의한 인공지능시스템은 자유로운 정치적 의사 형성을 왜곡할 수 있고, 딥페이크 기술을 이용한 가짜 뉴스는 정치인의 명예를 심각하게 실추시킬 수 있다. 이처럼 디지털화와 인공지능은 인간의 존엄권, 기본권, 민주주의와 같은 헌법의 기본가치를 훼손할 수 있다. 그런 점에서 인공지능에 대한 규제가 필요하며, 이를 어떻게 설계할 것인지는 현대국가의 중요한 과제다. 특히 인공지능시스템은 절차적 요건에 취약하며, 이에 대한 민주적 통제가 보완되어야 한다. 인공지능에 의한 행정자동결정에도 절차적 정당성을 확보하여야 하며, 이를 위해 시민의 참여뿐만 아니라 절차 공개를 통한 투명성이 보장되어야 한다. 인공지능시스템에 대한 규제에는 다양한 방식이 있지만, 기업의 자율규제를 보장하면서 국가의 규제를 유보하는 ‘규제된 자율규제’의 방식이 바람직하다. 신(新)산업의 인공지능에 대해서는 규제샌드박스를 활용할 수 있다. 하지만 인공지능시스템이 초래할 수 있는 리스크를 제어하는 것이 중요하며, 또 이러한 리스크를 제어할 수 있는 제도와 절차가 필요하다. 이와 관련하여 유럽연합 인공지능명령안에는 참고할 만한 내용이 포함되어 있다. 법령에서 인간의 존엄이나 인격권을 중대하게 침해하거나 인간의 생명・안전에 명백히 치명적인 위험을 줄 수 있는 인공지능시스템은 금지해야 한다. 높은 리스크의 인공지능에 대한 규제가 중요하다. 이러한 높은 리스크의 인공지능에 대해서는 리스크관리시스템을 설정해야 한다. 리스크관리시스템은 대체로 리스크의 조사 및 관찰, 리스크의 평가, 리스크의 관리 및 통제로 구성된다. 리스크의 조사가 제대로 이루어지기 위해서는 높은 리스크의 인공지능을 데이터베이스에 등록하고 이를 추적할 수 있는 시스템을 마련해야 한다. 또한 등록된 데이터에 기초하여 높은 리스크의 인공지능에 대한 평가가 전 생애에 걸쳐 지속적으로 이루어져야 한다. 리스크의 관리 및 통제에서 규제 거버넌스가 효과적으로 작동하도록 규율해야 한다. 행정의 디지털화와 인공지능은 현대국가의 당면과제이자 현안이 되고 있다. 이에 대한 규범적 대응과 관련 법령의 정비가 시급하다.
The digital transformation of public administration and the advent of artificial intelligence (AI) are prominent contemporary topics. The process of digitalization and AI systems entails vast data collection and processing, potentially leading to serious infringement of individuals’ rights to personality and privacy by leaking personal information. In addition, algorithmic AI systems can distort free political decision-making, while deepfake poses a grave threat to the reputation of government officials. As a consequence, digitalization and AI can undermine fundamental constitutional values, such as human dignity, fundamental rights, and democracy. Consequently, regulating AI is necessary, and formulating its design emerges as a crucial issue for modern countries. In particular, AI systems are vulnerable to procedural requirements, necessitating the supplementation of democratic control. Procedural legitimacy should be secured for AI-assisted administrative decisions, and for this purpose, transparency should be guaranteed through procedure disclosure and citizen participation. Various approaches to regulating AI systems exist, but regulated self-regulation that ensures company self-regulation while reserving state regulation is preferable. For AI implementation in emerging industries, regulatory sandboxes can be beneficial; however, controlling the risks that AI systems can cause is important. Procedures and policies are needed for risk management. In this regard, the draft European Union (EU) Regulation on AI is instructive by prohibiting AI systems that gravely infringe on human dignity or personality rights or pose an imminent threat to human life and safety. Regulating high-risk AI is essential, and for such high-risk AI systems, a risk management system must be established promptly. The risk management system generally consists of risk investigation and observation, assessment, and management and control. It is necessary to register high-risk AI systems in a database and establish a system to track them to investigate risks properly. In addition, based on the recorded data, high-risk AI systems should be assessed continuously throughout their life cycle. Moreover, regulatory governance should be strategically designed to manage and control risks effectively. The digitalization of public administration and the rise of artificial intelligence present significant challenges for modern countries. Thus, urgent action is warranted for a normative response and an overhaul relevant legislation in light of these developments.
본 논문에서는 인공지능 기술을 활용하여 생산・유통하는 허위조작정보와 관련된 법률적 쟁점 및 시사점을 다음과 같이 제언한다. 첫째, 인공지능 및 허위조작정보의 명확한 법적 개념을 마련하지 않고 규제 입법을 하는 경우 어떤 내용의 인공지능 또는 허위조작정보가 규제 대상이 되는지, 어느 범위까지 적법한지 등에 대한 예측가능성을 확보하기 어렵다. 따라서 인공지능 및 허위조작정보의 법적 개념, 보호 대상 등이 불명확하여 이를 규제하기 위한 법률 제정이 수월하지 않은 상황에서는 적용 가능한 현행 법률을 적극적으로 활용하여야 한다. 또한 인공지능 및 허위조작정보에 대한 사례를 분석한 결과를 축적하여 개념 정의, 보호 범위 등을 명확하게 마련할 수 있는 시점에 인공지능을 활용한 허위조작정보를 규제하는 법률을 제정하는 것이 타당하겠다. 둘째, 인공지능 알고리즘이 편향되는 경우에는 정확하지 않은 데이터를 기반으로 하거나 사실을 왜곡하는 정보 등으로 인하여 특정인・특정 집단・특정 의견 등을 무시하거나 차별할 우려가 있다. 특히 이용자가 이러한 알고리즘 편향성을 인식하지 못하여 정확한 가치 판단의 기회를 상실할 수 있고, 인공지능이 허위조작정보 확산 수단으로 악용될 우려가 있다. 따라서 이용자들이 편향성 여부를 판단하기 어려운 알고리즘에 대하여 공인된 기관이 마련하여 제공한 알고리즘 검증프로그램을 통하여 언제든지 알고리즘을 투명하게 검증할 수 있도록 하고, 진실성 여부가 논란이 되는 정보에 대해서는 찬성과 반대 과정을 이용자들이 살펴볼 수 있도록 하여야 한다. 이와 함께 논란이 해소되지 않은 정보의 추천서비스를 자제하도록 하여 확증편향의 문제점도 함께 해소할 필요가 있다. 셋째, 허위조작정보를 규제하기 위해서는 해당 정보가 허위라는 사실을 규명하여야 한다. 사법부의 종국적 판단 이전에 행해진 행정부의 허위성 판단이 사법부의 종국적 판단과 상이한 경우에는 인터넷상 언론표현의 자유를 제한하거나 위축시킬 우려가 있다. 따라서 허위조작정보 규제 필요성에 대한 사회적 공감대를 형성하고, 유럽연합과 같이 일률적인 규제보다는 사회적 영향력이 큰 인터넷서비스제공자를 상대로 일정한 의무를 부여하는 등 선별적이고 순차적인 규제 사례를 참고할 필요가 있다. 넷째, 편향된 알고리즘으로 구성된 인공지능을 통하여 허위조작정보를 생산하고 유통함으로써 피해자가 발생한 경우, 고의 또는 과실로 인한 위법행위로 타인에게 손해를 가한 자에 대한 손해를 배상할 책임을 누구에게 물을 것인지 불분명하여 민사책임에 있어서의 행위책임 원칙을 훼손할 우려가 있다. 또한, 편향된 인공지능을 통하여 유통되는 허위조작정보를 예방하기 위하여 해당 정보 삭제 또는 차단 등의 조치를 요구하는 경우 누구를 대상으로 해야 하는지도 불분명하다. 따라서 가해자 특정, 인공지능이 악용되었다는 사실 및 특정 정보의 허위성 등을 피해자가 입증하기란 쉽지 않기 때문에 손해배상 청구를 위한 가해자의 고의 또는 과실 여부, 그로 인한 위법행위로 손해가 발생하였다는 인과관계 등의 입증책임을 가해자에게 전환하여 피해자 보호를 강화하여야 하며, 해당 정보 삭제 또는 접속차단 등의 시정요구 상대방을 명확하게 특정하여야 한다.
This paper discusses legal issues and implications concerning the production and dissemination of disinformation using artificial intelligence (AI) technology. First, defining clear legal concepts of AI and disinformation poses challenges, leading to uncertainty in regulating and determining their legality and scope. Therefore, when legal concepts and protections of AI and disinformation are unclear and enacting laws to regulate them is challenging, existing laws should be actively used. Second, biased AI algorithms may lead to the risk of neglecting or discriminating against specific people, groups, and opinions based on inaccurate data or distorted facts. In addition, if users are unaware of such algorithm biases, there is a risk of abusing AI to spread false and manipulative information. Therefore, preparing and providing an algorithm verification program that allows users to verify biases at any time and offers transparency in the approval and opposition process is essential to mitigate this. Third, regulating disinformation necessitates confirming its falsity. However, premature making false judgments before the judiciary’s final judgment may impinge on the freedom of speech on the Internet. Therefore, it is necessary to refer to the introduction of selective and sequential regulatory systems, such as forming a social consensus on the need to regulate disinformation and imposing certain obligations on Internet service providers with significant social influence rather than uniform regulations like those in the European Union. Fourth, the responsibility for damages to others resulting from the intentional or negligent production and dissemination of disinformation through biased algorithms remains unclear. Therefore, shifting the burden of proving the perpetrator’s intention or negligence can strengthen victim protection.
AI와 저작권에 관한 기존 연구는 대부분 저작재산권에 집중되었고, AI와 저작인격권의 관계에 관한 연구는 상대적으로 빈약한 편이었다. 이에 본 연구는 저작인격권에 관한 기존 법리를 AI 창작물에 적용해봄으로써 AI와 같은 비인간 창작물과 저작인격권의 관계와 쟁점을 검토하고 입법상의 개선안을 모색할 수 있는 기초 자료를 제공하는 것을 목적으로 한다. 이와 같은 연구목적에 따른 연구문제는 AI 창작물에 저작인격권을 인정하는 것이 타당한지와 그 근거는 무엇인가이다. 저작인격권에 관한 전체적인 의미를 다룬 판례와 AI 창작물에 관한 저작권법적 분쟁 사례 및 명시적인 판례가 거의 부재하므로, 본 연구에서는 저작인격권에 관한 기존의 학술적 논의와 입법례를 검토하였다. 우선 저작인격권의 개념과 본질, 타당성 논쟁을 중심으로 법적 성격을 살펴보았고, 각국의 저작인격권 입법례의 특징을 검토하였다. 이와 같은 저작인격권에 관한 법리를 토대로 하여 AI 창작물과 저작인격권의 관계에 대해 탐색적으로 논의하였다. 그 결과 기본적으로 인간에게만 저작권을 인정하는 저작권의 일반 법리나 저작물에 표현된 저작자의 인격적・정신적 이익을 보호하는 저작인격권의 기본 원칙에 기초할 때, 인격적 이익이 없는 AI가 만든 창작물에 대한 저작인격권 인정은 타당하지 않다.
Most discussions about copyright and artificial intelligence (AI) focus on the author’s economic rights, which enable copyright holders to derive income from others’ use of their literary or artistic works. In contrast, the relationship between AI and the author’s moral rights, which safeguard the personal connection between a creator and their work, remains relatively obscure. This study aims to address the relationship between moral rights in copyright and works generated by nonhuman AI entities, seeking a legislative proposal for reform by applying fundamental legal principles governing moral rights in AI-generated works. Due to the scarcity of judicial cases dealing with the overall meaning of moral rights and conflict cases on the copyright in AI-generated works, this research examines existing discussions on moral rights and relevant legislative cases. To discuss the fundamental legal doctrines of moral rights, this research analyzes the legal characteristics of moral rights, with a specific focus on their concepts, nature, and debates concerning the validity of granting moral rights within the scope of copyright. This research also reviews the legislation cases, such as laws on moral rights in France, Germany, the United Kingdom, the United States, and Korea; the Copyright Act of 1957 of Korea; former law for the protection of computer programs of Korea, which was integrated into Copyright Act in 2009; copyright laws on computer-generated works, such as Copyright, Designs and Patents Act of 1988 in the United Kingdom. The findings indicate that granting moral rights to AI-generated words, devoid of personal rights, is not justifiable based on general legal doctrines of copyright, which solely confer rights to human beings, and the fundamental principles of moral rights that protect the personal and spiritual interests of authors as represented in their works.
피의사실 보도의 요건 - 윤리적 범죄 수사 보도를 위한 원칙 -
언론중재위원회 미디어와 인격권 제9권 제2호 2023.08 pp.123-163
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
언론의 무분별한 피의사실 보도로 인한 사회적 논란이 반복적으로 제기되지만 바람직한 보도를 위한 기준과 원칙은 정립되지 않고 있다. 본 연구는 이러한 문제를 해결하고자 피의자의 권리 보호에 초점을 맞춘 사법적 원칙과 국민의 알 권리를 강조하는 저널리즘 원칙을 적절히 조화시켜 윤리적 피의사실 보도의 기준을 마련하기 위한 시도이다. 연구는 법원 판례와 언론 윤리강령을 기초로 피의사실 보도의 정당성을 확보할 수 있는 일곱 가지 요건을 시론적으로 도출해 제안했다. 연구는 첫째, 피의자가 공인일 경우, 둘째, 국민 안전과 제도 개선에 기여할 경우, 셋째, 반사회적 중대 범죄로서 유무죄 여부에 다툼이 없는 경우 피의사실 보도가 가능하며, 그러한 경우에도 넷째, 독립적 취재와 교차 검증, 다섯째, 수사기관과 피의자 사이의 균형, 여섯째, 정보원의 투명성이 필요하며, 일곱째, 수사 단계별 중계 보도는 지양해야 한다고 주장했다. 이러한 제안의 취지는 모든 피의사실 보도를 엄격히 금지하는 것도, 피의사실을 무분별하게 보도하는 것도 바람직하지 않으며, 언론은 제한된 조건에서 신중하고 절제된 방식으로 피의사실을 보도해야 한다는 데 있다. 연구는 또한 제시한 피의사실 보도의 요건을 몇 가지 실제 범죄 수사 보도 사례에 적용하여 문제점과 개선점을 파악해보았다.
The media’s indiscriminate reporting of facts related to suspect crimes has been a recurring source of social controversy, yet clear standards and principles for responsible criminal investigation reporting have not been established. There are conflicting arguments, either dismissing all reporting of suspect crime facts or advocating that such reporting is entirely acceptable. To address these issues, this study seeks to establish standards for ethical criminal investigation reporting by striking a balance between judicial principles focusing on the rights of the suspect and journalistic principles emphasizing the public’s right to know. Drawing from court precedents and journalistic codes of ethics, the study identifies and proposes seven requirements to justify reporting of facts related to suspected crimes. It argued that such reporting is permissible under the following cases: first, when the suspect is a public figure; second, when it contributes to public safety and institutional improvement; and third, when there is no dispute about the guilt or innocence of serious antisocial crimes. Nevertheless, the study also argued that the following requirements should be met even in these cases. Fourth, independent reporting and cross-verification are required. Fifth, there must be a balance between investigators and suspects. Sixth, transparency of sources is necessary. Seventh, there should be no live coverage of each investigation stage. The proposed approach advocates against a strict prohibition on all reports of facts related to suspected crime while cautioning against indiscriminate coverage. Instead, it recommends that the media report carefully and responsibly under limited and specific conditions. The study also applied the proposed requirements to actual cases of criminal investigation coverage to identify problems and improvements. It acknowledges the difficulty of meeting all seven requirements consistently in every story; however, news consumers increasingly demand exceptionally high ethical standards from the media, which faces a serious crisis of trust and must adapt to survive.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.