2025 (14)
2024 (12)
2023 (10)
2022 (15)
2021 (15)
2020 (14)
2019 (13)
2018 (13)
2017 (13)
2016 (7)
2015 (8)
이용수:113회 딥페이크 기술에 의한 인격권 침해 검토 - 초상권을 중심으로 -
언론중재위원회 미디어와 인격권 제11권 제1호 2025.04 pp.43-76
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
인공지능의 심층학습을 기반으로 이미지 등을 정교하게 생성해 낼 수 있는 딥페이크 기술은 다양한 분야에서 유용하지만, 부정적으로 사용될 경우 명예훼손, 사생활 침해, 초상권 침해, 저작인격권 침해 등 인격권이 침해될 수 있다. 딥페이크 기술은 주로 사람의 이미지를 이용하여 사실이 아닌 이미지를 생성함으로써 일차적으로 초상권의 문제가 제기될 수 있고, 초상권을 보호하여 딥페이크 이미지 생성을 제한할 경우 표현의 자유가 제한될 수 있다. 초상권과 표현의 자유는 모두 헌법적으로 보장되는 권리로서 명확하게 우열을 가리기 쉽지 않고 국가마다 입장에 차이가 있으며 사안마다 어느 권리에 중점을 둘 것인지 다르게 판단될 수 있다. 미국은 표현의 자유를 중요한 가치로 보호하는 가운데, 국내법의 경우에는 공익인 경우와 공익이 아닌 경우, 사실인 경우와 허위의 경우를 구별하여 판단해야 할 것으로 보인다. 초상권은 인간의 존엄 및 행복추구권에 근거하고, 표현의 자유는 언론, 출판의 자유에 근거하면서 국가안보나 사회 질서를 저해하지 않는 범위에서 보장된다는 제한이 있다. 딥페이크 기술에 의해 사실에 기반한 공적 인물의 초상 이미지나 과거 사실의 재현에 대해서는 표현의 자유가 초상권에 우선하여 보호될 여지가 있다. 반면, 공적 인물이 아닌 인물의 딥페이크 결과물이나 공적 인물과 관련한 허위사실의 딥페이크 결과물은 표현의 자유를 우선하여 보호할 근거가 없고 초상권이 우선하여 보호되어야 할 것으로 보인다. 초상권과 표현의 자유의 충돌 문제를 완화하기 위하여 초상권이 인권의 하나이고 표현의 자유에 책임이 전제되어야 한다는 인식이 확산되어야 할 것으로 본다.
Deepfake technology, which can generate images through the deep learning subset of artificial intelligence, is useful in various fields. However, owing to its negative application, it may lead to the violation of personal rights, including defamation, invasion of privacy, infringement of portrait rights and infringement of author’s moral rights. Deepfake technology primarily raises portrait rights issues by creating misleading images of human likenesses. However, protecting these rights may limit freedom of expression if deepfake generation is restricted. Both portrait rights and freedom of expression are constitutionally protected, but their relative importance varies from country to country. Thus, different judgments may be made regarding which right to prioritize in each case. While the United States places a high value on freedom of expression, domestic law seems to require different judgments depending on whether the case involves public interest, truthfulness, or falsity. Portrait rights are grounded in human dignity and the right to pursue happiness, whereas freedom of expression is based on freedom of speech and publication and is limited only when it threatens national security or social order. In cases involving deepfake technology, freedom of expression may take precedence over portrait rights when the images involve public figures based on factual contents or representation of past events. However, deepfake content that deals with false information about non-public figures or public figures may not be protected by freedom of expression; thus, in such cases, portrait rights can be prioritized. To alleviate the conflict between the right of portrait and freedom of expression, it is essential to promote the understanding that the right to one's image is a human right and that freedom of expression must be exercised with responsibility.
이용수:82회 가짜뉴스(fake news)란 무엇인가? - 가짜뉴스 개념과 범위에 대한 다차원적 논의 -
언론중재위원회 미디어와 인격권 제4권 제2호 2018.12 pp.173-214
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
이 글은 가짜뉴스는 무엇이며, 또 어디까지를 가짜뉴스로 볼 것인가에 대한 문제의식에서 출발했다. 이에 이 글은 연구자들이 지금까지 제시해 온 가짜뉴스라는 용칭, 개념, 그리고 범위의 적합성에 대해 비판적으로 검토했다. 이를 토대로 법률적, 저널리즘적, 기술적, 정치사회적 관점에서 가짜뉴스의 의미와 타당성을 통합적으로 논의해 보았다. 논의 결과를 정 리하면 다음과 같다. 첫째는 가짜뉴스의 개념적 타당성을 검토하고, 이를 허위정보와 구분할 필요가 있다는 점을 제안했다. 둘째 가짜뉴스가 성립 되기 위한 개념적 조건으로 정보의 허위성, 의도성, 형식성이 특별히 고 려되어야 한다는 점을 제안했다. 셋째는 가짜뉴스의 규제는 표현의 자유 권 차원에서 최소화되어야 한다는 점을 제안했다. 넷째는 가짜뉴스를 정 파적 갈등과, 이념적 대립이라는 정치사회적 토양위에서 작동하는 ‘정치 적 커뮤니케이션 현상’으로 파악했다. 다섯째는 가짜뉴스는 확증 편향성, 부정적 편향성, 그리고 동조화 폭포현상과 같은 심리적 기제를 통해 집단 극단화되는 양상을 보인다는 점을 지적했다. 가짜뉴스의 개념과 범위를 한국 정치사회 환경과 관련지어 토론했다.
This paper examines the question of what fake news is and how far it should be viewed as such. It critically reviewed the relevance of the concept of fake news, its condition, and the scope that contemporary researchers have presented. Based on this, the researchers discussed the meaning and validity of fake news concerning its legal, journalistic, technical, political, and social aspects. First, it was found that, after the researchers reviewed the conceptual validity of fake news, action should be taken to distinguish fake news from misinformation. Next, it was proposed that the falsity, intention, and formality of information should be specially considered as conceptual conditions for the establishment of fake news. Third, it suggested that regulation of fake news should be minimized when discussing the freedom of expression. Fourth, the research identified fake news as a “political communication phenomenon” which operates on the political and social environment of conflict and ideological confrontation. Fifth, it was determined that fake news exhibits a pattern of group polarization through psychological mechanisms, such as confirmation bias, negativity bias, selective interpretation. The study focused its discussion of the concept and scope of fake news on the Korean political and social environment.
이용수:79회 범죄자 신상공개와 인격권
언론중재위원회 미디어와 인격권 제6권 제2호 2020.12 pp.43-79
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
이 글에서는 범죄자의 신상정보가 언론에서 공개되는 경우와 성범죄자 신상공개제도에 의해 공개되는 경우를 살펴본 다음, 사인이 공익을 내세 우며 다른 사람의 신상정보를 공개하는 현상에 대해 검토하였다. 범죄자의 신상정보를 언론에서 공개하는 것이 가능한지 여부는, 범죄 자의 인격권과 공공의 정보에 대한 이익 사이의 비교형량에 의해 판단해 야 할 것이다. 이를 위해서는 범죄 사실이 그 행위를 한 사람의 어떠한 인격영역에 관련되는지, 공개되는 방법과 공개되는 내용이 어떠한지, 사 법절차가 진행되는 단계와 증거의 명확성, 해당 범죄에 대해서 갖는 공공 의 정보에 대한 이익 등이 검토되어야 한다. 성범죄자의 신상정보를 공개하는 제도는 미국에서 중벌주의 형사정책 에 기초하여 만들어진 제도이다. 반면에 유럽은 성범죄자의 신상정보를 등록하는 제도를 두고 있으나, 이를 공개하는 제도는 두고 있지 않다. 성 범죄자의 신상정보 공개는 인격권을 침해하는 정도가 중대하다. 반면에 잠재적인 피해자와 사회를 보호한다는 공익이 신상공개제도에 의해 달성 되고 있는지는 명확하지 않다. 또한 이는 범죄자를 인격의 주체가 아니라 수단으로 취급하는 것이어서 인간의 존엄성을 침해할 위험성도 갖고 있다. <디지털 교도소> 사안의 경우 인격권을 침해하는 정도가 중하며, 사적 제재라는 점에서 공공의 이익을 인정하기 어렵다. 반면에 <Bad Fathers> 사안의 경우 인격권을 침해하는 정도가 상대적으로 크지 않다고 할 수 있다. 이는 양육비 지급 행위를 유도할 수 있으므로 양육비 미지급 문제 의 해결 수단이 될 수 있다. 그러나 이 경우도 신상정보가 공개되는 사람 은 다른 사람들의 양육비 지급을 강요하기 위한 수단으로 이용되는 것이 므로, 인간의 존엄성 관련 문제가 제기될 수 있다. 최근 정부가 양육비 미지급자의 신상정보 공개를 추진하기로 했다고 한다. 그러나 신상정보 공개 제도가 갖는 문제점을 고려하면, 국가에서 이러한 제도를 도입하는 것에는 신중할 필요가 있다.
Whether it is possible to disclose a criminal's personal information in the media should be judged by balancing the criminal's personality rights against the public interests of information. The balancing process should examine the area of personality associated with a criminal fact, how it is disclosed and what is disclosed, the stage of the judicial process, the clarity of evidence, and the public interest in the information about the crime etc. Disclosure of personal information of sex offenders seriously infringe their personality rights. On the other hand, it is not clear whether the public interests in protecting potential victims and society is being achieved. Since it treats criminals as means rather than as a subject of personality, there is a risk of infringing on human dignity. In the case of <Digital Prison>, the degree of infringement of personality rights is serious, and it is difficult to recognize the public interest in that it is private retaliation. On the other hand, in the case of <Bad Fathers>, the degree of infringement of personality rights is relatively small. Since this can induce payment of child support, it can be a means of solving the problem of non-payment of child support. However, even in this case, the problem of infringement of human dignity may be raised. It is said that the government recently decided to disclose the personal information of non-payers of child support. However, considering the problems of the personal information disclosure system, it is necessary to be cautious about introducing such a system.
이용수:61회 유튜브 딥페이크(deepfake) 영상과 허위사실공표
언론중재위원회 미디어와 인격권 제8권 제1호 2022.04 pp.1-47
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
인공지능 기술이 발달함에 따라 진짜 같은 가짜 동영상을 만들 수 있 게 되면서 예전에는 없었던 새로운 법적인 문제들이 생겨나고 있다. 2020년 말 엘리자베스 2세 영국 여왕이 크리스마스 인사를 하고 춤까지 추는 가짜 동영상이 공개된 적이 있었다. 딥페이크의 위험성을 경고하기 위해 2018년에는 오바마 전 미국 대통령이 “트럼프 대통령은 정말 쓸모 없는 사람”이라고 말하는 가짜 동영상이 공개되기도 했다. 최근 우리나라 에서도 선거가 얼마 남지 않은 시점에 어느 전직 대통령이 특정한 대선 후보를 지지한다는 내용의 딥페이크 동영상이 여당의 공식 유튜브 채널 에 게시되었다가 논란이 일자 삭제되는 일이 있었다. 그런데 선거를 앞두고 후보자에 관한 가짜 동영상이 유튜브(YouTube) 에 게시되면 유권자가 후보자를 선택하는 데에 부정적 혹은 긍정적 영향 을 미치게 되고 이는 결국 선거의 공정성을 전제로 하는 대의민주주의에 중대한 위협이 된다. 이에 미국의 캘리포니아주와 텍사스주는 공직선거의 후보자나 선거결과에 영향을 미칠 수 있는 딥페이크 동영상을 규제하는 법률을 제정하여 시행하고 있다. 가짜 동영상을 가리키는 “딥페이크(deepfake)”라는 단어는 “딥러닝(deep learning)”과 “가짜(fake)”의 합성어로서, “진짜처럼 보이기 위해 조작된 이미지, 오디오 또는 비디오”를 가리킨다. 그런데 캘리포니아주의 딥페이크금지법은 선거의 공정이라는 ‘긴절한 국가의 이익’을 달성하기 위하여 언론의 자유에 대해 최소한의 규제만을 하는 것이라고 하기 어렵고, 언론 의 자유에 관한 연방대법원의 ‘현실적 악의’의 법리 때문에 동 법이 실제 사례에 적용되기 어렵다는 비판이 제기되고 있다. 따라서 이러한 비판적 견해에 의하면 딥페이크는 명예훼손법이나 저작권법 등을 통해 규율하는 것이 더 바람직하다고 한다. 한편 텍사스주의 딥페이크금지법은 ‘현실적 악의’의 법리를 규정하지 않고 있고, 패러디나 풍자를 동 법의 적용예외 로 규정하고 있지 않으므로 연방 헌법에 위반된다는 주장이 제기되고 있 다. 최근 우리나라의 중앙선거관리위원회는 ‘딥페이크 영상 관련 법규운용 기준’을 제정하여, 딥페이크 영상을 이용한 선거운동은 가능하지만 “딥페 이크 영상(AI OOO)”임을 표시하지 않는 경우 「공직선거법」 제250조에 위반된다는 유권해석을 내놓았다. 그러나 딥페이크 영상임을 표시해야 하 는 법적인 근거가 명확하지 아니할 뿐만 아니라, 이러한 유권해석은 언론 의 자유에 대한 사전 제약으로서 위축효과를 가져올 것으로 보인다. 한편 딥페이크 선거운동을 금지하는 내용의 「공직선거법」 개정안이 국회에서 발의되었으나, 기존의 ‘허위사실공표죄’로도 딥페이크를 충분히 규제할 수 있으므로 새로운 처벌 규정을 신설할 필요는 없는 것으로 보인다.
With the advent of Artificial Intelligence technology, fake videos that look completely real can be created, making new legal problems that have not existed before. At the end of 2020, a fake video of British Queen Elizabeth Ⅱ greeting and dancing for Christmas was released. Also, a deepfake video that former U.S. President Obama called President Trump “a total and complete dipshit” was disclosed to alarm the danger of deepfakes in 2018. Recently, even in South Korea, with the presidential election just around the corner, the ruling party posted on its official YouTube channel a deepfake video to the effect that a former Korean President declared support for a presidential candidate. The controversy over the video, however, made the party take down it from the channel. If a deepfake video about a candidate is posted on YouTube ahead of the election, which negatively or positively affects voters’ choice of candidates, it may pose a serious threat to democracy that is based on fair elections. Therefore, California and Texas in the United States have passed election laws regulating an act of distributing a deepfake video which may injure a candidate or influence the result of an election. The term “deepfake”, which refers to a fake video, is the compound word of “deep learning” and “fake,” and can be said to be “manipulated images, audio or video, designed to make the altered media seem authentic.” However, the California law regulating deepfakes immediately before an election is criticized on the ground that it is not a narrowly tailored restriction on freedom of speech to achieve the compelling government interest such as fair elections. It has also been criticized because it can be rarely applied to a case due to the actual malice rule of the U.S. Supreme Court. According to this criticism of the law, it is more desirable to regulate deepfakes with the defamation or copyright laws. Meanwhile, some critics argue that the Texas anti-deepfake law is unconstitutional not only because it does not prescribe for the actual malice rule, but also because it does not exempt its application to parody or satire. Recently, the National Election Commission in South Korea promulgated the “Standard for the Application of the Law on Deepfake Videos” and issued an authoritative interpretation that an act of posting a deepfake video on the Internet without indicating that it is “a deepfake video (AI OOO)” violates Article 250 of the Public Official Election Act. However, there is no expressive legal ground under the law to display that it is a deepfake video. In addition, this requirement may cause a chilling effect on freedom of speech because it is a prior restraint. In the meantime, it seems reasonable to conclude that no additional criminal punishment law needs to be passed because the current law punishing an act of publishing false statement of facts during an election can adequately regulate deepfake videos although a bill to criminalize deepfakes was introduced in the National Assembly.
이용수:60회 미디어 콘텐츠에 대한 공동규제 - 독일에서의 ‘규제된 자율규제’ 시사점을 중심으로 -
언론중재위원회 미디어와 인격권 제10권 제1호 2024.04 pp.37-72
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
미디어 콘텐츠에 대한 내용심의는 행정규제기관을 통한 국가규제와 국가와 민간이 공동으로 수행하는 공동규제, 시장의 필요에 따라 운영되는 자율규제로 나뉜다. 행정규제는 효율적이고 안정적일 뿐만 아니라, 제도적 효용성도 오랫동안 입증됐다. 그러나 디지털 미디어 환경 등장으로 순간마다 새로운 콘텐츠가 온라인에 올라온다. 이러한 환경변화로 미디어 콘텐츠의 유해성을 숙의해야 하는 내용심의에서 무한한 새로운 콘텐츠 생성에 맞는 제도가 필요하다. 규제된 자율규제와 같은 공동규제는 행정규제의 비효율성을 보완할 수 있는 대안으로 등장했다. 규제된 자율규제는 독일을 비롯한 유럽연합 회원국에서 이미 정착된 제도이다. 독일은 행정규제기관이 민간 자율규제기구에 국가 임무의 일부를 위임하고, 자율규제기구가 수행할 규칙을 제시한다. 자율규제기구는 이러한 규칙을 지키기 위한 자체 강령과 규칙을 정한다. 또 자체적인 자율규제기구 운영에 필요한 자원을 부담한다. 공동규제 제도 도입은 미디어 사업자에게 미디어 콘텐츠 생산과정에서 좋은 콘텐츠를 유통하기 위한 책무를 실천하라는 사회적 요구이며, 동시에 미디어 수용자가 미디어 소비과정에서 해로운 콘텐츠를 비판적으로 수용할 수 있도록 미디어 리터러시를 강화해야 함을 의미이다. 이러한 제도를 한국에 도입하기 위해서는 행정기관에 의한 국가 임무의 부분 위임과 공동규제기구가 내린 결정에 대한 법적 구속력 보장이 필요하다.
Post facto reviews of media content can be categorized into three main systems: national regulations by administrative regulators, coregulation involving the state and the private sector, and self-regulation tailored to market needs. Among these three, administrative regulations, known for their efficiency, stability, and proven institutional effectiveness, face challenges with the advent of the digital media environment, where new content is continuously uploaded online. These changes necessitate a content review system capable of addressing the endless creation of new content in content and assessing the potential harm of media content. Meanwhile, coregulation and regulated self-regulation have emerged as alternative solutions to overcome the limitations of administrative regulation in the digital age. The European Union, including Germany, has successfully implemented regulated self-regulation. In this mode, Germany’s administrative regulatory agencies delegate certain national duties to private self-regulatory organizations tasked with establishing their codes and guidelines in alignment with the stipulated guidelines. These organizations also allocate resources to support their self-regulatory operations. The push for a joint regulatory system reflects a social demand for media operators to be accountable for producing quality content in the media content production process while also emphasizing the need to enhance media literacy. This directive ensures that audiences can critically engage with and discern harmful content. Implementing such a system in Korea would require the partial delegation of national duties to administrative agencies and the establishment of legal authority for decisions made by coregulatory bodies.
이용수:57회 인공지능과 허위조작정보에 관한 연구
언론중재위원회 미디어와 인격권 제9권 제2호 2023.08 pp.37-82
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
본 논문에서는 인공지능 기술을 활용하여 생산・유통하는 허위조작정보와 관련된 법률적 쟁점 및 시사점을 다음과 같이 제언한다. 첫째, 인공지능 및 허위조작정보의 명확한 법적 개념을 마련하지 않고 규제 입법을 하는 경우 어떤 내용의 인공지능 또는 허위조작정보가 규제 대상이 되는지, 어느 범위까지 적법한지 등에 대한 예측가능성을 확보하기 어렵다. 따라서 인공지능 및 허위조작정보의 법적 개념, 보호 대상 등이 불명확하여 이를 규제하기 위한 법률 제정이 수월하지 않은 상황에서는 적용 가능한 현행 법률을 적극적으로 활용하여야 한다. 또한 인공지능 및 허위조작정보에 대한 사례를 분석한 결과를 축적하여 개념 정의, 보호 범위 등을 명확하게 마련할 수 있는 시점에 인공지능을 활용한 허위조작정보를 규제하는 법률을 제정하는 것이 타당하겠다. 둘째, 인공지능 알고리즘이 편향되는 경우에는 정확하지 않은 데이터를 기반으로 하거나 사실을 왜곡하는 정보 등으로 인하여 특정인・특정 집단・특정 의견 등을 무시하거나 차별할 우려가 있다. 특히 이용자가 이러한 알고리즘 편향성을 인식하지 못하여 정확한 가치 판단의 기회를 상실할 수 있고, 인공지능이 허위조작정보 확산 수단으로 악용될 우려가 있다. 따라서 이용자들이 편향성 여부를 판단하기 어려운 알고리즘에 대하여 공인된 기관이 마련하여 제공한 알고리즘 검증프로그램을 통하여 언제든지 알고리즘을 투명하게 검증할 수 있도록 하고, 진실성 여부가 논란이 되는 정보에 대해서는 찬성과 반대 과정을 이용자들이 살펴볼 수 있도록 하여야 한다. 이와 함께 논란이 해소되지 않은 정보의 추천서비스를 자제하도록 하여 확증편향의 문제점도 함께 해소할 필요가 있다. 셋째, 허위조작정보를 규제하기 위해서는 해당 정보가 허위라는 사실을 규명하여야 한다. 사법부의 종국적 판단 이전에 행해진 행정부의 허위성 판단이 사법부의 종국적 판단과 상이한 경우에는 인터넷상 언론표현의 자유를 제한하거나 위축시킬 우려가 있다. 따라서 허위조작정보 규제 필요성에 대한 사회적 공감대를 형성하고, 유럽연합과 같이 일률적인 규제보다는 사회적 영향력이 큰 인터넷서비스제공자를 상대로 일정한 의무를 부여하는 등 선별적이고 순차적인 규제 사례를 참고할 필요가 있다. 넷째, 편향된 알고리즘으로 구성된 인공지능을 통하여 허위조작정보를 생산하고 유통함으로써 피해자가 발생한 경우, 고의 또는 과실로 인한 위법행위로 타인에게 손해를 가한 자에 대한 손해를 배상할 책임을 누구에게 물을 것인지 불분명하여 민사책임에 있어서의 행위책임 원칙을 훼손할 우려가 있다. 또한, 편향된 인공지능을 통하여 유통되는 허위조작정보를 예방하기 위하여 해당 정보 삭제 또는 차단 등의 조치를 요구하는 경우 누구를 대상으로 해야 하는지도 불분명하다. 따라서 가해자 특정, 인공지능이 악용되었다는 사실 및 특정 정보의 허위성 등을 피해자가 입증하기란 쉽지 않기 때문에 손해배상 청구를 위한 가해자의 고의 또는 과실 여부, 그로 인한 위법행위로 손해가 발생하였다는 인과관계 등의 입증책임을 가해자에게 전환하여 피해자 보호를 강화하여야 하며, 해당 정보 삭제 또는 접속차단 등의 시정요구 상대방을 명확하게 특정하여야 한다.
This paper discusses legal issues and implications concerning the production and dissemination of disinformation using artificial intelligence (AI) technology. First, defining clear legal concepts of AI and disinformation poses challenges, leading to uncertainty in regulating and determining their legality and scope. Therefore, when legal concepts and protections of AI and disinformation are unclear and enacting laws to regulate them is challenging, existing laws should be actively used. Second, biased AI algorithms may lead to the risk of neglecting or discriminating against specific people, groups, and opinions based on inaccurate data or distorted facts. In addition, if users are unaware of such algorithm biases, there is a risk of abusing AI to spread false and manipulative information. Therefore, preparing and providing an algorithm verification program that allows users to verify biases at any time and offers transparency in the approval and opposition process is essential to mitigate this. Third, regulating disinformation necessitates confirming its falsity. However, premature making false judgments before the judiciary’s final judgment may impinge on the freedom of speech on the Internet. Therefore, it is necessary to refer to the introduction of selective and sequential regulatory systems, such as forming a social consensus on the need to regulate disinformation and imposing certain obligations on Internet service providers with significant social influence rather than uniform regulations like those in the European Union. Fourth, the responsibility for damages to others resulting from the intentional or negligent production and dissemination of disinformation through biased algorithms remains unclear. Therefore, shifting the burden of proving the perpetrator’s intention or negligence can strengthen victim protection.
이용수:56회 AI 창작물과 저작인격권에 관한 탐색적 연구
언론중재위원회 미디어와 인격권 제9권 제2호 2023.08 pp.83-122
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
AI와 저작권에 관한 기존 연구는 대부분 저작재산권에 집중되었고, AI와 저작인격권의 관계에 관한 연구는 상대적으로 빈약한 편이었다. 이에 본 연구는 저작인격권에 관한 기존 법리를 AI 창작물에 적용해봄으로써 AI와 같은 비인간 창작물과 저작인격권의 관계와 쟁점을 검토하고 입법상의 개선안을 모색할 수 있는 기초 자료를 제공하는 것을 목적으로 한다. 이와 같은 연구목적에 따른 연구문제는 AI 창작물에 저작인격권을 인정하는 것이 타당한지와 그 근거는 무엇인가이다. 저작인격권에 관한 전체적인 의미를 다룬 판례와 AI 창작물에 관한 저작권법적 분쟁 사례 및 명시적인 판례가 거의 부재하므로, 본 연구에서는 저작인격권에 관한 기존의 학술적 논의와 입법례를 검토하였다. 우선 저작인격권의 개념과 본질, 타당성 논쟁을 중심으로 법적 성격을 살펴보았고, 각국의 저작인격권 입법례의 특징을 검토하였다. 이와 같은 저작인격권에 관한 법리를 토대로 하여 AI 창작물과 저작인격권의 관계에 대해 탐색적으로 논의하였다. 그 결과 기본적으로 인간에게만 저작권을 인정하는 저작권의 일반 법리나 저작물에 표현된 저작자의 인격적・정신적 이익을 보호하는 저작인격권의 기본 원칙에 기초할 때, 인격적 이익이 없는 AI가 만든 창작물에 대한 저작인격권 인정은 타당하지 않다.
Most discussions about copyright and artificial intelligence (AI) focus on the author’s economic rights, which enable copyright holders to derive income from others’ use of their literary or artistic works. In contrast, the relationship between AI and the author’s moral rights, which safeguard the personal connection between a creator and their work, remains relatively obscure. This study aims to address the relationship between moral rights in copyright and works generated by nonhuman AI entities, seeking a legislative proposal for reform by applying fundamental legal principles governing moral rights in AI-generated works. Due to the scarcity of judicial cases dealing with the overall meaning of moral rights and conflict cases on the copyright in AI-generated works, this research examines existing discussions on moral rights and relevant legislative cases. To discuss the fundamental legal doctrines of moral rights, this research analyzes the legal characteristics of moral rights, with a specific focus on their concepts, nature, and debates concerning the validity of granting moral rights within the scope of copyright. This research also reviews the legislation cases, such as laws on moral rights in France, Germany, the United Kingdom, the United States, and Korea; the Copyright Act of 1957 of Korea; former law for the protection of computer programs of Korea, which was integrated into Copyright Act in 2009; copyright laws on computer-generated works, such as Copyright, Designs and Patents Act of 1988 in the United Kingdom. The findings indicate that granting moral rights to AI-generated words, devoid of personal rights, is not justifiable based on general legal doctrines of copyright, which solely confer rights to human beings, and the fundamental principles of moral rights that protect the personal and spiritual interests of authors as represented in their works.
이용수:49회 언론인의 번아웃과 대처, 회복 경험에 관한 연구
언론중재위원회 미디어와 인격권 제11권 제1호 2025.04 pp.77-128
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
본 연구는 언론인들의 번아웃과 회복 경험 특징과 대처 방법에 관해 탐구하고자 하였다. 이를 위해 본 연구에서는 현재 언론사에 재직 중인 근무경력 7년 이상인 언론인 중, 번아웃을 경험한 14명의 연구참여자를 대상으로 근거이론에 입각하여 심층 면접을 실시하였고, 개방코딩에서 총 168개의 개념, 40개의 하위 범주, 21개의 범주를 도출했다. 언론인의 번아웃과 회복 경험의 특징 및 관련 요인에 대해 전반적으로 고찰한 결과, 자기인식이 부정적일수록 번아웃 정도가 심각했고, 대처 방법이 부족할수록 회복 수준이 낮은 경향이 나타났다. 언론인들은 적극적인 외부 활동을 통해 번아웃을 극복했고, 회복 결과 부정적 자기 인식이 개선되고, 업무에서도 긍정적인 변화를 경험한 것으로 확인되었다. 또한 언론인의 번아웃과 회복 경험은 크게 ‘직업긍지형’, ‘대안모색형’, ‘인정추구형’, ‘고군분투형’의 네 가지 유형으로 확인되었다. 본 연구는 기존에 번아웃에 주로 초점을 맞추었던 연구들과 달리, 언론인 번아웃의 대처 방법 및 회복 경험에 대해 실체적인 이론적 접근을 시도했다는 데 의의가 있다. 아울러 본 연구는 언론인들의 번아웃과 회복 경험 및 그에 영향을 주는 요인들을 밝혔고, 이를 다시 유형별로 분석하여 개인의 심리 내적 상태와 대처 방법에 따라 번아웃과 회복이 다양하게 나타날 수 있다는 것을 보여주었다는 데서 연구의 가치를 찾을 수 있다.
This study aims to understand the characteristics, coping mechanism, and recovery experiences of journalists who have experienced burnout. To this end, this study conducted in-depth interviews with 14 research participants who are currently employed in a media organization and have more than seven years of experience in the field. The data collected was analyzed using the grounded theory method. A total of 168 concepts, 40 subcategories, and 21 categories were derived from open coding. A review of the overall characteristics of journalists' burnout and recovery experiences and related factors found that the more negative their self-perceptions are, the more severe their burnout. This also results in lower levels of coping and recovery. Journalists overcame burnout through active external activities. After recovery, negative self-perception improved, and positive changes in work were observed. Four types of burnout and recovery experiences among journalists were identified: job security, alternative seeking, recognition seeking, and struggle seeking. Unlike previous studies that focused on the burnout of journalists, this study is meaningful in presenting a substantive theory on how to recover from and cope with burnout based on the journalists’ actual experiences.
이용수:47회 행정의 디지털 전환에 따른 인공지능 규제의 최근 동향과 시사점 - 인공지능에 대한 인격권 보호의 문제를 겸하여 -
언론중재위원회 미디어와 인격권 제9권 제2호 2023.08 pp.1-36
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
행정의 디지털 전환과 인공지능은 시대의 화두이다. 디지털화와 인공지능시스템은 방대한 데이터의 수집・처리를 하지만, 개인정보의 유출로 인격권이나 프라이버시권을 중대하게 침해할 수도 있다. 또한 알고리즘에 의한 인공지능시스템은 자유로운 정치적 의사 형성을 왜곡할 수 있고, 딥페이크 기술을 이용한 가짜 뉴스는 정치인의 명예를 심각하게 실추시킬 수 있다. 이처럼 디지털화와 인공지능은 인간의 존엄권, 기본권, 민주주의와 같은 헌법의 기본가치를 훼손할 수 있다. 그런 점에서 인공지능에 대한 규제가 필요하며, 이를 어떻게 설계할 것인지는 현대국가의 중요한 과제다. 특히 인공지능시스템은 절차적 요건에 취약하며, 이에 대한 민주적 통제가 보완되어야 한다. 인공지능에 의한 행정자동결정에도 절차적 정당성을 확보하여야 하며, 이를 위해 시민의 참여뿐만 아니라 절차 공개를 통한 투명성이 보장되어야 한다. 인공지능시스템에 대한 규제에는 다양한 방식이 있지만, 기업의 자율규제를 보장하면서 국가의 규제를 유보하는 ‘규제된 자율규제’의 방식이 바람직하다. 신(新)산업의 인공지능에 대해서는 규제샌드박스를 활용할 수 있다. 하지만 인공지능시스템이 초래할 수 있는 리스크를 제어하는 것이 중요하며, 또 이러한 리스크를 제어할 수 있는 제도와 절차가 필요하다. 이와 관련하여 유럽연합 인공지능명령안에는 참고할 만한 내용이 포함되어 있다. 법령에서 인간의 존엄이나 인격권을 중대하게 침해하거나 인간의 생명・안전에 명백히 치명적인 위험을 줄 수 있는 인공지능시스템은 금지해야 한다. 높은 리스크의 인공지능에 대한 규제가 중요하다. 이러한 높은 리스크의 인공지능에 대해서는 리스크관리시스템을 설정해야 한다. 리스크관리시스템은 대체로 리스크의 조사 및 관찰, 리스크의 평가, 리스크의 관리 및 통제로 구성된다. 리스크의 조사가 제대로 이루어지기 위해서는 높은 리스크의 인공지능을 데이터베이스에 등록하고 이를 추적할 수 있는 시스템을 마련해야 한다. 또한 등록된 데이터에 기초하여 높은 리스크의 인공지능에 대한 평가가 전 생애에 걸쳐 지속적으로 이루어져야 한다. 리스크의 관리 및 통제에서 규제 거버넌스가 효과적으로 작동하도록 규율해야 한다. 행정의 디지털화와 인공지능은 현대국가의 당면과제이자 현안이 되고 있다. 이에 대한 규범적 대응과 관련 법령의 정비가 시급하다.
The digital transformation of public administration and the advent of artificial intelligence (AI) are prominent contemporary topics. The process of digitalization and AI systems entails vast data collection and processing, potentially leading to serious infringement of individuals’ rights to personality and privacy by leaking personal information. In addition, algorithmic AI systems can distort free political decision-making, while deepfake poses a grave threat to the reputation of government officials. As a consequence, digitalization and AI can undermine fundamental constitutional values, such as human dignity, fundamental rights, and democracy. Consequently, regulating AI is necessary, and formulating its design emerges as a crucial issue for modern countries. In particular, AI systems are vulnerable to procedural requirements, necessitating the supplementation of democratic control. Procedural legitimacy should be secured for AI-assisted administrative decisions, and for this purpose, transparency should be guaranteed through procedure disclosure and citizen participation. Various approaches to regulating AI systems exist, but regulated self-regulation that ensures company self-regulation while reserving state regulation is preferable. For AI implementation in emerging industries, regulatory sandboxes can be beneficial; however, controlling the risks that AI systems can cause is important. Procedures and policies are needed for risk management. In this regard, the draft European Union (EU) Regulation on AI is instructive by prohibiting AI systems that gravely infringe on human dignity or personality rights or pose an imminent threat to human life and safety. Regulating high-risk AI is essential, and for such high-risk AI systems, a risk management system must be established promptly. The risk management system generally consists of risk investigation and observation, assessment, and management and control. It is necessary to register high-risk AI systems in a database and establish a system to track them to investigate risks properly. In addition, based on the recorded data, high-risk AI systems should be assessed continuously throughout their life cycle. Moreover, regulatory governance should be strategically designed to manage and control risks effectively. The digitalization of public administration and the rise of artificial intelligence present significant challenges for modern countries. Thus, urgent action is warranted for a normative response and an overhaul relevant legislation in light of these developments.
이용수:46회 인공지능 시대의 저널리즘 원칙 - 언론 관련 판결과 인공지능 가이드라인 분석을 중심으로 -
언론중재위원회 미디어와 인격권 제10권 제2호 2024.08 pp.1-50
※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.
챗GPT를 필두로 하는 생성형 인공지능의 등장은 저널리즘 관행과 언론 환경에 커다란 변혁을 초래하고 있다. 언론의 주된 업무는 문장과 이미지, 동영상 등 콘텐츠 생성이다. 더욱 빠르고 능숙하게 콘텐츠를 만들어내는 생성형 인공지능 기술은 언론 생태계를 뒤흔들 수 있다는 우려와 함께 인공지능이 저널리즘 업무 개선에 도움이 되리라는 기대감도 공존하고 있다. 이러한 상황에서 결국 언론이 되짚어보고 의지해야 할 것은 저널리즘 원칙과 언론윤리이다. 저널리즘이 본질을 잃지 않기 위해서는 기본으로 돌아가서 언론의 역할과 기능, 한계에 대한 고찰이 필요하기 때문이다. 이 연구는 저널리즘 원칙을 되짚어보고, 저널리즘 원칙과 윤리를 구현하는 사법부의 판단을 분석하였다. 언론 관련 국내 판결을 수집하여 살펴본 결과, 저널리즘 원칙에서 강조되는 감시견 기능과 사실 확인 역할은 법원의 언론 관련 판결에서도 중요하게 작동하고 있었다. 즉, 언론의 감시견 기능은 공인에 대한 위법성 조각사유로서 법해석을 통해 강조되고 있었으며, 기자가 사실 확인 역할을 충실히 수행했을 때 위법성이 조각되어 언론 자유를 보장받을 수 있었다. 또한 인터넷 언론 자유에 관한 판결에 비추어볼 때 언론이 인공지능 기술을 활용한다고 하여 언론 자유에 대한 보장과 한계가 본질적으로 바뀌지도 않을 것이다. 특히 인공지능 영역에서는 법을 통한 규제뿐만 아니라 자율규제도 중요하다. 입법을 통해 빠른 기술변화를 따라잡기에는 한계가 있기에 유연한 규제로서의 자율규제 필요성이 점차 커지고 있다. 이러한 맥락에서 이 연구는 자율규제 일환으로 해외에서 발표된 22개의 언론 관련 인공지능 가이드라인과 국내에서 발표된 3개의 언론 인공지능 가이드라인을 수집하여 분석했다. 그 결과, 언론의 인공지능 가이드라인들은 각각 명칭과 내용, 분량 측면에서 차이가 있었지만 주요내용으로 (1) 민주주의와 저널리즘 원칙 보호, (2) 생성형 인공지능 활용범위 제시, (3) 인간의 감독과 사실 확인, (4) 투명성과 라벨링 표시 의무, (5) 타인의 창작물 보호, (6) 공정성과 비편향성, (7) 데이터와 영업비밀 보호 등을 담고 있었다. 그러나 언론의 인공지능 준칙과 가이드라인은 그 내용과 제정과정에서 여러 한계도 있었다. 이 연구는 인공지능 가이드라인의 향후 개선방향을 제시하여 인공지능 시대에도 언론이 민주주의 제도의 필수불가결한 요소로서 작동할 것을 강조했다.
The rise of generative artificial intelligence (AI), epitomized by ChatGPT, is transforming journalism and the media landscape. Generative AI, which can rapidly and skillfully create content such as text, images, and videos, presents both challenges and opportunities for journalism. Concerns arise over potential disruptions to the journalism ecosystem, while expectations grow that it could enhance journalistic practices. In this evolving landscape, journalistic principles and ethics are paramount for maintaining the integrity of the media. This study revisits these principles and examines judicial decisions that reflect journalistic ethics. Legal interpretations have underscored the press's watchdog role, justifying exceptions to illegality for public figures. When journalists diligently perform fact-checking, press freedom has been upheld. Moreover, court rulings on internet press freedom indicate that the core guarantees and limitations of press freedom remain unchanged despite the media's use of AI technology. This study underscores the importance of both legal regulation and ethical self-regulation in the AI era. As laws struggle to keep pace with rapid technological advancements, flexible self-regulation becomes increasingly essential. To this end, the study analyzed 22 foreign and 3 domestic media AI guidelines. Despite variations in title, content, and scope, the main themes across these guidelines include: (1) protecting democracy and journalistic principles, (2) defining the scope of generative AI applications, (3) ensuring human oversight and fact-checking, (4) maintaining transparency and labeling obligations, (5) safeguarding creative works, (6) promoting fairness and unbiasedness, and (7) protecting data and trade secrets. This study also identifies various issues in the content and implementation of media AI guidelines and proposes improvements. It emphasizes that the press must continue to function as a vital component of the democratic system, even in the AI era.
0개의 논문이 장바구니에 담겼습니다.
선택하신 파일을 압축중입니다.
잠시만 기다려 주십시오.