Earticle

현재 위치 Home

[특집논문: AI시대의 입법동향]

인공지능의 형법적 통제에 관한 고찰 - 인공지능기본법을 중심으로 -
A Study on Criminal Regulation of Artificial Intelligence - Focused on the AI Framework Act -

첫 페이지 보기
  • 발행기관
    한국입법학회 바로가기
  • 간행물
    입법학연구 KCI 등재 바로가기
  • 통권
    제22집 제1호 (2025.02)바로가기
  • 페이지
    pp.33-60
  • 저자
    박세영
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A465093

※ 기관로그인 시 무료 이용이 가능합니다.

6,700원

원문정보

초록

영어
Although Artificial Intelligence(AI) brings utility to human civilization, there is a risk of it being abused as a useful tool for various crimes. The recent rapid development of generative AI has caused controversy in various crimes such as the production and distribution of fake news, fraud, and sexual crimes. Europe has already enacted a law to regulate such AI, and Korea has also enacted the AI Framework Act in 2025, presenting standards for management of the AI industry. However, the effectiveness of the new Act 2025 is still questionable as it merely suggests a future direction rather than allowing the state to proactively prevent and actively regulate the risks of AI. The reason for this may be that it is difficult to clearly establish the nature of AI and that there were concerns that the development of related industries would be hindered. The AI Framework Act must be contained the following three things: Firstly, designation of prohibited AI, secondly, mandatory prior screening and certification of high-risk AI, and lastly, sanctions for breaches of duty by business operators should be strengthened. Rather, the current legislative trend is to create new punishment laws for each case, such as the regulation of deepfake pornography. There is concern that this method will lead to the enactment of punishment laws that lack theoretical review. Therefore, a theoretical review is required for detailed classification of high-risk AI, reasonable standards for duty of care under Product Liability Law, and distribution of responsibility among involved entities such as developers and manufacturers.
한국어
인공지능은 인류문명의 발전을 가져올 유용한 도구이기도 하지만, 다양한 범죄 의 도구가 되어 인간에게 위해가 될 수 있는 위험성이 있다. 이미 유럽은 인공지능 을 규제하기 위한 법적 근거를 마련하였고, 우리는 인공지능산업의 관리에 방점을 둔 2025년 인공지능기본법을 제정하였다. 그렇지만 동법은 인공지능의 위험을 사 전적으로 예방하여 적극적으로 규제하기보다는 관리의 방향을 제시하는 데 그쳤다 는 인상을 지우기 어렵다. 여기에는 인공지능의 표지를 명확하게 설정하기 어렵다 는 점과 관련 산업의 위축에 대한 입법자의 염려가 있었기 때문으로 사료된다. 제 정 인공지능기본법에는 인공지능을 위험도에 따라 4단계로 차등화하여 금지되는 인공지능을 지정하고, 고위험 인공지능의 사전 검·인증제도를 의무화하여야 한다. 그리고 의무위반에 대한 제재를 강화하여 건전한 인공지능산업의 발달을 도모할 필요가 있다. 오히려 현재의 입법동향은 딥페이크 음란물 규제처럼 개별적인 처벌법규를 규정하는 방식이다. 이를 통해 향후 인공지능의 통제를 예상하면 아직 이론 적 검토가 필요한 제조물책임법상 제조사의 포괄적 책임을 인정한다거나 과실범의 결과적가중범 형태의 처벌로 이어질 우려가 있다. 결과에 대한 구체적 타당성을 확 보하려는 처벌규정의 신설 이전에, 고위험 인공지능의 상세한 표지와 제조물책임 법상 주의의무의 합리적 기준, 그리고 개발자와 제조사 등 관여 주체들 간의 책임 분배를 위한 이론적 검토가 필요할 것이다.

목차

국문초록
Ⅰ. 서론
Ⅱ. 인공지능 규제의 필요성
Ⅲ. 인공지능기본법에 의한 규제 가능성
Ⅳ. 인공지능의 형법적 통제방안 모색
Ⅴ. 맺음말
참고문헌

키워드

고위험 인공지능 고영향 인공지능 생성형 인공지능 인공지능기본법 인공지능 제조사의 형사책임 High-Risk AI High-Impact AI Generative AI the AI Framework Act Criminal Responsibility of AI Manufacturers

저자

  • 박세영 [ Saeyoung PARK | 한양대학교 법학전문대학원 강사, 법학박사 ]

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국입법학회 [Korean Society of Legislation Studies]
  • 설립연도
    2005
  • 분야
    사회과학>법학
  • 소개
    오늘날 대륙법계 국가는 물론 영미법계 국가에서도 제정법의 중요성이 점증하고 있음에도 불구하고 그동안 법학의 주된 관심은 해석법학에 머무르고 있는 것이 현실이다. 같은 맥락에서 법률전문가들도 한결 같이 법의 해석·적용에만 천착하고 있을 뿐이며 해석·적용의 전제가 되는 입법 자체에 대하여 관심과 소양을 가지고 있는 전문가는 찾아보기 힘든 실정이다. 국민의 여론을 충실히 반영하면서도 형평성과 체계성·조화성 등을 고루 갖추어 헌법과 입법원칙에 부합하는 입법이 적시에 이루어진다면 불필요한 법적 분쟁을 예방하고 국민의 법 생활을 윤택하게 하며 법치주의의 성공적인 구현에 크게 기여할 수 있을 것이다. 입법학회는 이러한 전제 하에 올바른 입법을 위한 이론적 토대를 마련하기 위한 학문적 탐구를 진행하고자 함.

간행물

  • 간행물명
    입법학연구 [Journal of Legislative Studies]
  • 간기
    반년간
  • pISSN
    1229-9251
  • 수록기간
    2000~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 345 DDC 320

이 권호 내 다른 논문 / 입법학연구 제22집 제1호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장