Although Artificial Intelligence(AI) brings utility to human civilization, there is a risk of it being abused as a useful tool for various crimes. The recent rapid development of generative AI has caused controversy in various crimes such as the production and distribution of fake news, fraud, and sexual crimes. Europe has already enacted a law to regulate such AI, and Korea has also enacted the AI Framework Act in 2025, presenting standards for management of the AI industry. However, the effectiveness of the new Act 2025 is still questionable as it merely suggests a future direction rather than allowing the state to proactively prevent and actively regulate the risks of AI. The reason for this may be that it is difficult to clearly establish the nature of AI and that there were concerns that the development of related industries would be hindered. The AI Framework Act must be contained the following three things: Firstly, designation of prohibited AI, secondly, mandatory prior screening and certification of high-risk AI, and lastly, sanctions for breaches of duty by business operators should be strengthened. Rather, the current legislative trend is to create new punishment laws for each case, such as the regulation of deepfake pornography. There is concern that this method will lead to the enactment of punishment laws that lack theoretical review. Therefore, a theoretical review is required for detailed classification of high-risk AI, reasonable standards for duty of care under Product Liability Law, and distribution of responsibility among involved entities such as developers and manufacturers.
한국어
인공지능은 인류문명의 발전을 가져올 유용한 도구이기도 하지만, 다양한 범죄 의 도구가 되어 인간에게 위해가 될 수 있는 위험성이 있다. 이미 유럽은 인공지능 을 규제하기 위한 법적 근거를 마련하였고, 우리는 인공지능산업의 관리에 방점을 둔 2025년 인공지능기본법을 제정하였다. 그렇지만 동법은 인공지능의 위험을 사 전적으로 예방하여 적극적으로 규제하기보다는 관리의 방향을 제시하는 데 그쳤다 는 인상을 지우기 어렵다. 여기에는 인공지능의 표지를 명확하게 설정하기 어렵다 는 점과 관련 산업의 위축에 대한 입법자의 염려가 있었기 때문으로 사료된다. 제 정 인공지능기본법에는 인공지능을 위험도에 따라 4단계로 차등화하여 금지되는 인공지능을 지정하고, 고위험 인공지능의 사전 검·인증제도를 의무화하여야 한다. 그리고 의무위반에 대한 제재를 강화하여 건전한 인공지능산업의 발달을 도모할 필요가 있다. 오히려 현재의 입법동향은 딥페이크 음란물 규제처럼 개별적인 처벌법규를 규정하는 방식이다. 이를 통해 향후 인공지능의 통제를 예상하면 아직 이론 적 검토가 필요한 제조물책임법상 제조사의 포괄적 책임을 인정한다거나 과실범의 결과적가중범 형태의 처벌로 이어질 우려가 있다. 결과에 대한 구체적 타당성을 확 보하려는 처벌규정의 신설 이전에, 고위험 인공지능의 상세한 표지와 제조물책임 법상 주의의무의 합리적 기준, 그리고 개발자와 제조사 등 관여 주체들 간의 책임 분배를 위한 이론적 검토가 필요할 것이다.
오늘날 대륙법계 국가는 물론 영미법계 국가에서도 제정법의 중요성이 점증하고 있음에도 불구하고 그동안 법학의 주된 관심은 해석법학에 머무르고 있는 것이 현실이다. 같은 맥락에서 법률전문가들도 한결 같이 법의 해석·적용에만 천착하고 있을 뿐이며 해석·적용의 전제가 되는 입법 자체에 대하여 관심과 소양을 가지고 있는 전문가는 찾아보기 힘든 실정이다. 국민의 여론을 충실히 반영하면서도 형평성과 체계성·조화성 등을 고루 갖추어 헌법과 입법원칙에 부합하는 입법이 적시에 이루어진다면 불필요한 법적 분쟁을 예방하고 국민의 법 생활을 윤택하게 하며 법치주의의 성공적인 구현에 크게 기여할 수 있을 것이다. 입법학회는 이러한 전제 하에 올바른 입법을 위한 이론적 토대를 마련하기 위한 학문적 탐구를 진행하고자 함.