※ 기관로그인 시 무료 이용이 가능합니다.
※ 학술발표대회집, 워크숍 자료집 중 4페이지 이내 논문은 '요약'만 제공되는 경우가 있으니, 구매 전에 간행물명, 페이지 수 확인 부탁 드립니다.
3,000원
원문정보
초록
한국어
본고는 2026년 현재 시점에서 가열되고 있는 AI 기술 표준화 논쟁을 다각도로 분석한다. AI 기술의 급격한 발전 속도와 불 확실성 속에서, 획일적인 표준화가 가져올 혁신 저해 위험성 과 최소한의 표준 필요성 사이의 균형점을 모색한다. 획일적 표준의 단점으로 혁신 저해의 위험성, 규제의 시차, 정보의 비 대칭성을 야기한다는 점에서 획일적 표준화의 단점을 설명하며 그럼에도 불구하고 프로세스 중심 접근, 위험 기반 차등 규 제, 사후 책임 강화를 근거로 표준이 필요한 이유를 제안한다
목차
Abstract Ⅰ. 서론 Ⅱ. AI 표준화의 딜레마 2.1 혁신 저해 가능성 2.2 혁신 저해 가능성 기술 불확실성과 급속한 발전 속도 2.3 규제의 정보 불완전성 문제 2.4 과도한 규제 비용과 오버헤드 2.5 시장 메커니즘의 자율 조정 능력 Ⅲ. AI 표준화 균형점 찾기 3.1 윤리 및 안전성 표준 3.2 데이터 품질 및 거버넌스 3.3 상호운영성 및 인터페이스 표준 3.4 고위험 AI 시스템에 대한 표준화 3.5 투명성 및 설명가능성 3.6 프로세스 중심의 표준화 및 규제 Ⅳ. 결론 Acknowledgement References
저자
김대중 [ Telecommunications Technology Association (TTA) ]