Earticle

현재 위치 Home

인공지능 연산량 감소 기법에 대한 리뷰
A Review of Computational Reduction Techniques in Artificial Intelligence

첫 페이지 보기
  • 발행기관
    제주대학교 지능소프트웨어 교육연구소 바로가기
  • 간행물
    지능정보융합과 미래교육 KCI 등재후보 바로가기
  • 통권
    제4권 제20호 (2025.09)바로가기
  • 페이지
    pp.1-7
  • 저자
    이주호
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A472878

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
Deep‑learning models have continually increased their layer depth and channel width to boost performance, but this expansion has caused an explosive growth in computation and memory demand, making real‑time service on edge devices such as smartphones and other personal hardware increasingly difficult. To tackle this problem, the present paper distinguishes and introduces two core strategies. The first strategy, an architecture‑centric design approach, reduces the computational burden from the outset by exploring structures such as depthwise‑group convolutions and compound scaling. The second strategy, a parameter‑transformation approach, targets already‑trained networks and sharply cuts parameters and operations by applying knowledge distillation, integer quantization, pruning, and similar techniques. In the field, a common pipeline first builds a lightweight backbone and then recovers accuracy through a combination of quantization and distillation. Looking forward, architecture search and full hardware–software co‑optimization are expected to become essential tasks in order to cope with large multimodal models and to meet the demands of an eco‑friendly era of artificial intelligence.
한국어
인공지능 모델은 성능을 높이기 위해 층수와 채널 수를 계속 확장해 왔지만, 그 결과 계산량과 메모리 요구량이 폭증해 모바일 등의 엣 지 기기나 핸드폰과 같은 개인 장비에서 실시간 서비스가 어려워지고 있다. 이 문제를 해결하는 방법들에 대해 본 논문에서는 두 가지 핵심 전략으로 구분하여 소개하고자 한다. 첫째, 모델 구조 설계 중심 접근 방법은 깊이별-그룹 합성곱, 복합 스케일링 등등의 구조 탐 색을 통해 처음부터 연산 부담을 줄이는 방법을 소개한다. 둘째, 파라미터 변환 기반 접근 방법은 이미 학습된 모델을 대상으로 지식 증 류, 정수 양자화, 가지치기 등등을 적용해 파라미터와 연산을 크게 줄이는 방법을 소개한다. 현장실무에서는 경량 백본을 만든 뒤 양자 화와 증류로 정확도를 복구하는 파이프라인이 흔히 사용된다. 앞으로는 대형 멀티모달 모델과 친환경 인공지능시대에 대응하기 위해 아키텍처 탐색과 하드웨어, 소프트웨어의 통합 최적화가 필수 과제로 떠오를 전망이다.

목차

요약
ABSTRACT
Ⅰ. 서론
Ⅱ. 모델 구조 설계 중심 접근
1. 깊이별 분리 합성곱(Depthwise Separable Convolution)
2. 그룹 합성곱 및 채널 셔플(Group Convolution and Channel Shuffle)
3. 복합 스케일링 전략(Compound Scaling)
4. 하이브리드 비전 트랜스포머(Hybrid Vision Transformer)
5. 동적 네트워크(Learning Dynamic Routing)와신경망 탐색(NAS: Neural Architecture Search)
Ⅲ. 파라미터 변환 기반 접근
1. 지식 증류(Knowledge Distillation)
2. 양자화(Quantization)
3. 가지치기(Pruning)와 파인튜닝(Fine Tuning)
4. 저차원 분해(Low Rank Factorization)와 가중치 공유(Weight Sharing)
Ⅳ. 결론
참고문헌

키워드

연산량 감소 모델 구조 설계 효율화 파라미터 변환 정수 양자화 지식 증류 Computational Reduction Efficient Model Architecture Design Parameter Transformation Integer Quant ization Knowledge Distillation

저자

  • 이주호 [ Chuho Yi | 제주대학교􀀁지능소프트웨어교육연구소 ]

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    제주대학교 지능소프트웨어 교육연구소 [Intelligent Software Education Research Institute]
  • 설립연도
    2022
  • 분야
    사회과학>교육학
  • 소개
    우리 연구소는 컴퓨터 과학 교육이 강조되는 세계적 흐름속에서 소프트웨어융합 인재 양성을 위한 교육 기반 구축을 위해 '지능소프트웨어교육센터'를 설립하여 운영하여 왔고, 이후 한국연구재단의 인문사회연구소지원사업에 선정되면서 2022년 3월, 우리나라 인공지능 교육의 거점 연구소로서 '지능소프트웨어교육연구소'로 새롭게 기관 명칭을 변경하고 전문 연구 기관으로서의 위상을 공고히 하였습니다. 우리 연구소는 설립된 이후부터 지금까지 인공지능을 중심으로 하는 지능정보시대를 열어갈 인공지능 컴퓨팅 융합 인재 양성을 위한 교육 기반 구축에 기여하고 있으며, 주요 연구 분야로는 지능정보사회에서 갖춰야할 디지털 소양으로써의 컴퓨팅 사고력 함양을 위한 소프트웨어와 인공지능 교육 연구, 유아부터 중장년층까지 평생교육차원의 인공지능 교육 연구, 지능정보격차 해소를 위한 정보배려계층 대상 인공지능 교육 연구, 윤리적으로 고려된 인공지능 교육으로 설계된 A!thics 교육 등의 인공지능 교육과 인공지능 기술과 응용 연구 등에 힘을 쏟고 있습니다. 또한 인문사회연구소 지원사업의 과제로 수준별 인공지능 컴퓨팅 교육을 위한 핵심 전략인 4P(Play, Problem solving, Product making, Project)전략에 기반하여 교육과정 개발과 컴퓨팅 사고력 함양을 위한 CT-EL(Computational Thinking-Experienced Learning) 기반 교수학습 방법 연구, 교재개발 등을 진행하고 있습니다. 앞으로 지능소프트웨어교육연구소는 제주 지역의 유관기관과 협력하여 제주의 미래를 이끌어갈 지능소프트웨어융합을 위한 지역 인재 양성 모델을 만드는데 앞장 서고, 더 나아가 우리나라의 인공지능 교육을 이끌어가는 우리나라 대표 연구 기관으로 자리매김할 수 있도록 최선을 다하겠습니다. 감사합니다.

간행물

  • 간행물명
    지능정보융합과 미래교육 [Intelligent Information Convergence and Future Education]
  • 간기
    부정기
  • eISSN
    2951-4762
  • 수록기간
    2022~2026
  • 등재여부
    KCI 등재후보
  • 십진분류
    KDC 370 DDC 370

이 권호 내 다른 논문 / 지능정보융합과 미래교육 제4권 제20호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장