Earticle

현재 위치 Home

인터넷

AI 이미지 인식 서비스 환경의 Gradient 기반 적대적 공격 서비스 모델
Gradient-based Adversarial Attack Service Model of an AI Image Recognition Service Environment

첫 페이지 보기
  • 발행기관
    국제인공지능학회(구 한국인터넷방송통신학회) 바로가기
  • 간행물
    한국인터넷방송통신학회 논문지 KCI 등재 바로가기
  • 통권
    제25권 제3호 (2025.06)바로가기
  • 페이지
    pp.17-24
  • 저자
    홍진근
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A470078

※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.

원문정보

초록

영어
AI image services are platforms that automate or support tasks such as image generation, editing, and enhancement using artificial intelligence technology. Adversarial attack services exist to counter AI image services. This study focuses on gradient-based adversarial attack services. Gradient-based attacks utilize the gradient of the loss function of deep learning image models to introduce minimal changes to input images. In this study, we identify gradient-based adversarial attack methods and core codes, perform gradient-based adversarial attacks in the RestNet18 environment, and verify the results to assess the risk of attacks. We conducted adversarial attack experiments on five gradient-based adversarial attack models and evaluated the results using performance metrics such as adversarial attack success and PSNR. The results indicate that the MI-FGSM model is appropriate when maximizing attack success rate, the A-MI-FGSM model when visually stealthy attacks are desired, the FGSM+Random model when detection evasion is preferred, and the MI-FGSM model when a balance between attack effectiveness and efficiency is sought.
한국어
AI 이미지 서비스는 인공지능 기술을 활용하여 이미지 생성, 편집, 개선 등의 작업을 자동화하거나 지원하는 플랫폼이다. AI 이미지 서비스에 대항하는 적대적 공격 서비스가 존재한다. 본 연구에서는 gradient 기반의 적대적 공격 서비스를 중심으로 실험한다. Gradient 기반의 공격은 딥러닝 이미지 모델의 손실 함수의 기울기(gradient)를 이용하여 입력 이미지에 최소한의 변화를 준다. 본 연구에서는 gradient 기반의 적대적 공격 방법들과 핵심 코드들을 식별하고, 이어 RestNet18 환경에서 gradient 기반의 적대적 공격을 수행하고 그 결과를 확인함으로써 공격의 위험성을 확인하고 자 한다. 본 연구에서는 gradient 기반의 적대적 공격 모델 5개를 대상으로 적대적 공격 실험을 수행하였고 적대적 공격 성공 여부, PSNR 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 최대 공격 성공률을 원하면 MI-FGSM 모델을, 시각적으로 은닉된 공격을 원한다면 A-MI-FGSM모델을, 탐지 우회를 선호하면 FGSM+Random 모델을, 공격 과 효율성의 균형을 원하면 MI-FGSM 모델을 사용하는 것이 적절함을 확인할 수 있다.

목차

요약
Abstract
Ⅰ. 서론
Ⅱ. AI 적대적 공격 서비스들
1. 관련 연구
2. Gradient Sign 공격 서비스
III. Gradient 기반 공격 모델들의 실험과 결과
1. 공격 핵심 코드
2. Test & Evaluation for FGSM 공격 모델의 시험과 평가
IV. 결론
Reference

키워드

인공지능 적대적 공격 그래디언트 공격 서비스 위험 이미지 인식 Artificial intelligence Adversarial attack Gradient attack Service risk Image recognition

저자

  • 홍진근 [ Jin-Keun Hong | 정회원, 백석대학교 첨단IT학부 교수/미래융합기술연구소장 ] 제1저자

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    국제인공지능학회(구 한국인터넷방송통신학회) [The International Association for Artificial Intelligence]
  • 설립연도
    2000
  • 분야
    공학>전자/정보통신공학
  • 소개
    인터넷방송, 인터넷 TV , 방송 통신 네트워크 및 관련 분야에 대한 국내는 물론 국제적인 학술, 기술의 진흥발전에 공헌하고 지식 정보화 사회에 기여하고자 한다.

간행물

  • 간행물명
    한국인터넷방송통신학회 논문지 [The Journal of the Institute of Internet, Broadcasting and Communication]
  • 간기
    격월간
  • pISSN
    2289-0238
  • eISSN
    2289-0246
  • 수록기간
    2001~2025
  • 십진분류
    KDC 326 DDC 380

이 권호 내 다른 논문 / 한국인터넷방송통신학회 논문지 제25권 제3호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장