Earticle

현재 위치 Home

기타

AI 이미지 인식 환경의 Poisoning 기반 적대적 공격
Adversarial attack based on Poisoning in AI image recognition environments

첫 페이지 보기
  • 발행기관
    국제인공지능학회(구 한국인터넷방송통신학회) 바로가기
  • 간행물
    한국인터넷방송통신학회 논문지 KCI 등재 바로가기
  • 통권
    제25권 제3호 (2025.06)바로가기
  • 페이지
    pp.289-295
  • 저자
    홍진근
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A470110

※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.

원문정보

초록

영어
This study focused on experiments involving poisoning-based adversarial attacks. Poisoning-based AI image recognition attacks modify input images by utilising the gradient of the model's loss function and poisoning. In this study, we conducted attack experiments targeting poisoning-based adversarial attack methods such as gradient matching, sleeper agent, meta poison, gradient inversion, and gradient constrain in the RestNet18 environment, and verified the risk of attacks through performance evaluation. We performed attack experiments on five adversarial attack models and confirmed the results using performance metrics such as PSNR and SSIM. The experimental results reveal the characteristics of each attack method: Gradient Matching causes overall performance degradation, Sleeper Agent influences misclassification through triggers, Meta Poison targets specific parts of the image, Gradient Inversion compromises the privacy of model inputs, and Gradient Constrained significantly reduces recognition accuracy.
한국어
본 연구에서는 poisoning 기반의 적대적 공격에 초점을 맞추어 실험하였다. Poisoning 기반의 AI 이미지 인식 공격은 모델의 손실 함수의 기울기와 poisoning을 이용하여 입력 이미지를 수정한다. 본 연구에서는 RestNet18 환경 에서 poisoning 기반의 적대적 공격 방법들인 gradient matching, sleeper agent, meta poison, gradient inversion, gradient constrain 기법을 대상으로 공격 실험을 수행하고 성능 검정을 통해 공격의 위험성을 확인한다. 본 연구에서는 적대적 공격 모델 5개를 대상으로 공격 실험을 수행하였고 PSNR, SSIM 등의 성능 지표를 통해 결과를 확인하였다. 연구 결과에서는 실험 결과를 통해 전체 성능 저하를 일으키는 Gradient Matching, 트리거를 통해 오분류 영향을 주는 Sleeper Agent, 일부에 타깃 공격을 하는 Meta Poison, 모델 입력의 프라이버시를 침해하는 Gradient Inversion, 인식 정확도를 크게 저하시키는 Gradient Constrained의 특성을 확인할 수 있다.

목차

요약
Abstract
I. 서론
II. AI 이미지 적대적 공격 모델들
1. 관련 연구
2. 공격 성능 개선을 위한 파라미터 조정
III. Poison 기반 공격 모델들의 실험과 결과
1. 공격 모델의 하이퍼 파라미터 조정
2. Poison 공격 모델의 실험과 평가
IV. 결론
References

키워드

인공지능 적대적 공격 포이즈닝 공격 서비스 위험 이미지 인식 Artificial intelligence Adversarial attack Poisoning attack Service risk Image recognition

저자

  • 홍진근 [ Jin-Keun Hong | 정회원, 백석대학교 첨단IT학부 교수/미래융합기술연구소장 ] 제1저자

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    국제인공지능학회(구 한국인터넷방송통신학회) [The International Association for Artificial Intelligence]
  • 설립연도
    2000
  • 분야
    공학>전자/정보통신공학
  • 소개
    인터넷방송, 인터넷 TV , 방송 통신 네트워크 및 관련 분야에 대한 국내는 물론 국제적인 학술, 기술의 진흥발전에 공헌하고 지식 정보화 사회에 기여하고자 한다.

간행물

  • 간행물명
    한국인터넷방송통신학회 논문지 [The Journal of the Institute of Internet, Broadcasting and Communication]
  • 간기
    격월간
  • pISSN
    2289-0238
  • eISSN
    2289-0246
  • 수록기간
    2001~2025
  • 십진분류
    KDC 326 DDC 380

이 권호 내 다른 논문 / 한국인터넷방송통신학회 논문지 제25권 제3호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장