현대의 인공지능은 사회를 구성하는 필수적인 기술로 여겨지고 있다. 특히, 인공지능에서 프라이버시 침해 문제는 현대 사 회에서 심각한 문제로 자리 잡고 있다. 개인정보보호를 위해 2019년 MIT에서 제안된 분할 학습은 연합 학습의 기술 중 하나 로 개인정보보호 효과를 지닌다. 본 연구에서는 데이터를 안전하게 관리하기 위해 알려진 차분 프라이버시를 이용하여 안전하 고 정확한 분할 학습 모델을 연구한다. 또한, SVHN과 GTSRB 데이터 세트를 15가지의 차등적인 차분 프라이버시를 적용한 분할 학습 모델에 학습시키고 학습이 안정적으로 되는지를 확인한다. 최종적으로, 학습 데이터 추출 공격을 진행하여, 공격을 예방하는 차분 프라이버시 예산을 MSE를 통해 정량적으로 도출한다.
영어
Recently, artificial intelligence is regarded as an essential technology in our society. In particular, the invasion of privac y in artificial intelligence has become a serious problem in modern society. Split learning, proposed at MIT in 2019 for pri vacy protection, is a type of federated learning technique that does not share any raw data. In this study, we studied a sa fe and accurate segmentation learning model using known differential privacy to safely manage data. In addition, we traine d SVHN and GTSRB on a split learning model to which 15 different types of differential privacy are applied, and checked whether the learning is stable. By conducting a learning data extraction attack, a differential privacy budget that prevents attacks is quantitatively derived through MSE.
목차
요약 ABSTRACT 1. 서론 2. 배경 지식 2.1 연합 학습 2.2 분할 학습 2.3 학습 데이터 추출 공격 2.4 -차분 프라이버시 3. 실험 방법 3.1 실험 환경 3.2 실험 모델 3.3 모델 공격 3.4 결과 분석 3.5 실험 과정 4. 결과 및 분석 4.1 SVHN 실험 4.2 GTSRB 실험 4.3 결과에 대한 논의 5. 결론 참고문헌