요약
ABSTRACT
1. 서론
1.1 연구 배경
2. 관련 연구
2.1 자율적 LLM 에이전트 기반 보안 감사 연구의 한계
2.2 LLM 기반 공격에이전트의 위험성과 자율성의 양면성
3. 방법론: 프레임워크 설계
3.1 시스템 아키텍처
3.2 화이트리스트 기반 명령어 통제 메커니즘
3.3 RAG 기반 학습 데이터 구성 및 설명 가능한 AI 확보
3.4 안전한 프롬프트 설계를 통한 결과 생성 및 진단 로직
4. 구현 및 실험 결과
4.1 구현 환경
4.2 실험 설계
4.3 평가 결과
5. 결론 및 토론
5.1 결론
5.2 토론
5.3 연구의 한계 및 향후 과제
참고문헌