Earticle

다운로드

국방 폐쇄망 환경에서 제어 가능한 생성형 AI 보안 감사 에이전트 설계 및 구현
Design and Implementation of a Controllable Generative AI Security Audit Agent for Defense Closed Network Environments

  • 간행물
    융합보안논문지 KCI 등재 바로가기
  • 권호(발행년)
    제26권 제2호 (2026.03) 바로가기
  • 페이지
    pp.153-160
  • 저자
    최준석, 민병찬
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A482858

원문정보

초록

한국어
최근 발생한 기업의 대규모 보안 사고는 고도화된 공격 기법보다는 기본적인 보안 정책 미준수와 장기간의 탐지 실패가 초 래하는 치명적 결과임을 보여주었다. 이는 복잡해지는 IT 인프라 환경에서 단순 스크립트 점검의 한계로 인해, 수동 점검 방 식만으로는 보안 공백을 해소하기 어렵다는 점을 시사한다. 이러한 한계를 보완하기 위한 대안으로 대규모 언어모델을 활용한 AI 기반 보안감사 자동화 기술이 주목받고 있으나, 고도의 기밀성과 가용성이 요구되는 국방 분야에서는 생성형 AI의 환각 현상과 예측 불가능한 자율성이 도입에 주요 제약 요인으로 작용하고 있다. 본 논문에서는 이러한 문제를 해결하기 위해 국방 환경에 최적화된 LangGraph 기반의 설명 가능하고 제어 가능한 보안 감사 에이전트를 제안한다. 본 시스템은 한국인터넷진흥 원의 가이드라인에 기반한 화이트리스트 명령어 통제, 데이터 유출 방지를 위한 로컬 RAG, 그리고 관리자 승인 절차를 결합 하여 AI의 행동을 엄격히 통제함으로써 운영 안전성을 확보한다. 실험 결과, 폐쇄망 및 이기종 OS 환경에서 총 91가지 항목 을 환각으로 인한 오류 없이 진단하고 가이드 위반 사항을 식별하여 설명 가능한 리포트를 생성함으로써, 국방의 제약을 극복 한 실질적인 AI 도입 가능성을 입증하였다.
영어
Recent large-scale security incidents have demonstrated that severe consequences often stem from basic policy violations and prolonged detection failures, revealing the limitations of manual inspections in complex IT environments. While AI-based automation offers a solution, its adoption in the defense sector is restricted by concerns over hallucinations and unpredictable autonomy. To address these challenges, this paper proposes a LangGraph-based explainable and controllable security audit agent optimized for defense environments. The system ensures operational safety by enforcing whitelist-based command control grounded in KISA technical vulnerability guidelines, utilizing Local RAG to prevent data leakage, and implementing administrator approval procedures. Experimental results confirm that the agent reliably diagnoses 91 inspection items across heterogeneous OS environments without hallucinations, generating explainable reports. This study demonstrates the practical feasibility of AI in defense by effectively balancing automation efficiency with strict security compliance.

목차

요약
ABSTRACT
1. 서론
1.1 연구 배경
2. 관련 연구
2.1 자율적 LLM 에이전트 기반 보안 감사 연구의 한계
2.2 LLM 기반 공격에이전트의 위험성과 자율성의 양면성
3. 방법론: 프레임워크 설계
3.1 시스템 아키텍처
3.2 화이트리스트 기반 명령어 통제 메커니즘
3.3 RAG 기반 학습 데이터 구성 및 설명 가능한 AI 확보
3.4 안전한 프롬프트 설계를 통한 결과 생성 및 진단 로직
4. 구현 및 실험 결과
4.1 구현 환경
4.2 실험 설계
4.3 평가 결과
5. 결론 및 토론
5.1 결론
5.2 토론
5.3 연구의 한계 및 향후 과제
참고문헌

저자

  • 최준석 [ Choi Jun Seok | 국군방첩사령부 / 동국대학교 국방시큐리학 석사 ] 주저자
  • 민병찬 [ Min Byung Chan | 국군방첩사령부 / 아주대학교 사이버보안학 석사 수료 ] 교신저자

참고문헌

자료제공 : 네이버학술정보

    간행물 정보

    • 간행물
      융합보안논문지 [Jouranl of Information and Security]
    • 간기
      연5회
    • pISSN
      1598-7329
    • 수록기간
      2001~2026
    • 등재여부
      KCI 등재
    • 십진분류
      KDC 005 DDC 005