Earticle

현재 위치 Home

국방 폐쇄망 환경에서 제어 가능한 생성형 AI 보안 감사 에이전트 설계 및 구현
Design and Implementation of a Controllable Generative AI Security Audit Agent for Defense Closed Network Environments

첫 페이지 보기
  • 발행기관
    한국융합보안학회 바로가기
  • 간행물
    융합보안논문지 KCI 등재 바로가기
  • 통권
    제26권 제2호 (2026.03)바로가기
  • 페이지
    pp.153-160
  • 저자
    최준석, 민병찬
  • 언어
    한국어(KOR)
  • URL
    https://www.earticle.net/Article/A482858

※ 기관로그인 시 무료 이용이 가능합니다.

4,000원

원문정보

초록

영어
Recent large-scale security incidents have demonstrated that severe consequences often stem from basic policy violations and prolonged detection failures, revealing the limitations of manual inspections in complex IT environments. While AI-based automation offers a solution, its adoption in the defense sector is restricted by concerns over hallucinations and unpredictable autonomy. To address these challenges, this paper proposes a LangGraph-based explainable and controllable security audit agent optimized for defense environments. The system ensures operational safety by enforcing whitelist-based command control grounded in KISA technical vulnerability guidelines, utilizing Local RAG to prevent data leakage, and implementing administrator approval procedures. Experimental results confirm that the agent reliably diagnoses 91 inspection items across heterogeneous OS environments without hallucinations, generating explainable reports. This study demonstrates the practical feasibility of AI in defense by effectively balancing automation efficiency with strict security compliance.
한국어
최근 발생한 기업의 대규모 보안 사고는 고도화된 공격 기법보다는 기본적인 보안 정책 미준수와 장기간의 탐지 실패가 초 래하는 치명적 결과임을 보여주었다. 이는 복잡해지는 IT 인프라 환경에서 단순 스크립트 점검의 한계로 인해, 수동 점검 방 식만으로는 보안 공백을 해소하기 어렵다는 점을 시사한다. 이러한 한계를 보완하기 위한 대안으로 대규모 언어모델을 활용한 AI 기반 보안감사 자동화 기술이 주목받고 있으나, 고도의 기밀성과 가용성이 요구되는 국방 분야에서는 생성형 AI의 환각 현상과 예측 불가능한 자율성이 도입에 주요 제약 요인으로 작용하고 있다. 본 논문에서는 이러한 문제를 해결하기 위해 국방 환경에 최적화된 LangGraph 기반의 설명 가능하고 제어 가능한 보안 감사 에이전트를 제안한다. 본 시스템은 한국인터넷진흥 원의 가이드라인에 기반한 화이트리스트 명령어 통제, 데이터 유출 방지를 위한 로컬 RAG, 그리고 관리자 승인 절차를 결합 하여 AI의 행동을 엄격히 통제함으로써 운영 안전성을 확보한다. 실험 결과, 폐쇄망 및 이기종 OS 환경에서 총 91가지 항목 을 환각으로 인한 오류 없이 진단하고 가이드 위반 사항을 식별하여 설명 가능한 리포트를 생성함으로써, 국방의 제약을 극복 한 실질적인 AI 도입 가능성을 입증하였다.

목차

요약
ABSTRACT
1. 서론
1.1 연구 배경
2. 관련 연구
2.1 자율적 LLM 에이전트 기반 보안 감사 연구의 한계
2.2 LLM 기반 공격에이전트의 위험성과 자율성의 양면성
3. 방법론: 프레임워크 설계
3.1 시스템 아키텍처
3.2 화이트리스트 기반 명령어 통제 메커니즘
3.3 RAG 기반 학습 데이터 구성 및 설명 가능한 AI 확보
3.4 안전한 프롬프트 설계를 통한 결과 생성 및 진단 로직
4. 구현 및 실험 결과
4.1 구현 환경
4.2 실험 설계
4.3 평가 결과
5. 결론 및 토론
5.1 결론
5.2 토론
5.3 연구의 한계 및 향후 과제
참고문헌

키워드

LLMs Security Audit Agent Explainable AI Defense Cybersecurity LangGraph

저자

  • 최준석 [ Choi Jun Seok | 국군방첩사령부 / 동국대학교 국방시큐리학 석사 ] 주저자
  • 민병찬 [ Min Byung Chan | 국군방첩사령부 / 아주대학교 사이버보안학 석사 수료 ] 교신저자

참고문헌

자료제공 : 네이버학술정보

간행물 정보

발행기관

  • 발행기관명
    한국융합보안학회 [Korea Information Assurance Society]
  • 설립연도
    2001
  • 분야
    공학>전자/정보통신공학
  • 소개
    본 학회는 사이버테러 및 정보전에 관한 학문연구ㆍ기술 개발ㆍ기반 구축을 도모하고 국내ㆍ외 관계기관과 학술교류와 정보교환을 통하여 회원 상호간의 전문지식을 배양하고, 궁극적으로는 국가 중요 정보기반구조를 보호함을 그 목적으로 한다.

간행물

  • 간행물명
    융합보안논문지 [Jouranl of Information and Security]
  • 간기
    연5회
  • pISSN
    1598-7329
  • 수록기간
    2001~2026
  • 등재여부
    KCI 등재
  • 십진분류
    KDC 005 DDC 005

이 권호 내 다른 논문 / 융합보안논문지 제26권 제2호

    피인용수 : 0(자료제공 : 네이버학술정보)

    함께 이용한 논문 이 논문을 다운로드한 분들이 이용한 다른 논문입니다.

      페이지 저장