Earticle

현재 위치 Home 검색결과

결과 내 검색

발행연도

-

학문분야

자료유형

간행물

검색결과

검색조건
검색결과 : 25
No
1

인공지능 에이전트의 사용 시나리오 분석을 통한 인터랙션 속성 유형화 KCI 등재

천수경, 연명흠

한국융합학회 한국융합학회논문지 제11권 제11호 2020.11 pp.63-74

※ 기관로그인 시 무료 이용이 가능합니다.

4,300원

인공지능 제품은 스마트폰이나 스피커, 가전제품에 에이전트로 내장되어 ‘인공지능 비서'로 활용되고 있으며, 현재는 약 인공지능 수준으로 에이전트의 성격, 목소리 등 의인화에 관한 연구가 진행되고 있다. 향후 인공지능 기술 발전으로 지능에이전트의 역할과 기능이 확장될 것으로 보이며, 사용자 유형, 사용환경, 에이전트 외관 등 에이전트 관련 다양한 속성에 대한 고려가 필요할 것으로 보인다. 따라서 본 연구에서는 강한 인공지능 에이전트가 나타나는 컨셉 영상 시나리오의 분석을 통해 사용자 관점에서 에이전트의 인터랙션 속성들을 유형화하였다. 연구방법으로 에이전트에 대한 이론적고찰을 토대로 분석을 위한 프레임워크를 구축하였다. 이후 대중화된 영상시청 플랫폼인 유튜브(Youtube) 를 활용하여 다수의 영상 시나리오를 수집 및 선별하고 환경, 사용자, 에이전트 관점에 따라 분석하였다. 그 결과 시점, 공간, 형태, 에이전트 행위, 연동기기, 에이전트 인터페이스, 사용상태, 사용자 인터페이스 8개 속성을 유형화하였다. 이는 향후 상용화될 에이전트의 개발 및 예측 시 참고자료로 활용될 것으로 기대된다.

AI products are used 'AI assistants' as embedded in smart phones, speakers, appliances as agents. Studies on anthropomorphism, such as personality, voice with a weak AI are being conducted. Role and function of AI agents will expand from development of AI technology. Various attributes related to the agent, such as user type, usage environment, appearance of the agent will need to be considered. This study intends to categorize interaction factors related to agents from the user's perspective through analysis of concept videos which agents with strong AI. Framework for analysis was built on the basis of theoretical considerations for agents. Concept videos were collected from YouTube. They are analyzed according to perspectives on environment, user, agent. It was categorized into 8 attributes: viewpoint, space, shape, agent behavior, interlocking device, agent interface, usage status, and user interface. It can be used as reference when developing, predicting agents to be commercialized in the future.

2

7,300원

2025년 ‘인공지능 에이전트 AI Agent’가 새로운 기술 트렌드로 부각되 었다. 그런데 새로운 인공지능 관련 서비스가 발표될 때마다 기술의 발전 적인 측면이나 부정적인 측면만을 보고 판단하는 단편적인 접근이 주를 이룬다. 그러나 중요한 것은 ‘불확실한 가능성’을 추측하기보다, 실제 개 인과 산업현장에서 사람들이 AI를 받아들이는 모습과 활용방식을 추적하 고 관찰하는 것이다. 인공지능 기술은 인간과 인간사회 사이의 관계 안에 서 등장했고 앞으로도 이 관계는 지속될 것이기 때문이다. 본 연구에서는 인공지능을 독립된 실체가 아니라 인간과의 관계 속에서 서로를 구성하는 존재로 이해하기 위해, 브뤼노 라투르의 ‘과학기술학’ 관 점에 주목하였다. 이를 통해 인간과 인간사회, 인공지능 사이의 관계를 통찰할 수 있는 이론적 프레임워크를 제안하고자 하였다. 연구방법으로는 국내외 선행연구 분석을 통해 과학기술학의 접근방식과 라투르의 주요 개 념을 살펴보고, ‘인간-인공지능-인간사회’의 네트워크를 통찰하는 이론적 프레임워크를 제안하였다. 이후 인공지능 에이전트의 대표 사례인 ‘젠스파 크’를 중심으로 과학기술학 기반의 프레임워크의 적용가능성에 대해 모색 하였다. 연구결과 과학기술학 관점에서 인간과 인공지능, 인류사회는 독립된 존 재가 아니라 상호 연결된 집합체로 구성됨을 확인하였다. 젠스파크 분석 을 통해 사용자들이 점차 더 많은 권한을 인공지능 에이전트에 ‘위임’하고 있으며, 이는 인간-기술 관계의 재편성을 시사한다는 점을 밝혔다. 특히 인공지능 에이전트 서비스가 등장할 때마다 인공지능의 발전과 가치, 인 간 대체의 위험성에 대한 논의는 활발하지만, 서비스를 작동시키기 위해 필요한 자원 인프라에 대한 언급은 제한적이거나 별개의 이슈로 다루어진 다는 점을 발견하였다. 이는 인공지능 서비스의 원리가 숨겨지는 ‘블랙박 스’화 현상으로, 막대한 자원소모와 사회 인프라 불균형 등의 이면이 가려지고 있음을 보여준다. 본 연구에서 제안한 이론적 프레임워크는 인공지능 기술에 통찰적으로 접근할 수 있는 방법론으로 활용될 수 있으며, 인공지능 에이전트가 초래 할 사회 변화에 대응할 수 있는 가능성을 제공할 것으로 기대한다.

By 2025, ‘AI Agent’ are emerging as a new technological trend. However, whenever new AI-related services are announced, the prevailing approach tends to be fragmented, focusing solely on the progressive or negative aspects of the technology. What is important, however, is not to speculate on ‘uncertain possibilities,’ but to track and observe how people actually adopt and utilize AI in their personal lives and in industrial settings. This is because AI technology emerged within the context of human-human relationships, and this relationship will continue in the future. In this study, we focused on Bruno Latour's “Science and Technology Studies” perspective to understand AI not as an independent entity but as an entity that constitutes itself in relation to humans. Through this, we aimed to propose a theoretical framework that provides insight into the relationship between humans, human society, and AI. The research method involved analyzing previous domestic and international studies to examine the approaches of science and technology studies and Latour's key concepts, and then proposing a theoretical framework that provides insight into the network of “human-artificial intelligence-human society.” Subsequently, the applicability of the science and technology studies-based framework was explored using “Genspark,” a representative example of an artificial intelligence agent. The results confirmed that, from a science and technology studies perspective, humans, AI, and human society are not independent entities but interconnected entities. Through the analysis of Genspark, it was revealed that users are gradually ‘delegating(Delegation)’ more authority to AI agents, suggesting a restructuring of the human-technology relationship. In particular, while discussions on the development and value of AI and the risks of human replacement are active whenever AI agent services emerge, mentions of the resource infrastructure required to operate such services are limited or treated as separate issues. This phenomenon, where the principles of AI services are hidden in a ‘Black Box,’ reveals the underlying issues of massive resource consumption and social infrastructure imbalances. The theoretical framework proposed in this study is expected to serve as a methodological approach for gaining insights into AI technology and providing possibilities for addressing the societal changes that AI agents may bring about.

3

인공지능 에이전트’의 자동화 사례 : 영상 자동화 사례를 중심으로 KCI 등재

전준현

한국영상문화학회 영상문화 제47호 2025.12 pp.149-178

※ 기관로그인 시 무료 이용이 가능합니다.

7,000원

최근 생성형 인공지능의 발전은 디지털 영상 제작 전 과정의 자동화를 가속화하고 있으며, 특히 인공지능 에이전트를 활용한 뉴스·광고영상의 생산과 유통이 확산되고 있다. 본 논문은 생성형 AI 에이전트 기반 영상 자동화 사례를 중심으로, 에이전트 오케스트레이션 구조와 인간-AI 협업 거버넌스를 종합적으로 분석한다. 우선 n8n과 Make, Opal과 같은 로우코 드 워크플로우 도구를 에이전트 기반 멀티에이전트 시스템의 오케스트레 이션 계층으로 위치시키고, Anthropic의 모델 컨텍스트 프로토콜 MCP과 Google의 Agent-to-Agent A2A 프로토콜이 에이전트 내부·외부 통신을 어떻게 표준화하는지 이론적으로 정리하였다. 다음으로 버즈피드, CNET, 네이버의 텍스트·뉴스 자동화 사례와 MBN, 신화통신의 AI 아나운서 사례, 사례를 분석하여 스크립트 생성–팩트체크–영상 합성–편집–배포로 이어지 는 공통적인 에이전트 워크플로우와 HITL Human In The Loop 구조를 도 출하였다. 이를 바탕으로 n8n/Make 오케스트레이션, MCP/A2A 통신, 팩 트체크·윤리 검토·편집 승인 등 인간 검증 모듈을 포함한 에이전트 기반 영상 자동화 통합 아키텍처를 제안하였다. 마지막으로 정확성·책임성, 투명성·편향, 노동 구조, 규제·표준 등 인간 -AI 협업 거버넌스의 쟁점을 논의하고, 참조 아키텍처 수준에서 기술적 설계와 사회적 책임을 동시에 고려해야 함을 강조한다.

The rapid advancement of generative AI is accelerating the automation of end‑to‑end video production, and AI agents are increasingly used to create and distribute news, advertising, and tutorial videos. This study investigates automation cases based on generative AI agents, with a primary focus on video automation, and analyzes their orchestration structures and human–AI collaboration governance. First, we conceptualize low‑code workflow tools such as n8n and Make as the orchestration layer of multi‑agent systems, and theoretically examine how Anthropic’s Model Context Protocol(MCP) and Google’s Agent‑to‑Agent(A2A) protocol standardize internal and external communication between agents. We then analyze text/news automation cases at BuzzFeed, CNET, and Naver, AI news anchor systems at MBN and Xinhua and others. From these cases we derive a common agentic workflow consisting of script generation, fact‑checking, video synthesis, editing, and distribution, together with Human‑in‑the‑Loop(HITL) checkpoints. On this basis, we propose an integrated reference architecture for agent‑based video automation that combines n8n/Make‑based orchestration, MCP/A2A‑based agent communication, and human verification modules for fact‑checking, ethical review, and editorial approval. Finally, we discuss key governance issues—including accuracy and responsibility, transparency and bias, labor restructuring, and regulation and standardization—and argue that technical design and social accountability must be addressed jointly at the architecture level.

5

인공지능 에이전트 대화형 인터랙션에서의 감탄사 효과 : 자율주행 맥락에서 KCI 등재

이수지, 서지윤, 최준호

국제문화기술진흥원 The Journal of the Convergence on Culture Technology (JCCT) Vol.8 No.1 2022.01 pp.551-563

※ 원문제공기관과의 협약기간이 종료되어 열람이 제한될 수 있습니다.

이 연구의 목적은 자율 주행 차량의 체화된 에이전트가 ‘감탄사’를 사용하여 감정 표현을 드러낸 대화 상호작 용을 할 경우 사용자 경험에 어떠한 효과를 나타내는지 확인하는 것이다. 감탄사 포함 유무와 대화 유형(과제 중심적 대화 vs. 관계 중심적 대화)의 조건에 따라 실험을 설계하였다. 온라인 실험으로 각 조건별로 4가지 대화 시나리오 영상을 시청한 후, 해당 에이전트에 대한 친밀도, 호감도, 신뢰도, 사회적 실재감, 지각된 의인화, 향후 이용 의도를 측정하였다. 분석 결과, 에이전트가 감탄사를 사용할 경우 두 대화 유형 모두에서 사회적 실재감의 주 효과가 나타났 다. 에이전트가 감탄사를 사용하지 않을 경우 과제 중심적 대화 유형에서 신뢰와 향후 이용 의도가 높았다. 에이전트 가 감탄사를 사용하여 감정적 표현을 더하는 것은 사회적 실재감을 높이는 효과는 발견했지만, 다른 사용자 경험 요 인에 대한 영향은 나타나지 않았다.

This study aims to identify the effect on the user experiences when the embodied agent in a self-driving car interacts with emotional expressions by using 'interjection'. An experimental study was designed with two conditions: the inclusion of injections in the agent's conversation feedbacks (with interjections vs. without interjections) and the type of conversation (task-oriented conversation vs. social-oriented conversation). The online experiment was conducted with the four video clips of conversation scenario treatments and measured intimacy, likability, trust, social presence, perceived anthropomorphism, and future intention to use. The result showed that when the agent used interjection, the main effect on social presence was found in both conversation types. When the agent did not use interjection in the task-oriented conversation, trust and future intention to use were higher than when the agent talked with emotional expressions. In the context of the conversation with the AI agent in a self-driving car, we found only the effect of adding emotional expression by using interjection on the enhancing social presence, but no effect on the other user experience factors.

6

인공지능 대화형 에이전트지능적 속성에 대한 기대와 기대 격차

박현아, 태문영, 허영진, 이준환

[Kisti 연계] 한국HCI학회 한국HCI학회논문지 Vol.14 No.1 2019 pp.15-22

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

본 연구에서는 인공지능 대화형 에이전트인 스마트 스피커의 지능에이전트로서의 속성, 즉 자율성, 사회성, 반응성, 능동성, 시간연속성, 목표지향성에 대하여 이용자들이 일상적 상호작용을 통하여 어떤 기대를 가지는지, 또한 어떤 기대격차를 갖는지 살펴보고자 하였다. 이를 위해 스마트 스피커 이용자들을 대상으로 반구조화 인터뷰(semi-structured interview)를 진행하고 그라운드 이론에 기반하여 분석하였다. 연구 결과 사람들은 기술수준의 한계로 인해 스마트 스피커의 사회성이나 인간다움에 대해 큰 기대격차를 갖고 있었다. 스마트 스피커의 반응성에 대해서는 긍정적인 기대격차를 갖는 것으로 드러났고, 시간연속적으로 정보를 기억하는 것에 대해서는 정보의 민감성 정도나 제시방식에 따라 양가적 기대격차가 나타났다. 자율적인 추천에 대해서는 낮은 기대수준이 나타났고 능동적인 말걸기에 대해서는 맥락에 맞는 경우에만 선호하는 것으로 나타났다. 본 연구는 스마트 스피커와 상호작용하는 방식을 설계하고 기대 수준을 관리하는데 있어서 함의점을 제시한다.

The purpose of this study is to investigate the users' expectation and expectation gap about the attributes of smart speaker as an intelligent agent, ie autonomy, sociality, responsiveness, activeness, time continuity, goal orientation. To this end, semi-structured interviews were conducted for smart speaker users and analyzed based on ground theory. Result has shown that people have huge expectation gap about the sociality and human-likeness of smart speakers, due to limitations in technology. The responsiveness of smart speakers was found to have positive expectation gap. For the memory of time-sequential information, there was an ambivalent expectation gap depending on the degree of information sensitivity and presentation method. We also found that there was a low expectation level for autonomous aspects of smart speakers. In addition, proactive aspects were preferred only when appropriate for the context. This study presents implications for designing a way to interact with smart speakers and managing expectations.

7

인공지능 에이전트 시대의 전자상거래법 개정에 관한 고찰

이승진

[NRF 연계] 한국상사판례학회 상사판례연구 Vol.38 No.3 2025.09 pp.123-160

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

지금까지의 전자상거래는 소비자가 직접 키워드를 입력하고, 제품을 비교 하며, 수많은 제품 후기를 읽고 구매를 결정하는 방식으로 이뤄졌다. 그런데 AI에이전트의 등장으로 또 다른 형태의 상거래 도래가 예견되고 있다. AI에 이전트가 제품 비교와 후기의 탐색뿐만 아니라 구매 결정까지 대신해준다는 것이다. 이 같은 인공지능 기술과 환경 변화는 소비시장의 거래관계를 규율하 는 전자상거래법에도 중대한 변화를 요구하고 있다. 전자상거래법은 기본적으 로 사람인 소비자와 사업자 간의 거래관계를 상정한 것이므로 AI에이전트가 개입한 경우 현행법을 그대로 적용하는 데 한계가 있다. AI에이전트가 이끄는 새로운 전자상거래 시대의 편익을 온전히 누리고자 한다면, 기존 전자상거래 법의 한계를 인식하고 인공지능 시대에 맞는 새로운 소비자 보호 패러다임을 모색하는 법·제도적 정비가 이뤄져야 한다. 이에 본 논문은 AI에이전트가 사 용된 전자상거래의 유효성과 집행 가능성을 보장하기 위해 현행법의 개정을 제안하였다. 본 논문이 제시하는 전자상거래법의 개정 방향은 최근 유엔국제 거래법위원회에서 채택한 자동화계약모델법과도 방향을 같이 한다는 점에서 상거래 분야의 국제적 정합성 확보에도 기여할 수 있을 것이다. 또한 AI에이 전트를 통해 이뤄지는 전자상거래의 법적 효력을 명확히 하고, 당사자 권리와 정당한 이익을 보장하기 위한 개정은 소비자뿐만 아니라 상거래시장의 법적 안정성의 제고에도 기여할 것이라는 점에서 부지런한 입법 노력이 이뤄져야 할 것이다.

Up to now, e-commerce has operated on a model where consumers directly input keywords, compare products, and read through countless reviews before making a purchase decision. However, the emergence of AI agents heralds the arrival of a new form of commercial market. These AI agents are predicted to take over not only product comparison and review exploration but also the entire purchase decision-making process. Such changes in AI technology and the overall environment demand significant shifts in the e-commerce act that governs transactional relationships in the consumer market. This paper proposes directions for amending the current law to ensure the validity and enforceability of e-commerce transactions involving AI agents. The proposed amendments to the e-commerce act align with the recently adopted UNCITRAL Model Law on Automated Contracting, which will contribute to securing international consistency in the commercial sector. Furthermore, clarifying the legal effect of e-commerce conducted through AI agents will enhance not only consumer protection but also the legal stability of the commercial market.

8

다중 인공지능 에이전트 기반 건설 현장 위험성 평가 연구 - 실무적 역량에 대한 정성적 접근 -

유병희, 안성원, 안창범

[Kisti 연계] 한국건설관리학회 건설관리 Vol.26 No.5 2025 pp.13-25

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

건설 프로젝트에서의 위험성 평가는 사고를 예방하고 작업자의 안전을 보장하기 위한 필수적인 과정이다. 그러나 전통적인 방법은 주로 안전관리자의 경험과 직관에 의존하며, 평가자의 개별적인 경험과 판단 차이에 따라 평가 결과의 일관성이 달라질 수 있다. 또한, 최근 강화된 안전 규정으로 인해 구조적이고 객관적인 위험성 평가 체계에 대한 필요성이 증가하면서 기존 접근 방식의 한계가 부각 되고 있다. 이러한 문제를 해결하기 위해, 본 연구에서는 다중 인공지능(AI) 에이전트 기반 시스템을 제안한다. 본 시스템은 텍스트 및 이미지 데이터를 결합한 멀티모달 데이터를 활용하여 유해·위험 요인을 체계적으로 식별하고, 잠재적 위험 시나리오를 추론하며, 위험의 심각도와 발생 빈도를 평가하고, 위험 저감 대책을 제안하는 기능을 수행한다. 제안된 시스템은 여러 개의 특화된 AI 에이전트를 활용하여 유해·위험 요인 식별, 위험성 평가, 위험 저감 대책 수립을 수행하며, 이를 통해 인간 전문가에 대한 의존도를 낮추고 평가의 일관성과 포괄성을 향상시키는 것을 목표로 한다. 실험 결과, 다중 AI 에이전트는 20년 이상의 경력을 가진 안전관리자와 유사한 수준의 위험 식별 및 추론 성능을 보였으며, 위험 요인 식별 개수에서는 인간 전문가를 능가하는 것으로 나타났다. 그러나 제안된 위험 저감 대책과 위험성 평가의 전반적인 타당성에서는 일부 변동성이 관찰되었으며, 이는 향후 개선이 필요한 부분이다. 본 연구 결과는 AI 기반 위험성 평가 시스템이 특히 경험이 부족한 안전 관리자에게 유의미한 의사결정 지원 도구로 작용할 수 있으며, 동시에 전문가의 판단을 보완하여 건설 현장의 안전성을 강화할 수 있다는 기여점을 시사한다.

Risk assessment in construction projects is a critical process for preventing accidents and ensuring worker safety. However, traditional risk assessment methods predominantly rely on the expertise and intuition of safety managers, leading to variability in assessments due to differences in individual experience and judgment. Additionally, newly implemented safety regulations have increased the demand for structured and objective risk evaluation frameworks, further highlighting the limitations of conventional approaches. In response, this study proposes a Multi-Artificial Intelligence (AI) Agent-based System that integrates multimodal data by combining textual and visual inputs to systematically identify hazards, infer potential risk scenarios, assess severity and frequency, and propose mitigation strategies. The system employs multiple specialized AI agents to conduct hazard identification, risk assessment, and develop mitigation measures, thereby reducing dependency on human expertise while enhancing consistency and comprehensiveness. The results show that the AI agents performed comparably to safety managers with over 20 years of experience in risk identification and inference, surpassing them in the number of identified risk factors. However, variability was observed in the proposed mitigation strategies and the overall validity of risk assessments, indicating areas for further refinement. These findings suggest that AI-driven risk assessment systems can serve as valuable decision-support tools, particularly for less experienced safety managers, while complementing expert judgment in ensuring construction site safety.

9

미성년자 대상 인공지능 에이전트에 대한 윤리원칙(AI디지털 교과서에서 피지컬 AI 로봇까지)

한정혜

[Kisti 연계] 한국로봇학회 로봇학회논문지 Vol.20 No.2 2025 pp.193-199

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

With the advancement of information technology and the increasing accessibility of digital environments, protecting minors from harmful content has become a critical issue. Minors frequently encounter ethical challenges in web and SNS, as well as in games and video content. To address these concerns, Computer ethics, Cyber ethics and Internet ethics have been incorporated into Information ethics education in school curricula. While AI ethics principles and the Robot Ethics Charter (draft) have been proposed with the emergence of generative AI, existing frameworks remain in the early stages of addressing the specific ethical challenges faced by minors. Therefore, this paper proposes a set of ethical principles for AI agents such as AIDT (AI digital textbooks) or physical AI agents (robots) such as Tutor robots designed for minors, focusing on five key aspects: Education for the purpose of using generative AI, Age-appropriate access control, Standardized interface design, Clear attribution of generated content sources, and Limitations on AI emotional expression. By integrating these principles, this paper aims to establish an ethical framework for the safe and responsible use of AI by minors in educational and digital contexts.

10

기억의 공학적 합리성: 인공지능 에이전트 메모리 설계에 대한 비판적 고찰

윤하나

[NRF 연계] 한국여성커뮤니케이션학회 미디어, 젠더 & 문화 Vol.41 No.1 2026.03 pp.53-92

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

인공지능 공학은 기억을 정보 처리 과정의 일환으로 간주하는 인지심리학의 기억 모델을 청사진으로 삼아, 인공지능 에이전트가 인간과 유사한 방식으로 행동하도록 하는 기제인 ‘에이전트 메모리’를 구축하고 있다. 이 메모리는 세계에 대한 지식뿐만 아니라 개별 사용자와의 상호작용 이력을 축적⋅활용함으로써 ‘나를 기억하는 기술적 타자’와 대화하는 듯한 경험을 제공한다. 본 연구는 에이전트 메모리의 기술적 구조를 살펴보고, 그 설계 과정에서 인간의 경험이 효율성, 계산 가능성, 제어를 핵심 가치로 삼는 공학적 합리성에 의해 포섭되는 양상을 비판적으로 검토한다. 특히 에이전트 메모리가 ‘인간과 유사한 기억 체계’로 유비되는 과정에서 저장⋅검색⋅갱신 가능한 데이터만이 유효한 기억의 지위를 획득하게 되고, 이러한 기술적 지위가 다시 인간 기억을 이해하는 준거 틀로 투사될 때의 위험성을 논의한다. 즉, 에이전트 메모리가 인간의 기억을 모방하는 단순한 저장 장치가 아니라 인간과 기억이란 ‘무엇’이며, 이것을 ‘어떻게’ 바라보아야 하는지를 암묵적으로 제시하는 설계의 정치성을 내포하고 있음을 논증하는 것이 본 연구의 목적이다. 결론적으로, 본 연구는 인공지능에 대한 논의가 기술의 유용성이나 위험성을 평가하는 차원을 넘어, 에이전트 메모리가 인간-기계 커뮤니케이션의 조건을 구성하고 인간이 자신의 경험과 기억을 이해하는 틀에 개입하는 행위성을 지닌다는 사실에 주목할 필요가 있음을 제언한다.

Drawing on cognitive psychology's memory models ? which conceptualize memory as part of the information processing system ? as a blueprint, Contemporary AI engineering has constructed ‘agent memory’ as a core mechanism that enables AI agents to operate in human-like ways. This memory architecture produces the experience of conversing with a ‘technological other that remembers me’ by accumulating and utilizing both world knowledge and interaction histories with individual users. This study examines the technical architecture of agent memory and critically analyzes how human experience is subsumed by an engineering rationality that privileges efficiency, computability, and control. In particular, it focuses on the analogical framing of agent memory as a ‘human-like memory system’, wherein only data amenable to storage, retrieval, and udpating acquires legitimate status as memroy. It further interrogates the risks that arise when this technical status is projected back onto human memory as an normative framework for its interpretation. The study contends that agent memory is not merely a storage device that imitates human memory but an apparatus embodying the politics of design - one that implicitly defines what humans and memory are and how they ought to be understood. In conclusion, the study suggests that discourse on artificial intelligence should move beyond evaluating the utility or risks of the technology, attending instead to the agency through which agent memory configures the conditions of human-machine communication and intervenes in the very frameworks by which humans understand their own experience and memory.

11

개인정보 공개 상황에서 인공지능 에이전트 신뢰 지각에 영향을 미치는 요인

김정원, 성용준

[NRF 연계] 한국소비자학회 소비자학연구 Vol.34 No.3 2023.06 pp.23-53

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

인공지능 기술이 발전하는 등 디지털 미디어 환경의 변화로 인해 프라이버시 문제는 주요한 사회적 문제로 떠올랐다. 특히 인공지능 에이전트는 이용자들의 개인정보를 수집하는 새로운 주체가 되고, 수집되는 개인정보는 양적증가와 함께 질적인 확장도 이루어지면서 프라이버시 문제는 그 어느 때보다 복잡한 국면을 맞이하고 있다. 그러나개인정보를 공개하는 상황에서 인공지능 에이전트에 대한 이용자들의 인식을 살펴본 연구는 제한적인 상황이다. 본연구는 인공지능 에이전트에 대한 신뢰 개념을 중심으로 하여 개인정보를 제공할 때 인공지능 에이전트 신뢰에 영향을 미치는 요인을 밝히고 학문적 프레임워크를 제안하고자 하였다. 심층 인터뷰 결과 인공지능 에이전트에 대한신뢰에 영향을 미치는 요인은 이용자, 인공지능 에이전트, 이용 환경 차원으로 나눌 수 있었다. 이용자 차원은 개인의 기술 관련 특성과 관계 관련 특성을 포함하였으며, 인공지능 차원의 특성은 유능함과 따뜻함으로 나눌 수 있었다. 이용 환경의 경우 상황적 특성과 제도적 특성으로 구분되었다. 이와 같은 연구 결과는 인공지능 에이전트에 개인정보를 공개하는 이용자의 심리를 신뢰 메커니즘을 기반으로 이해할 수 있다는 점에서 이론적 의의가 있으며, 개발자들과 정책 입안자들을 위한 실무적 시사점 또한 제공하고 있다.

A variety of sensitive personal information are being collected by Artificial Intelligence (AI) agents. Accordingly, privacy invasion has emerged as a crucial issue in the utilization of AI agents, and users are experiencing heightened concerns regarding their privacy. Nevertheless, empirical research examining users’ preceived trust in AI agent is still limited, especially in the context of personal information disclosure. This study aims to identify the factors influencing on user trust in AI agent, and to propose a theoretical framework. Results of in-depth interviews suggested the factors affecting the trust toward AI agent from user, AI agent, and usage context. Characteristics of users included individual technology-related characteristics and relationship-related characteristics, and the traits of AI agent were divided into competence and warmth. Usage context included situational factors and institutional factors. These findings improved the understandings users’ trust toward AI agent when disclosing personal information to AI agents. The theoretical and practical implications are discussed.

12

MCTS 기법을 활용한 불완전 정보 카드 게임에서의 인공지능 에이전트 생성 : 하스스톤을 중심으로

오평, 김지민, 김선정, 홍석민

[Kisti 연계] 한국게임학회 한국게임학회 논문지 Vol.16 No.6 2016 pp.79-90

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

최근 게임분야에서 수준 높은 인공지능 에이전트의 구현은 많은 주목을 받고 있다. 그 중 Monte-Carlo Tree Search(MCTS)는 완전 정보를 가진 게임에서 무작위 탐색을 통해 최적의 해를 구할 수 있는 알고리즘으로, 수식으로 표현되지 않는 경우에 근사치를 계산하는 용도로 적합하다. 하스스톤과 같은 Trading Card Game(TCG) 장르의 게임은 상대방의 카드와 플레이를 예측할 수 없기 때문에 불완전 정보를 가지고 있다. 본 논문에서는 불완전 정보 카드 게임에서 인공지능 에이전트를 생성하기 위해 MCTS 알고리즘을 응용하는 방법을 제안하고, 현재 서비스되는 하스스톤 게임에 적용하여 봄으로써 MCTS 알고리즘의 실용성을 검증한다.

Recently, many researchers have paid attention to the improved generation of AI agent in the area of game industry. Monte-Carlo Tree Search(MCTS) is one of the algorithms to search an optimal solution through random search with perfect information, and it is suitable for the purpose of calculating an approximate value to the solution of an equation which cannot be expressed explicitly. Games in Trading Card Game(TCG) genre such as the heartstone has imperfect information because the cards and play of an opponent are not predictable. In this study, MCTS is suggested in imperfect information card games so as to generate AI agents. In addition, the practicality of MCTS algorithm is verified by applying to heartstone game which is currently used.

13

효용이론 기반 숙고형 행동트리를 이용한 게임 인공지능 에이전트

권민지, 서진석

[Kisti 연계] 한국멀티미디어학회 멀티미디어학회논문지 Vol.25 No.2 2022 pp.432-439

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

This paper introduces deliberative behavior tree using utility theory. The proposed approach combine the strengths of behavior trees and utility theory to implement complex behavior of AI agents in an easier and more concise way. To achieve this goal, we devised and implemented three types of additional behavior tree nodes, which evaluate utility values of its own node or its subtree while traversing and selecting its child nodes based on the evaluated values. In order to validate our approach, we implemented a sample scenario using conventional behavior tree and our proposed deliberative tree respectively. And then we compared and analyzed the simulation results.

14

인공지능 쇼핑에이전트 특성이 지속구매의도에 미치는 영향에 관한 연구: 고객인게이지먼트의 매개효과

이상영, 박현숙

[NRF 연계] 사회혁신기업연구원 혁신기업연구 Vol.9 No.2 2024.06 pp.397-417

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

4차 산업의 급속한 기술변화로 인공지능(AI)과 같은 다양한 혁신적인 기술이 등장하고 있으며, 기술 활용이 활발히 진행되고 있다. 이에 본 연구는 인공지능 쇼핑에이전트 사용 경험자들을 대상으로 인공지능 쇼핑에이전트 특성과 고객인게이지먼트 및 지속구매의도와의 관계를 분석하고자 하였다. 선행연구를 통하여 인공지능 쇼핑에이전트 특성으로 사회적실재감, 지각된 유희성, 지각된 용이성, 지각된 보안성을 독립변수로, 사용자의 인지, 감정, 행동 의도를 다차원적으로 설명하는 고객인게이지먼트를 매개변수로, 지속구매의도를 종속변수로 하여 실증연구를 진행하였다. 분석을 위해 인공지능 쇼핑에이전트 사용경험자 중 유효한 표본 300부를 수집하여 SPSS 23.0, AMOS 23.0을 활용하였다. 연구결과는 다음과 같다. 첫째, 지속구매의도에 지각된 용이성, 지각된 유희성이 정(+)의 영향을 미쳤다. 둘째, 사회적실재감, 지각된 유희성, 지각된 용이성, 지각된 보안성이 고객인게이지먼트에 정(+)의 영향을 미쳤다. 이들 중에서 사회적실재감, 지각된 유희성이 보다 높은 영향관계가 있었다. 셋째, 고객인게이지먼트는 지속구매의도와 인공지능 쇼핑에이전트 특성 간에 매개 역할을 하였는데, 사회적실재감, 지각된 용이성은 부분매개, 지각된 보안성은 완전매개를 하였다. 따라서 AI 알고리즘 추천, 챗봇, AI 스피커 사용자들에게 다차원적 의미의 고객인게이지먼트가 지속구매의도에 영향을 미치는 중요한 요인임을 밝혔다.

Due to the rapid technological changes in the fourth industrial revolution, various innovative technologies such as artificial intelligence (AI) have emerged and are being actively utilized. Therefore, this study aimed to analyze the relationship between AI shopping agent characteristics and customer engagement and continuance purchase intention among those who have used AI shopping agents. Based on previous research, this study conducted an empirical study with social presence, perceived enjoyment, perceived ease of use, and perceived security as independent variables, customer engagement, which is a multidimensional explanation of users' cognition, emotion, and behavioral intention, as a mediator, and continuance purchase intention as a dependent variable. For the analysis, 300 valid samples were collected from users who have used A.I shopping agents, and SPSS 23.0 and AMOS 23.0 were utilized. The results of the study are as follows. First, social presence, perceived enjoyment, perceived ease of use, and perceived security had a positive effect on customer engagement. Among them, perceived social presence and perceived enjoyment had a stronger relationship. Second, perceived ease of use and perceived enjoyment had a positive effect on continuance purchase intention. Customer engagement mediated the relationship between intention to continue purchasing and AI shopping agent characteristics, with social presence and perceived ease of use partially mediating and perceived security fully mediating. Therefore, this study revealed that customer engagement in a multidimensional sense is an important factor affecting intention to continue purchasing for users of AI algorithmic recommendations, chatbots, and AI speakers.

15

인공지능 대화형 에이전트의 공손성 연구 - ChatGPT를 중심으로 -

김재희, 강현화

[NRF 연계] 연세대학교 언어정보연구원 언어사실과 관점 Vol.60 2023.11 pp.9-36

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

본 연구는 인공지능 대화형 에이전트의 담화를 언어학적 관점에서 분석하고 인간-인공지능의 의사소통이 어떻게 이루어지고 있는지를 고찰하는 데 목적이 있다. 분석 대상은 ChatGPT-3으로 OpenAI에서 개발한 텍스트 기반의 인공지능 챗봇이며, 분석 방법은 크게 세 단계로 나뉜다. 첫째, 질문 분석을 통해 ChatGPT 발화 의도 일치율을 확인하였다. 둘째, ChatGPT의 발화 의도별 사용 양상과 담화 양상을 분석하였다. 마지막으로, 한국어 공손성 분석틀을 기반으로 ChatGPT의 공손성 실현 양상을 살펴보았다. 분석 결과, ChatGPT는 정보 전달하기 담화 수행에서는 높은 효용을 보였으나 친교를 목적으로 한 담화의 이해와 생산은 상대적으로 낮았다. 또한 ChatGPT는 관례적 공손 표현에서는 호칭어 사용에 미흡하며, 가능성 표현의 사용에 치중된 양상을 보였다.

This study aims to analyze the discourse of an AI conversational agent from a linguistic perspective and seeks to examine how communication between humans and artificial intelligence is conducted. The target of the analysis is ChatGPT-3, a text-based AI chatbot developed by OpenAI. The analysis method consists of three main steps. First, we assessed the intention matching rate of ChatGPT's responses through question analysis. Second, we analyzed ChatGPT's usage patterns and discourse use aspect based on the speaker's intention. Lastly, we evaluated ChatGPT's politeness using the framework for analyzing Korean politeness developed in this paper. The results indicated that ChatGPT excelled at conveying information but was less effective in social discourse comprehension and production. Furthermore, ChatGPT demonstrated inadequacy in employing address forms within conventional politeness and primarily utilized possibility expression in strategic politeness.

16

CNN 기반 기보학습 및 강화학습을 이용한 인공지능 게임 에이전트

전영진, 조영완

[Kisti 연계] 한국전기전자학회 Journal of IKEEE Vol.23 No.4 2019 pp.1187-1194

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

본 논문에서는 인공지능 오델로 게임 에이전트를 구현하기 위해 실제 프로기사들의 기보를 CNN으로 학습시키고 이를 상태의 형세 판단을 위한 근거로 삼아 최소최대탐색을 이용해 현 상태에서 최적의 수를 찾는 의사결정구조를 사용하고 이를 발전시키고자 강화학습 이론을 이용한 자가대국 학습방법을 제안하여 적용하였다. 본 논문에서 제안하는 구현 방법은 기보학습의 성능 평가 차원에서 가치평가를 위한 네트워크로서 기존의 ANN을 사용한 방법과 대국을 통한 방법으로 비교하였으며, 대국 결과 흑일 때 69.7%, 백일 때 72.1%의 승률을 나타내었다. 또한 본 논문에서 제안하는 강화학습 적용 결과 네크워크의 성능을 강화학습을 적용하지 않은 ANN 및 CNN 가치평가 네트워크 기반 에이전트와 비교한 결과 각각 100%, 78% 승률을 나타내어 성능이 개선됨을 확인할 수 있었다.

This paper proposes a CNN architecture as value function network of an artificial intelligence Othello game agent and its learning scheme using reinforcement learning algorithm. We propose an approach to construct the value function network by using CNN to learn the records of professional players' real game and an approach to enhance the network parameter by learning from self-play using reinforcement learning algorithm. The performance of value function network CNN was compared with existing ANN by letting two agents using each network to play games each other. As a result, the winning rate of the CNN agent was 69.7% and 72.1% as black and white, respectively. In addition, as a result of applying the reinforcement learning, the performance of the agent was improved by showing 100% and 78% winning rate, respectively, compared with the network-based agent without the reinforcement learning.

17

인공지능과 계약법 - 인공 에이전트에 의한 계약과 사적자치의 원칙 -

이상용

[NRF 연계] 한국비교사법학회 비교사법 Vol.23 No.4 2016.11 pp.1639-1700

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

최근 급속히 이루어지고 있는 인공지능 기술의 발전은 계약법 분야에 커다란 충격을 가져오고 있다. 인간의 정신과 구별할 수 없는 이른바 강인공지능(strong A.I.)이 개발될 경우 생길 수 있는 근본적인 문제를 논외로 하더라도, 현재의 약인공지능(weak A.I.) 단계에서도 수많은 난제들이 발생한다. 이 문제들은 인공지능이 갖는 자율성과 특정 영역에서 인간을 넘어서는 합리성에서 비롯된다. 이러한 특성은 계약법 분야에서, 특히 인공 에이전트에 의한 계약체결의 사안에서 가장 명확하게 드러난다. 인공 에이전트에 의하여 계약이 체결되는 경우 인공지능의 자율성으로 인하여 경우에 따라 이용자가 의도하지 않았거나 이용자의 의도에 반하는 결과가 생길 수 있다. 따라서 이러한 인공지능의 자율성에도 불구하고 이용자에게 책임을 귀속시킬 수 있는 법적 근거가 설명될 필요가 있다. 또한 책임 귀속의 근거가 밝혀진 뒤에도 당사자들의 이해 조정의 문제가 남는다. 이용자의 의도에 반하는 법률행위가 이루어진 경우 그로 인한 위험은 당사자들 사이에 적절히 배분되어야 하는데, 이와 관련하여 정당한 위험 배분기준은 무엇인지 그리고 이를 위하여 활용될 수 있는 법제도는 무엇인지 문제되는 것이다. 본고는 인공지능의 자율성에도 불구하고 그에 의한 계약의 정당성 근거로서 사적자치의 원칙이 견지될 수 있다는 점과 표현대리의 유추적용을 통하여 적정한 위험배분이 이루어질 수 있음을 보여주고자 하였다. 한편 인공지능은 특정 영역에서 인간을 넘어서는 합리성을 지닌다. 이러한 현상은 오래 전부터 우리 생활의 곳곳에서 찾아볼 수 있었으나, 최근 들어 인공지능의 자율성과 결합하여 계약법 영역에서 ‘합리성 격차’라는 비대칭성의 문제를 새롭게 제기하고 있다. 발전된 인공지능 기술을 이용하여 계약을 체결하는 사람과 그렇지 않은 사람 사이에 구조적인 불균형이 자리잡게 되는 것이다. 이는 인공지능 이용자의 상대방 보호를 위한 법적 장치에 대한 연구 필요성을 촉발한다. 본고는 철회권의 확대와 신의성실의 원칙을 인공 에이전트에 내재화하는 것을 통하여 이 문제를 해결할 수 있음을 논증하려 하였다. 인공지능의 자율성과 합리적 격차라는 비대칭성의 문제는 사적자치의 원칙에 대한 도전이라는 관점에서 해석될 수 있다. 계약법과 관련하여 인공지능 기술의 발전은 인공지능 이용자의 의도에 반하는 결과에 대하여 이용자가 책임을 부담하는 것이 자기결정권에 반하는 것은 아닌지, 그리고 인공 에이전트 이용자와 거래하는 상대방의 자기결정권은 합리성 격차로 인하여 사실상 형해화되는 것은 아닌지 하는 의문을 낳는다. 이러한 의문들은 근대법의 기본원리인 사적자치의 원칙이 인공지능의 시대에도 여전히 유효할 것인지 여부와, 그 원리적 힘이 유지되려면 어떠한 보완장치가 필요한지에 관한 질문으로 다시 진술될 수 있다. 본 연구는 이러한 질문에 답하는 것을 목표로 한다.

The rapid development of A.I. technology impacts greatly on law of contract. Beside the fundamental issues which could arise if so-called ‘strong A.I.’ comes into existence, there are many difficult issues even in the present phase of ‘weak A.I.’ These issues arise from the autonomous feature of A.I. and super-rationality of A.I. in certain areas. These features stand out most in the contract formation cases by artificial agents. When contracts are concluded by artificial agents, the autonomous feature of A.I. could bring out such results that were not intended or even opposed by users of them. This precipitates the need for legal explanation for attributing the liability to the users. There is also the issue of adjustment of conflicting interests of the parties. When legal acts are conducted which are opposed by the users, the resulting risk should be appropriately apportioned between parties. So it should be examined what the adequate criterion of risk apportionment is and what kind of legal princple could be resorted to for this purpose. This paper tried to demonstrate that the good old principle of private autonomy could hold fast as the basis for justification of contracts by artificial intelligence and that appropriate risk apportionment could be achieved by analogy of the apparent agency authority. A.I. features rationality that surpasses that of human in some areas. These phenomena have long been around us, but raise new problem of asymmetry, which is ‘rationality gap’ in the area of law of contract as a result of combination with the autonomous feature of A.I. There is structural asymmetry between people who use advanced A.I. for contract and people who don’t. This prompt the need for the study of legal apparatus for the protection of the counterpart of the A.I. user. This paper attempted to show that the expansion of right of withdrawal and internalization of the principle of good faith into artificial agents could help solve this problem. The problem of autonomous feature of A.I. and rationality gap could be interpreted as challenge to the principle of private autonomy. The development of A.I. technology concerning law of contract raises questions whether the fact that artificial agent user is liable for the result which does not correspond to his intention infringes his self-determination, and whether the self- determination of the other party who transacts with artificial agent user reduces to emptiness. These questions can be rephrased into the question whether the principle of private autonomy can remain valid in the age of A.I. and what kind of complementary measures are needed for its doctrinal power to be maintained. This paper aims at answering properly to these questions.

18

인공지능 모델 통합 제어를 위한 LLM 기반 지능형 스마트팜 에이전트 시스템 구현

강태욱, 신창선, 박장우, 박철영

[Kisti 연계] 한국스마트미디어학회 스마트미디어저널 Vol.14 No.12 2025 pp.66-73

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

스마트팜은 센서 모니터링을 넘어 인공지능(AI)과 대형 언어 모델(LLM)을 활용한 자율 제어로 진화하고 있다. 그러나 기존 시스템은 임계값 기반의 정적 제어에 의존하여, 실시간 환경 변화와 작물 생육 상태에 유연하게 대응하지 못하는 한계가 있다. 본 연구는 자연어 명령과 질의를 해석해 관련 제어 함수를 동적으로 선택·실행하고, 설명 가능한 자연어 응답을 생성하는 LLM 기반 함수 호출(Function Calling) 에이전트를 제안한다. LangChain과 Ollama를 이용해 센서 정보 조회, 생육 예측, 장비 제어 등의 기능을 통합했으며, RAG(Retrieval-Augmented Generation)의 환각(hallucination)을 줄이고자 도구 중심의 Agentic RAG 구조를 적용했다. 제안 시스템의 성능을 자체 데이터셋으로 평가한 결과 Macro F1-score 0.82를 달성하여, 질의 의도를 함수로 변환하는 능력의 실효성을 실험적으로 검증했다. 본 연구는 음성 인식 등 멀티모달 인터페이스를 통해 자율 제어의 실용성을 확인했으며, 향후 작물 맞춤형 제어 및 보안 강화로의 발전 가능성을 제시한다.

Smart farms are evolving beyond sensor monitoring toward autonomous control using artificial intelligence (AI) and large language models (LLMs). However, conventional systems relying on threshold-based static control lack the flexibility to adapt to real-time environmental changes and crop growth stages. This study proposes an LLM-based agent with Function Calling that interprets natural language commands to dynamically execute control functions and generate explainable responses. Using LangChain and Ollama, it integrates functions like sensor retrieval, growth prediction, and equipment control. To mitigate the hallucination issues of Retrieval-Augmented Generation (RAG), a tool-centric Agentic RAG architecture was applied. The system's performance was experimentally validated on a custom dataset, achieving a Macro F1-score of 0.82 and confirming its effectiveness in translating user intent into appropriate functions. The practicality of this approach was further demonstrated through a multimodal interface, including voice recognition. This research suggests future potential for crop-specific control and enhanced security.

19

생성형 인공지능(AI) 기반 에이전트 서비스 개발에 관한 연구 : RAG와 MCP를 중심으로

김승욱

[NRF 연계] 한국벤처혁신학회 벤처혁신연구 Vol.9 No.1 2026.03 pp.19-35

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

본 연구는 대규모언어모델(LLM)의 근본적 한계점인 정적 훈련 데이터 의존, 정보 환각, 맥락 처리 제약, 지식 접근·조작의 비 확장성 그리고 전문 도메인 응답 한계를 극복하기 위해 RAG와 MCP를 통합한 새로운 AI 에이전트를 제안하고 실제 구현을 통해 그 유효성을 입증했다. 이러한 대규모언어모델(LLM)을 기반으로 RAG와 MCP를 통합한 새로운 아키텍처는 기존 RAG 모델의 실시간 데이터 반영 어려움과 정보 비일관성 문제를 극복하고, LLM의 추론 및 행동 능력을 강화하여 복잡한 의사결정 시나리오에서 효율적인 성능을 발휘한다. 본 연구가 갖는 학술 및 실무적 시사점은 다음과 같다. 첫째, RAG가 의미론적 검색으로 관련성 높은 상위 k개 도구를 사전 필터링하여 에이전트의 도구 선택 복잡도를 대폭 감소시키고, 프롬프트 블로트 문제를 완화하며 LLM 추론 품질을 높였다. 둘째, RAG와 MCP의 상호보완적 통합을 통해 환각 감소, 최신 정보 반영, 외부 도구의 표준화된 호출을 동시에 실현했다. 셋째, React 프론트엔드와 Claude API 백엔드 기반으로 RAG, MCP 그리고 웹 검색을 단일 플랫폼에 통합 구현하고, 가상 기업 시나리오를 통해 문서 분석, CRM 데이터 연동 그리고 실시간 시장 정보 수집이 자율적으로 수행되어 SWOT 분석 및 전략 보고서가 수 분 내 도출됨을 보여주었다. 넷째, 학술적으로 기존에 분리되어 있던 MCP 표준화 연구와 RAG 질의응답 연구를 연결하여, 동적 도구 생태계에서 작동하는 에이전트의 새로운 평가 기준 가능성을 제시했다. 실무적으로는 기업 레거시 시스템 통합과 AI 전환(AX) 과정에서의 도구 오케스트레이션 메커니즘을 제공하여, 의료, 금융 그리고 제조 등 다양한 산업 분야로의 확장 가능성을 확인했다.

This study presents a generative AI agent development methodology based on RAG-MCP integrated architecture and validates its effectiveness through practical implementation. The research addresses fundamental LLM limitations including static training data reliance, information hallucination, and restricted factual knowledge access by organically integrating Retrieval-Augmented Generation (RAG) with Model Context Protocol (MCP). RAG enhances accuracy by connecting external knowledge sources, while MCP provides an open standard for linking AI systems with diverse external data sources and services. The implemented system integrates RAG, MCP, and web search within a single platform, autonomously analyzing uploaded documents, CRM operational data, and real-time market information to generate actionable strategic reports. The RAG-MCP architecture fundamentally improves cognitive efficiency by pre-filtering relevant top-k tools through RAG rather than exploring hundreds of MCP tools, significantly reducing selection complexity and enhancing reasoning quality within limited token windows. This overcomes existing RAG models' real-time data limitations and information inconsistency while strengthening LLMs' reasoning capabilities for complex decision-making scenarios. Academically, this research bridges previously disconnected domains of MCP protocol standardization and RAG Q&A applications, establishing new evaluation criteria for AI's ability to understand, select, and invoke external tools. Practically, it provides mechanisms for enterprises to integrate legacy systems during AI transformation, with applications in medical diagnosis, financial integration, manufacturing IoT, and physical AI domains. Future research must address retrieval efficiency at extreme scales, multi-tool workflow management, multi-agent collaboration, security concerns, and domain-specific customization across healthcare, finance, manufacturing, education, and legal sectors. This study establishes foundations for next-generation AI agent syste

20

인공 에이전트의 정보적 존재자성과 도덕적 책임주체성 ― 플로리디 정보철학과 칸트 법철학으로 본 인공지능의 인격성 ―

박욱주

[NRF 연계] 한국법철학회 법철학연구 Vol.23 No.1 2020.04 pp.209-234

※ 협약을 통해 무료로 제공되는 자료로, 원문이용 방식은 연계기관의 정책을 따르고 있습니다.

원문보기

인공 에이전트에 의해 수행된 행위에 대한 법률상 책임 소재 문제는 인공지능과 공존하는 인류의 미래에 대한 전망 가운데 빠짐없이 등장하는 불가피한 논제이자 난제이다. 본 연구는 인공 에이전트의 법인격성을 규명하되, 특별히 플로리디 정보철학의 정보적 존재자 개념과 법철학의 도덕적 책임주체 개념을 서로 연결해 논의하는 방식을 택한다. 법인격성 개념은 크게 봐서 고대로부터 전해져 내려온 기술적 규정과 근대로부터 확립된 칸트의 도덕형이상학적-윤리적 인격 개념을 포괄하고 있다. 플로리디 정보철학은 이 두 법철학적 인격성 개념을 인간-인공지능 상호작용의 현실에 적실하게 비판적으로 계승하고 발전적으로 갱신하는 사고 체계를 마련하는 데 기여하는 것으로 판단된다. 결론적으로 본 연구는 정보철학과 법철학 양측 관점에서 인공 에이전트의 법인격성을 수긍하는 일이 정당할 뿐만 아니라 시급하게 요청되는 일임을 변증한다.

In a world of human-artificial intelligence interactions, the problem of locating the locus of responsibility for acts of artificial intelligence has become an ongoing and inevitable controversy and conundrum for the future prospects of the human race. This study delves into the issue of the legal personhood of artificial agents by drawing a connection between the notion of informational entity in the Floridian philosophy of information and the concept of moral subject in the philosophy of law. The notion of legal personhood largely involves two different traditional views: a technical definition from the ancient world and an ethical definition in the Kantian metaphysics of morals from the modern world. Floridi’s philosophy of information seems to provide us with an appropriate system of thoughts for the upcoming reality of human-artificial intelligence interactions. His insights may enable us to critically and constructively modify and renew the two traditional views of legal personhood. In a nutshell, this study not only advocates the legitimacy of acknowledging artificial agents’ legal personhood, but also highlights the urgency of this task in the philosophy of information and in the philosophy of law.

 
1 2
페이지 저장