AI Agents (인공지능 에이전트)
2025-12-09, G30DR
1. 서론: 수동적 도구에서 자율적 행위자로의 진화
인공지능(AI) 기술의 발전사는 인간의 지능을 모방하려는 시도에서 시작하여, 이제는 인간을 대신하여 물리적 및 디지털 세계와 상호작용하는 ’행위자(Agent)’를 구현하는 단계로 진입하고 있다. 지난 10년 동안 AI는 특정 작업에 특화된 좁은 인공지능(Narrow AI)에서, 대규모 언어 모델(LLM)을 기반으로 다양한 도메인에 걸쳐 자율적으로 운영되는 정교한 아키텍처로 진화했다.1 이러한 흐름 속에서 등장한 ‘AI 에이전트’ 또는 ’에이전틱 AI(Agentic AI)’는 단순히 사용자의 질문에 답변을 생성하는 생성형 AI(Generative AI)의 한계를 넘어, 스스로 워크플로우를 설계하고 도구를 사용하여 목표를 달성하는 시스템을 의미한다.1
2025년 현재, AI 에이전트는 실험실 수준의 연구를 넘어 엔터프라이즈 환경의 핵심 기술로 자리 잡고 있으며, 이는 소프트웨어의 패러다임을 ’도구(Tool)’에서 ’동료(Collaborator)’로 전환시키고 있다. 본 보고서는 컴퓨터 과학의 고전적 이론부터 최신 LLM 기반 아키텍처, 다중 에이전트 시스템(Multi-Agent Systems), 그리고 2025년 산업 동향에 이르기까지 AI 에이전트의 정의와 기술적 실체를 포괄적이고 심층적으로 분석한다. 특히 생성형 AI와 에이전틱 AI의 결정적 차이를 규명하고, 자율성(Autonomy)이 가져올 기술적, 사회적 파급 효과를 논한다.
2. AI 에이전트의 정의와 이론적 배경
2.1 컴퓨터 과학 및 고전 AI 이론에서의 정의
’에이전트(Agent)’라는 용어는 라틴어 ’agere(행동하다)’에서 유래한 것으로, 컴퓨터 과학 및 인공지능 분야에서는 오랜 기간 동안 다양한 뉘앙스로 정의되어 왔다.
2.1.1 Russell과 Norvig의 정의: 지각과 행동의 주체
인공지능 교과서의 표준으로 불리는 *Artificial Intelligence: A Modern Approach (AIMA)*에서 Stuart Russell과 Peter Norvig는 에이전트를 “환경(Environment)을 감지(Sensors)하고, 그 환경에 대해 행동(Actuators)을 취하는 모든 것“으로 정의한다.2 이 정의에 따르면, 가장 단순한 형태의 에이전트는 온도조절기(Thermostat)와 같은 장치이다. 온도조절기는 (i) 온도를 감지하고, (ii) 설정값과 비교하며, (iii) 난방기를 켜거나 끄는 행동을 통해 환경에 영향을 미친다.2
그러나 Russell과 Norvig는 단순한 반사적 행동을 넘어선 ’합리적 에이전트(Rational Agent)’의 개념을 강조한다. 합리적 에이전트는 주어진 정보와 지식을 바탕으로 성과 측정치(Performance Measure)를 극대화하는 행동을 선택하는 시스템이다. 즉, 에이전트의 핵심은 단순한 작동이 아니라 ’올바른 결정’을 내리는 능력에 있다.3
2.1.2 Wooldridge와 Jennings의 정의: 위임과 권한
Wooldridge와 Jennings는 에이전트를 단순히 환경에 반응하는 시스템으로 보는 것을 넘어, 사회적이고 권한이 위임된 존재로 정의한다. 이들은 에이전트가 “누군가를 대신하여(on behalf of) 권한을 행사하거나 효과를 산출하는 주체“라는 점을 강조한다.4 이는 에이전트가 단순한 자동화 도구와 구별되는 지점으로, 사용자의 개입 없이도 사용자의 의도를 파악하고 이를 대신 수행하는 ’대리인(Agency)’으로서의 성격을 부각한다. 즉, 행동하는 것(Acting) 자체가 아니라, ’누군가를 위해 행동하는 것’이 에이전트의 본질적 특성이다.4
2.2 현대적 AI 에이전트의 4대 핵심 특성
오늘날 LLM 기반의 현대적 에이전트는 고전적 정의를 계승하면서도, 더욱 고도화된 인지 능력을 요구한다. 문헌과 산업계의 분석을 종합할 때, 지능형 에이전트(Intelligent Agent)를 구성하는 4대 핵심 특성은 다음과 같다.5
| 특성 (Characteristic) | 설명 (Description) | 예시 (Example) |
|---|---|---|
| 자율성 (Autonomy) | 인간의 직접적인 간섭 없이 스스로의 상태와 행동을 제어하고 결정을 내리는 능력. | 주식 시장의 변동을 감지하여 사용자 승인 없이도 사전에 설정된 전략에 따라 매매를 수행하는 금융 에이전트. |
| 반응성 (Reactivity) | 환경의 변화를 실시간으로 인지하고, 이에 적절하게 대응하는 능력. | 서버 로그를 모니터링하다가 장애 징후가 포착되면 즉시 복구 스크립트를 실행하거나 관리자에게 알림을 보내는 DevOps 에이전트. |
| 주도성 (Pro-activeness) | 단순히 환경에 반응하는 것을 넘어, 목표 지향적(Goal-directed) 행동을 통해 주도적으로 환경을 변화시키는 능력. | 사용자가 요청하지 않아도 다가오는 여행 일정을 확인하고 날씨에 맞는 옷차림을 제안하거나 식당을 예약하는 비서 에이전트. |
| 사회적 능력 (Social Ability) | 다른 에이전트나 인간과 상호작용하며 협력, 협상, 경쟁하는 능력. | 복잡한 프로젝트 수행을 위해 연구 에이전트, 코딩 에이전트, 리뷰 에이전트가 서로 대화하며 결과물을 만들어내는 멀티 에이전트 시스템. |
이러한 특성들은 에이전트가 단순한 스크립트 실행기가 아니라, 불확실하고 역동적인 환경에서 목표를 추구하는 지능형 시스템임을 보여준다. 특히 ’자율성’은 에이전트가 자신의 행동에 대한 통제권을 가지며, 외부의 자극에 대해 결정론적이 아닌 유연한 방식으로 대응함을 의미한다.7
2.3 생성형 AI(Generative AI)와 에이전틱 AI(Agentic AI)의 차이점
2023년 이후 급부상한 생성형 AI와 에이전틱 AI는 자주 혼용되지만, 그 작동 원리와 목적에서 근본적인 차이를 보인다. 이를 이해하는 것은 현대 AI 시스템의 아키텍처를 설계하는 데 필수적이다.
2.3.1 반응적 생성 vs. 능동적 실행
생성형 AI(예: ChatGPT, Claude 등)는 본질적으로 입력된 프롬프트에 대해 텍스트나 이미지를 생성하는 ‘반응적(Reactive)’ 시스템이다. 이는 사용자가 구체적인 지시를 내릴 때까지 대기하며, 생성된 결과물은 정보 제공에 그친다.8
반면, 에이전틱 AI는 ‘능동적(Proactive)’ 시스템이다. 에이전틱 AI는 사용자가 설정한 고수준의 목표(High-level Goal)를 달성하기 위해 스스로 계획을 수립하고, 필요한 도구를 선택하여 실행하며, 그 결과를 바탕으로 다음 행동을 결정한다.9 예를 들어, 생성형 AI에게 “여행 계획을 짜줘“라고 하면 텍스트로 된 일정을 제공하지만, 에이전틱 AI는 실제 항공권 예약 사이트에 접속하여 표를 예매하고, 캘린더에 일정을 등록하며, 동행자에게 이메일을 발송한다.11
2.3.2 무상태(Stateless) vs. 상태 유지(Stateful) 및 목표 지속성
생성형 AI 모델 자체는 무상태(Stateless)이다. 즉, 각 상호작용은 독립적이며, 모델은 이전의 대화나 행동의 결과를 스스로 기억하지 못한다(대화 기록을 컨텍스트로 넣어주지 않는 한). 그러나 에이전틱 AI는 목표 달성 과정을 관리하기 위해 지속적인 상태(State)를 유지한다. 에이전트는 “현재 어떤 단계까지 왔는가?”, “어떤 시도가 실패했는가?“를 기억하며, 목표가 달성될 때까지 며칠이고 작업을 지속할 수 있는 ’목표 지속성(Goal Persistence)’을 가진다.12
2.3.3 도구 통합 및 환경 상호작용
가장 결정적인 차이는 외부 세계와의 상호작용 능력이다. LLM은 훈련된 데이터 내에서만 답변할 수 있지만(Closed-world), 에이전트는 웹 검색, API 호출, 코드 실행, 데이터베이스 접근 등 다양한 도구(Tools)를 사용하여 실시간 정보에 접근하고 실제 시스템을 조작한다.13 이는 에이전트가 단순히 ’생각’하는 것을 넘어 ’행동’하는 주체임을 의미한다.
3. 에이전트 인지 아키텍처: 지각, 추론, 행동의 메커니즘
AI 에이전트가 자율적으로 작동하기 위해서는 인간의 인지 과정을 모방한 정교한 아키텍처가 필요하다. 현대의 AI 에이전트 아키텍처는 크게 지각(Perception), 두뇌/추론(Brain/Reasoning), 행동(Action), 그리고 기억(Memory) 모듈로 구성된다.
3.1 지각-추론-행동 사이클 (Perceive-Reason-Act Cycle)
에이전트의 작동 원리는 끊임없이 반복되는 루프(Loop)로 설명된다. 이 루프는 에이전트가 환경과 상호작용하며 목표를 달성해가는 핵심 엔진이다.15
- 지각 (Perceive): 에이전트는 센서, API, 사용자 입력 등을 통해 환경의 상태를 받아들인다. 텍스트 기반 에이전트의 경우, 사용자의 프롬프트나 이전에 실행한 도구의 출력값(Observation)이 지각 정보가 된다.15
- 추론 (Reason): 수집된 정보를 바탕으로 현재 상황을 이해하고, 목표 달성을 위한 최적의 다음 단계를 결정한다. 이 단계에서 LLM은 지식 베이스와 논리적 추론 능력을 활용하여 계획을 수립하거나 수정한다.16 여기에는 목표 우선순위 설정, 갈등 해결, 의도 선택 등이 포함된다.
- 행동 (Act): 추론의 결과에 따라 구체적인 행동을 실행한다. 이는 사용자에게 답변을 생성하는 것일 수도 있고, 외부 도구(Tool)를 호출하여 시스템에 변화를 주는 것일 수도 있다.17
이 사이클은 목표가 충족되거나 에이전트가 더 이상 할 수 있는 일이 없다고 판단될 때까지 반복된다. 이러한 구조는 에이전트가 정해진 스크립트가 아닌, 상황에 따라 유연하게 대처할 수 있는 기반을 제공한다.16
3.2 추론의 핵심: ReAct 프레임워크와 CoT
에이전트가 복잡한 문제를 해결하기 위해 가장 널리 사용되는 추론 기법은 Google Research가 제안한 ReAct (Reasoning + Acting) 프레임워크이다.
3.2.1 ReAct의 작동 원리
ReAct는 LLM이 행동(Acting)을 취하기 전에 명시적인 추론(Reasoning/Thought) 과정을 거치도록 유도한다. 이는 인간이 행동하기 전에 속으로 생각하는 ’내적 독백(Inner Monologue)’과 유사하다.18
- Thought (생각): 현재 상태를 분석하고 다음에 무엇을 해야 할지 계획한다. (예: “사용자가 ‘비틀즈 멤버 중 누가 살아있는지’ 물었다. 먼저 비틀즈 멤버 목록을 검색해야 한다.”)
- Action (행동): 구체적인 도구를 선택하고 실행한다. (예:
GoogleSearch("Beatles members")) - Observation (관찰): 도구의 실행 결과를 확인한다. (예: 검색 결과로 멤버 이름과 생존 여부 텍스트 획득)
- Repeat: 관찰 결과를 바탕으로 다시 생각(Thought) 단계로 돌아가 정보를 종합하거나 추가 검색을 수행한다.
이러한 방식은 모델이 자신의 논리를 추적할 수 있게 하고, 외부 정보에 기반(Grounding)하여 환각(Hallucination)을 줄이는 데 기여한다.19
3.2.2 Chain of Thought (CoT)와의 비교
기존의 Chain of Thought (CoT) 프롬프팅이 모델 내부의 지식만을 활용하여 단계적으로 추론하는 정적인 방식이라면, ReAct는 외부 환경과의 상호작용을 추론 과정에 통합한 동적인 방식이다.21 연구 결과에 따르면, ReAct는 CoT보다 사실적 정확도와 의사결정의 신뢰성이 높으며, 특히 외부 정보가 필요한 지식 집약적 작업에서 우수한 성능을 보인다.21 ReAct는 추론과 행동을 결합함으로써 에이전트가 계획을 수정하고 예외 상황에 대처할 수 있는 유연성을 제공한다.19
3.3 메모리 시스템: 맥락의 유지와 학습
에이전트가 장기적인 작업을 수행하기 위해서는 과거의 행동과 결과를 기억하는 메모리 시스템이 필수적이다. 에이전트 메모리는 크게 단기 기억과 장기 기억으로 나뉜다.24
3.3.1 단기 기억 (Short-term Memory)
단기 기억은 LLM의 **컨텍스트 윈도우(Context Window)**에 해당한다. 현재 진행 중인 대화의 내용, 최근 수행한 도구의 결과, 에이전트의 현재 사고 과정(Thought Trace)이 여기에 저장된다. 이는 인-컨텍스트 러닝(In-context Learning)을 가능하게 하지만, 토큰 수의 제한으로 인해 용량이 한정적이고 세션이 종료되면 사라지는 휘발성을 가진다.24
3.3.2 장기 기억 (Long-term Memory)과 벡터 데이터베이스
장기 기억은 에이전트가 세션을 넘어서도 정보를 영구적으로 저장하고 검색할 수 있게 해준다. 이는 주로 **벡터 데이터베이스(Vector Database)**를 활용한 RAG(Retrieval-Augmented Generation) 패턴으로 구현된다.26
- 메커니즘: 에이전트의 경험이나 지식(텍스트)을 임베딩(Embedding) 벡터로 변환하여 저장한다. 추후 관련 정보가 필요할 때, 현재 상황(Query)을 벡터화하여 데이터베이스에서 의미적으로 가장 유사한 기억을 검색(Retrieval)한다.28
- 역할: 이를 통해 에이전트는 과거의 성공/실패 경험, 사용자의 선호도, 방대한 도메인 지식을 활용할 수 있으며, 이는 에이전트의 개인화와 성능 향상에 기여한다. Microsoft Azure Cosmos DB와 같은 통합 데이터베이스 솔루션은 이러한 에이전트 메모리 구축을 위한 핵심 인프라로 주목받고 있다.27
3.4 도구 사용(Tool Use)과 실행 인터페이스
에이전트를 실질적인 ’행위자’로 만드는 것은 도구 사용 능력이다.
- 함수 호출 (Function Calling): 최신 LLM(GPT-4 등)은 자연어 요청을 특정 API를 호출할 수 있는 구조화된 데이터(JSON 등)로 변환하는 기능을 내장하고 있다. 에이전트가 “서울 날씨 어때?“라는 질문을 받으면, 이를
get_weather(location="Seoul")과 같은 함수 호출로 변환하고, 실제 API 응답을 받아 다시 자연어로 해석한다.29 - MCP (Model Context Protocol): 2024~2025년 등장한 MCP는 AI 모델과 외부 도구 사이의 연결을 표준화하는 프로토콜이다. 마치 USB-C 케이블처럼, MCP는 에이전트가 수백, 수천 개의 다양한 도구(데이터 소스, API, 시스템)에 쉽게 ’플러그인’할 수 있게 하여 에이전트 생태계의 확장성을 보장한다.14
- 코드 실행 (Code Execution): 에이전트는 복잡한 계산이나 데이터 분석을 위해 직접 코드(주로 Python)를 작성하고 실행한다. 이는 에이전트가 단순히 미리 정의된 도구만 사용하는 것을 넘어, 즉석에서 필요한 도구를 ’제작’하여 사용하는 수준의 문제 해결 능력을 보여준다.32
4. 자율적 목표 생성과 자기 주도적 에이전트
AI 에이전트 기술의 진화에서 가장 주목할 만한 지점은 인간의 개입을 최소화하는 ‘자기 주도적(Self-directed)’ 에이전트의 등장이다. 이는 2023년 AutoGPT와 BabyAGI와 같은 실험적 프로젝트를 통해 대중에게 각인되었으며, 2025년에는 엔터프라이즈급 자율 에이전트로 발전하고 있다.
4.1 재귀적 작업 루프 (Recursive Task Loop)
BabyAGI와 같은 초기 자율 에이전트는 목표 달성을 위해 작업을 생성하고, 실행하고, 다시 우선순위를 정하는 무한 루프 알고리즘을 사용한다. 이 구조는 에이전트가 단순히 명령을 따르는 것을 넘어 ’기획’을 할 수 있게 만든다.33
| 단계 (Stage) | 설명 (Description) | 역할 (Role) |
|---|---|---|
| 1. 작업 실행 (Task Execution) | 리스트의 최상위 작업을 가져와 실행한다. 벡터 DB의 컨텍스트를 활용한다. | 실행 에이전트 (Execution Agent) |
| 2. 결과 저장 (Result Storage) | 실행 결과를 벡터 데이터베이스에 저장하여 장기 기억을 형성한다. | 메모리 시스템 |
| 3. 작업 생성 (Task Creation) | 이전 작업의 결과와 최종 목표를 분석하여 필요한 후속 작업들을 생성한다. | 작업 생성 에이전트 (Task Creation Agent) |
| 4. 우선순위 지정 (Prioritization) | 전체 작업 리스트를 재검토하여 중요도와 의존성에 따라 순서를 재배열한다. | 우선순위 에이전트 (Prioritization Agent) |
이러한 메커니즘을 통해 에이전트는 “시장 조사 보고서를 써줘“라는 하나의 목표만 주어져도, 스스로 “경쟁사 목록 작성”, “재무 제표 검색”, “데이터 요약”, “보고서 초안 작성” 등의 하위 작업을 생성하고 순차적으로 실행해 나간다.35
4.2 자율성 레벨과 Frontier Agents
2025년, AWS 등 주요 기술 기업들은 이러한 자율 에이전트를 Frontier Agents라고 칭하며, 자율성의 수준을 체계적으로 분류하고 있다.36
- 레벨 1 (Chain): 규칙 기반의 RPA(Robotic Process Automation). 미리 정의된 순서대로만 행동한다.
- 레벨 2 (Workflow): 분기 로직이나 LLM 라우터를 사용하여 순서를 동적으로 결정하지만, 행동 자체는 사전 정의되어 있다.
- 레벨 3 (Partially Autonomous): 목표가 주어지면 도메인 특화 도구를 사용하여 계획을 수립하고 실행한다. 최소한의 인간 감독이 필요하다.
- 레벨 4 (Fully Autonomous): 도메인을 넘나들며(Cross-domain) 스스로 목표를 설정하고, 실패 시 전략을 수정하며, 인간의 개입 없이 장시간(수 시간~수 일) 독립적으로 운영된다.
Frontier Agents는 개발, 보안, 운영(DevOps) 등에서 인간 엔지니어처럼 행동하며, 시스템의 신뢰성과 성능을 능동적으로 개선하는 역할을 수행한다.36
5. 다중 에이전트 시스템 (Multi-Agent Systems): 협업과 분업
단일 에이전트의 인지 부하와 컨텍스트 제한을 극복하기 위해, 여러 전문화된 에이전트가 협업하는 **다중 에이전트 시스템(MAS)**이 대세로 자리 잡고 있다.38 이는 복잡한 문제를 분해하고 전문성을 결합하여 더 높은 품질의 결과를 산출한다.
5.1 주요 협업 패턴 (Interaction Patterns)
다중 에이전트 시스템은 에이전트 간의 관계와 통신 구조에 따라 다양한 패턴을 가진다.40
5.1.1 오케스트레이터-워커 (Orchestrator-Workers) / 계층적 구조
중앙의 감독자(Supervisor) 에이전트가 존재하여 작업을 분해하고 각 워커(Worker) 에이전트에게 할당하는 방식이다.
- 작동 방식: 사용자의 요청이 들어오면 감독자가 계획을 세우고, “웹 검색 에이전트”, “코딩 에이전트”, “작문 에이전트” 등에게 하위 작업을 지시한다. 워커들의 결과물은 다시 감독자에게 보고되어 종합된다.
- 장점: 책임 소재가 명확하고 복잡한 프로젝트 관리에 유리하다. 기업의 조직도와 유사한 구조이다.42
5.1.2 순차적 협업 (Sequential Handoffs)
에이전트들이 파이프라인 형태로 연결되어, 앞선 에이전트의 출력이 다음 에이전트의 입력이 되는 방식이다.
- 작동 방식: 에이전트 A(연구) -> 에이전트 B(요약) -> 에이전트 C(번역). 공장의 조립 라인과 유사하다.
- 장점: 프로세스가 명확하게 정의된 반복 업무 자동화에 효율적이다.44
5.1.3 공동 협업 및 토론 (Joint Collaboration & Debate)
에이전트들이 수평적인 관계에서 대화하며 문제를 해결하는 방식이다.
- 작동 방식: 여러 에이전트가 “그룹 채팅“방에 모여 서로의 의견을 비평(Critic)하고 토론(Debate)한다. 연구에 따르면, 이러한 토론 과정은 단일 에이전트의 독단적인 오류를 수정하고 추론의 질을 높이는 효과가 있다.45
5.2 주요 프레임워크 비교: AutoGen vs. CrewAI
현재 가장 널리 사용되는 오픈소스 멀티 에이전트 프레임워크는 Microsoft AutoGen과 CrewAI이다.
| 구분 | Microsoft AutoGen | CrewAI |
|---|---|---|
| 핵심 철학 | 대화 중심 (Conversational): 에이전트 간의 자유로운 대화 흐름을 중시. | 역할 중심 (Role-based): 구조화된 역할(Role)과 프로세스(Process) 정의를 중시. |
| 협업 방식 | 유연한 대화 패턴. 에이전트들이 채팅을 통해 작업을 수행. | 순차적(Sequential) 또는 계층적(Hierarchical) 프로세스에 따른 엄격한 위임. |
| 강점 | 코드 실행(Code Execution) 및 동적 워크플로우. 개발자 및 연구용으로 적합. | 설정이 간편하고 직관적. 비즈니스 프로세스 자동화 및 콘텐츠 생성에 적합. |
| 주요 기능 | Group Chat Manager, User Proxy Agent (인간 개입). | Task Delegation, Memory Management, LangChain 통합. |
| 참고 문헌 | 47 | 38 |
AutoGen은 에이전트 간의 상호작용이 복잡하고 예측하기 어려운 시나리오(예: 공동 코딩)에 강점이 있으며, CrewAI는 역할이 명확한 팀 작업(예: 마케팅 캠페인 기획)을 시뮬레이션하는 데 유리하다.
6. 2025년 산업 동향 및 엔터프라이즈 적용
2025년은 AI 에이전트가 개념 증명(PoC) 단계를 넘어 실제 비즈니스 가치를 창출하는 원년으로 기록되고 있다. 기업들은 단순한 챗봇 도입을 넘어, 업무 프로세스 자체를 자율화하는 에이전틱 AI로 투자를 확대하고 있다.52
6.1 시장 현황: 파일럿에서 수익 창출로
Bain, McKinsey, Deloitte 등의 보고서에 따르면, 기술 선도 기업들은 AI 도입을 통해 이미 10~25%의 EBITDA(상각 전 영업이익) 상승 효과를 보고 있다.52 그러나 많은 기업들이 여전히 ’파일럿의 덫(Pilot Trap)’에 갇혀 있으며, 이를 돌파하기 위해 에이전틱 AI를 주목하고 있다. 생성형 AI가 정보를 제공하는 데 그쳤다면, 에이전틱 AI는 실질적인 업무를 ’수행’함으로써 ROI를 증명하고 있다.53
6.2 주요 적용 사례 (Use Cases)
- 소프트웨어 개발 및 IT 운영: 에이전트가 코드를 작성하는 것을 넘어, 전체 저장소를 분석하고, 버그를 수정하며, 배포 파이프라인을 관리한다. ’Devin’과 같은 자율 코딩 에이전트의 등장은 개발자의 역할을 코더(Coder)에서 감독자(Supervisor)로 변화시키고 있다.32
- 심층 연구 (Deep Research): 단순히 검색 결과를 나열하는 것이 아니라, 수백 개의 웹페이지를 탐색하고, 정보를 교차 검증하며, 종합적인 보고서를 작성하는 연구 에이전트가 도입되고 있다. 이는 금융 분석, 시장 조사, 법률 판례 분석 등에서 인간 전문가의 시간을 획기적으로 절약해준다.56
- 고객 서비스 및 운영: 단순 질의응답 챗봇을 넘어, 환불 처리, 예약 변경, 배송 추적 등 백엔드 시스템과 연동하여 실제 민원을 해결하는 ‘해결사(Doer)’ 에이전트가 확산되고 있다.58
7. 기술적 과제와 미래 전망
에이전틱 AI의 잠재력에도 불구하고, 상용화와 신뢰성 확보를 위해서는 해결해야 할 난제들이 존재한다.
7.1 신뢰성 장벽 (The Reliability Barrier)과 오류 전파
에이전트 시스템의 가장 큰 취약점은 **오류 전파(Error Propagation)**이다. 단일 단계의 LLM이 90%의 정확도를 가진다고 가정할 때, 10단계의 연속적인 작업을 수행하는 에이전트의 전체 성공 확률은 0.9^{10} \approx 34%로 급격히 떨어진다.59
- 도구 환각 (Tool Hallucination): 에이전트가 존재하지 않는 API를 호출하거나 잘못된 매개변수를 사용하는 현상.60
- 연쇄 작용: 초기 단계의 사소한 판단 착오가 후속 작업 전체를 엉뚱한 방향으로 이끌어, 결국 막대한 컴퓨팅 리소스만 낭비하고 실패하는 경우가 빈번하다. 이를 해결하기 위해 각 단계마다 검증(Verification) 절차를 두거나, 자기 반성(Self-Reflection) 메커니즘을 강화하는 연구가 진행 중이다.61
7.2 비용 및 속도 문제
자율 에이전트는 목표 달성을 위해 수십 번의 LLM 추론과 도구 호출을 수행할 수 있다. 이는 API 비용의 기하급수적인 증가와 응답 속도 지연(Latency)을 초래한다. 에이전트가 무한 루프에 빠져 예산을 탕진하는 것을 방지하기 위한 안전장치와 비용 제어 메커니즘이 필수적이다.62
7.3 안전성과 통제 (Alignment & Control)
에이전트가 자율적으로 행동할 수 있다는 것은 동시에 통제를 벗어날 위험이 있음을 의미한다. 에이전트가 목표 달성을 위해 비윤리적인 방법을 사용하거나, 시스템에 해를 끼치는 명령을 실행할 가능성(예: 프롬프트 인젝션 공격)에 대한 방어책이 마련되어야 한다.63 인간이 최종 결정권을 가지는 ‘Human-in-the-loop’ 구조는 당분간 필수적인 안전장치로 남을 것이다.64
8. 결론: Superagency 시대를 향하여
인공지능 에이전트는 AI를 수동적인 도구에서 능동적인 동반자로 변화시키는 거대한 전환점이다. LLM이 사고하는 두뇌를 제공했다면, 에이전트 아키텍처는 그 두뇌에 손과 발, 그리고 기억을 부여하여 현실 세계와 상호작용하게 만들었다.
2025년, 우리는 단일 에이전트를 넘어 다중 에이전트 시스템이 조직적으로 협업하는 시대로 진입하고 있다. 이는 기업의 생산성을 재정의하고, 인간의 업무 방식을 근본적으로 바꿀 것이다. 물론 신뢰성, 비용, 안전성이라는 과제가 남아있지만, 에이전트 기술의 발전 속도는 그 어느 때보다 빠르다. 결국 미래는 인간과 AI 에이전트가 서로의 강점을 활용하여 협업하는 ’Superagency’의 시대가 될 것이다.65
9. 참고 자료
- AI Agents: Evolution, Architecture, and Real-World Applications - arXiv, https://arxiv.org/html/2503.12687v1
- Intelligent Agents: Exploring Definitions and Bridging Classical and Modern Views | by Makbule Gulcin Ozsoy | Medium, https://medium.com/@makbule.ozsoy_73232/intelligent-agents-exploring-definitions-and-bridging-classical-and-modern-views-b1a97a1514e2
- Artificial Intelligence - A Modern Approach Third Edition - Repository Institut Informatika dan Bisnis Darmajaya, http://repo.darmajaya.ac.id/5272/1/Artificial%20Intelligence-A%20Modern%20Approach%20(3rd%20Edition)%20(%20PDFDrive%20).pdf
- A Conceptual Framework for Agent Definition and Development - ePrints Soton, https://eprints.soton.ac.uk/255894/1/tcj01.pdf
- What are the core characteristics of an intelligent agent? - Tencent Cloud, https://www.tencentcloud.com/techpedia/126353
- A Complete Guide on AI Agents 2024 - F22 Labs, https://www.f22labs.com/blogs/a-complete-guide-to-ai-agents/
- Key Characteristics of Intelligent Agents: Autonomy, Adaptability, and Decision-Making, https://smythos.com/developers/agent-development/intelligent-agent-characteristics/
- LLMs, AI Agents, and Agentic AI: Understanding the Next AI Evolution - ILI Digital, https://ili.digital/resource/understanding-llms-ai-agents-agentic-ai/
- 12월 9, 2025에 액세스, [https://www.salesforce.com/agentforce/agentic-ai-vs-generative-ai/#::text=The%20main%20difference%20is%20their,achieve%20a%20multi%2Dstep%20objective.](https://www.salesforce.com/agentforce/agentic-ai-vs-generative-ai/#::text=The main difference is their, https://www.salesforce.com/agentforce/agentic-ai-vs-generative-ai/#:~:text=The%20main%20difference%20is%20their,achieve%20a%20multi%2Dstep%20objective.
- Generative AI vs Agentic AI | what’s the difference?, https://www.youtube.com/shorts/ND-ymPjohnc
- Key Differences Between an LLM and a True AI Agent - YouTube, https://www.youtube.com/shorts/71pJWxdtQQo
- Agentic AI vs Generative AI: The Key Differences - Virtuoso QA, https://www.virtuosoqa.com/post/agentic-ai-vs-generative-ai
- Understanding AI Agents vs LLMs: Key Differences Explained - Ema, https://www.ema.co/additional-blogs/addition-blogs/ai-agent-vs-llm-key-differences
- Agentic AI vs. generative AI - Red Hat, https://www.redhat.com/en/topics/ai/agentic-ai-vs-generative-ai
- What Is AI Agent Perception? | IBM, https://www.ibm.com/think/topics/ai-agent-perception
- The agent function: perceive, reason, act - AWS Prescriptive Guidance, https://docs.aws.amazon.com/prescriptive-guidance/latest/agentic-ai-foundations/perceive-reason-act.html
- Understanding AI Agents through the Thought-Action-Observation Cycle - Hugging Face, https://huggingface.co/learn/agents-course/unit1/agent-steps-and-structure
- What is a ReAct Agent? | IBM, https://www.ibm.com/think/topics/react-agent
- ReAct: Synergizing Reasoning and Acting in Language Models - Google Research, https://research.google/blog/react-synergizing-reasoning-and-acting-in-language-models/
- Chain-of-Thought vs. ReAct: A Deep Dive into Reasoning Paradigms for Large Language Models | by Xiwei Zhou | Medium, https://medium.com/@xiweizhou/chain-of-thought-vs-react-a-deep-dive-into-reasoning-paradigms-for-large-language-models-620f52e5e7e2
- ReAct - Prompt Engineering Guide, https://www.promptingguide.ai/techniques/react
- ReAct: Merging Reasoning and Action to Elevate AI Task Solving - Oct 28, 2024 - Neradot, https://www.neradot.com/post/react
- Thought: Internal Reasoning and the ReAct Approach - Hugging Face Agents Course, https://huggingface.co/learn/agents-course/unit1/thoughts
- LLM Agents - Prompt Engineering Guide, https://www.promptingguide.ai/research/llm-agents
- AI Agent Blueprint: From Reflection to Action | by Bijit Ghosh | Medium, https://medium.com/@bijit211987/ai-agent-blueprint-from-reflection-to-action-06ad05410253
- A-Mem: Agentic Memory for LLM Agents - arXiv, https://arxiv.org/html/2502.12110v11
- AI Agents and Solutions - Azure Cosmos DB | Microsoft Learn, https://learn.microsoft.com/en-us/azure/cosmos-db/ai-agents
- Enhancing LLMs with Vector Database with real-world examples | JFrog ML - Qwak, https://www.qwak.com/post/utilizing-llms-with-embedding-stores
- LLMs vs AI Agents : What Is The Actual Difference | by Harisudhan.S | Medium, https://medium.com/@speaktoharisudhan/llms-vs-ai-agents-what-is-the-actual-difference-cebd4cb789cd
- Introduction to Microsoft Agent Framework, https://learn.microsoft.com/en-us/agent-framework/overview/agent-framework-overview
- Writing effective tools for AI agents—using AI agents - Anthropic, https://www.anthropic.com/engineering/writing-tools-for-agents
- AI Agent Architecture Explained: LLMs, Context & Tool Execution, https://www.youtube.com/watch?v=bfBOn2Ahj4c
- Decoding BabyAGI: Unraveling Task-Driven Autonomy | by Akshat Singh | Medium, https://medium.com/@akshat.singh1718/decoding-babyagi-unraveling-task-driven-autonomy-f6002dbd659c
- What is BabyAGI? - IBM, https://www.ibm.com/think/topics/babyagi
- BabyAGI Explained: How AI Task Management Can Solve Complex Problems, https://blog.wordware.ai/babyagi-explained-how-ai-task-management-can-solve-complex-problems
- AWS unveils frontier agents, a new class of AI agents that work as an extension of your software development team - About Amazon, https://www.aboutamazon.com/news/aws/amazon-ai-frontier-agents-autonomous-kiro
- The rise of autonomous agents: What enterprise leaders need to know about the next wave of AI | AWS Insights, https://aws.amazon.com/blogs/aws-insights/the-rise-of-autonomous-agents-what-enterprise-leaders-need-to-know-about-the-next-wave-of-ai/
- What is crewAI? - IBM, https://www.ibm.com/think/topics/crew-ai
- Agentic AI #6 — Multi-Agent Architectures Explained: How AI Agents Collaborate | by Aman Raghuvanshi | Medium, https://medium.com/@iamanraghuvanshi/agentic-ai-7-multi-agent-architectures-explained-how-ai-agents-collaborate-141c23e9117f
- Four Design Patterns for Event-Driven, Multi-Agent Systems - Confluent, https://www.confluent.io/blog/event-driven-multi-agent-systems/
- Multi-agent systems, concepts & patterns | The Agent Factory Podcast - YouTube, https://www.youtube.com/watch?v=TGNScswE0kU&vl=en
- Hierarchical Agent Teams - GitHub Pages, https://langchain-ai.github.io/langgraph/tutorials/multi_agent/hierarchical_agent_teams/
- Hierarchical Multi-Agent Systems: Concepts and Operational Considerations - Over Coffee, https://overcoffee.medium.com/hierarchical-multi-agent-systems-concepts-and-operational-considerations-e06fff0bea8c
- Tutorial : Multi-Agent interactions with Autogen and Gemini — Part 7: Sequential Chat | by Romin Irani | Google Cloud - Community | Medium, https://medium.com/google-cloud/tutorial-multi-agent-interactions-with-autogen-and-gemini-part-7-sequential-chat-885fe1cc55d0
- Patterns for Building Production Grade Agentic AI using Multi-Agent Systems , Patterns 1–5, https://dr-arsanjani.medium.com/patterns-for-agentic-ai-in-multi-agent-systems-patterns-1-4-f4c952bfc123
- AutoGen Multi-agent Conversations Memory - GibsonAI, https://gibsonai.com/blog/autogen-multi-agent-conversation-memory
- 2025 Guide to Production-Ready AI Agent Frameworks: CrewAI vs AutoGen - Kanerika, https://kanerika.com/blogs/crewai-vs-autogen/
- Conversation Patterns | AutoGen 0.2 - Microsoft Open Source, https://microsoft.github.io/autogen/0.2/docs/tutorial/conversation-patterns/
- AutoGen: Enabling Next-Gen LLM Applications via Multi-Agent Conversation - Microsoft, https://www.microsoft.com/en-us/research/publication/autogen-enabling-next-gen-llm-applications-via-multi-agent-conversation-framework/
- LLMs for Multi-Agent Cooperation | Xueguang Lyu, https://xue-guang.com/post/llm-marl/
- Collaboration - CrewAI Documentation, https://docs.crewai.com/concepts/collaboration
- State of the Art of Agentic AI Transformation | Bain & Company, https://www.bain.com/insights/state-of-the-art-of-agentic-ai-transformation-technology-report-2025/
- The GenAI Divide: State of AI in Business 2025 - MLQ.ai, https://mlq.ai/media/quarterly_decks/v0.1_State_of_AI_in_Business_2025_Report.pdf
- AI agent survey: PwC, https://www.pwc.com/us/en/tech-effect/ai-analytics/ai-agent-survey.html
- State of the Agentic AI Market Report 2025 - ISG-One, https://isg-one.com/advisory/artificial-intelligence-advisory/state-of-the-agentic-ai-market-report-2025
- How we built our multi-agent research system - Anthropic, https://www.anthropic.com/engineering/multi-agent-research-system
- The Two Breakout Use Cases for Generative AI, https://cobusgreyling.medium.com/the-two-breakout-use-cases-for-generative-ai-d9039a4ecfd5
- Real-world gen AI use cases from the world’s leading organizations | Google Cloud Blog, https://cloud.google.com/transform/101-real-world-generative-ai-use-cases-from-industry-leaders
- 7 AI Agent Failure Modes and How To Fix Them | Galileo, https://galileo.ai/blog/agent-failure-modes-guide
- LLM-based Agents Suffer from Hallucinations: A Survey of Taxonomy, Methods, and Directions - arXiv, https://arxiv.org/html/2509.18970v1
- Why LLM Agents Still Hallucinate (Even with Tool Use and Prompt Chains) - Reddit, https://www.reddit.com/r/LocalLLaMA/comments/1kwhr56/why_llm_agents_still_hallucinate_even_with_tool/
- The Hidden Cost of Agentic AI: Why Most Projects Fail Before Reaching Production, https://galileo.ai/blog/hidden-cost-of-agentic-ai
- Taxonomy of Failure Mode in Agentic AI Systems - Microsoft, https://cdn-dynmedia-1.microsoft.com/is/content/microsoftcorp/microsoft/final/en-us/microsoft-brand/documents/Taxonomy-of-Failure-Mode-in-Agentic-AI-Systems-Whitepaper.pdf
- The Next “Next Big Thing”: Agentic AI’s Opportunities and Risks, https://scet.berkeley.edu/the-next-next-big-thing-agentic-ais-opportunities-and-risks/
- AI in the workplace: A report for 2025 - McKinsey, https://www.mckinsey.com/capabilities/tech-and-ai/our-insights/superagency-in-the-workplace-empowering-people-to-unlock-ais-full-potential-at-work