397.79 인간-로봇 상호작용(HRI) 기반 혼합 이니셔티브 계획
1. 서론
혼합 이니셔티브 계획(Mixed-Initiative Planning)은 인간 운영자와 자율 로봇 시스템이 임무 계획 수립 과정에서 공동으로 의사 결정에 참여하는 협력적 계획 패러다임이다. 완전 자율(Fully Autonomous) 계획은 복잡하고 불확실한 환경에서 인간 수준의 상황 판단과 윤리적 결정을 보장하기 어려우며, 완전 수동(Fully Manual) 계획은 운영자의 인지적 부하(Cognitive Load)를 과도하게 요구한다. 혼합 이니셔티브 계획은 이 양극단의 한계를 극복하여, 인간의 직관과 도메인 지식을 로봇의 계산 능력과 결합하는 것을 목표로 한다. 본 절에서는 혼합 이니셔티브 계획의 이론적 기반, 핵심 아키텍처, 상호작용 메커니즘, 그리고 설계 과제를 체계적으로 기술한다.
2. 혼합 이니셔티브의 이론적 기반
2.1 혼합 이니셔티브의 정의
혼합 이니셔티브(Mixed-Initiative) 시스템은 인간과 자동화 시스템이 공유된 의사 결정 과정에서 이니셔티브(Initiative), 즉 주도권을 동적으로 교환하는 시스템이다 (Horvitz, 1999). 임무 계획의 맥락에서 혼합 이니셔티브는 다음과 같이 형식화된다.
\pi = f_{\text{MI}}(\pi_{\text{auto}}, \pi_{\text{human}}, \mathcal{I}_{\text{context}})
여기서 \pi_{\text{auto}}는 자율 시스템이 제안한 계획, \pi_{\text{human}}은 인간이 수정하거나 제안한 계획 요소, \mathcal{I}_{\text{context}}는 이니셔티브 전환을 결정하는 맥락 정보이다.
2.2 자율성 수준과 이니셔티브 할당
Sheridan and Verplank (1978)이 제안한 10단계 자율성 스케일(Level of Automation Scale)은 혼합 이니셔티브 시스템의 설계 기반이 된다. 임무 계획에서의 자율성 수준은 다음과 같이 분류할 수 있다.
| 수준 | 설명 | 이니셔티브 분배 |
|---|---|---|
| 1 | 인간이 모든 계획을 수립 | 인간 100% |
| 3 | 시스템이 대안을 제시하고 인간이 선택 | 시스템 30%, 인간 70% |
| 5 | 시스템이 계획을 제안하고 인간이 승인/수정 | 시스템 50%, 인간 50% |
| 7 | 시스템이 계획을 실행하되 인간이 개입 가능 | 시스템 70%, 인간 30% |
| 10 | 시스템이 완전 자율 계획 및 실행 | 시스템 100% |
혼합 이니셔티브 시스템은 일반적으로 수준 3에서 7 사이에서 동적으로 전환되며, 임무의 복잡도, 위험도, 시간 압박, 그리고 운영자의 가용성에 따라 적절한 수준이 결정된다.
2.3 결정 이론 기반 이니셔티브 할당
이니셔티브 할당을 결정 이론(Decision Theory)의 프레임워크에서 형식화할 수 있다. 특정 결정 지점 d에서 인간 주도(Human Initiative) I_H와 시스템 주도(System Initiative) I_S의 기대 효용(Expected Utility)을 비교하여 이니셔티브를 할당한다.
I^*(d) = \arg\max_{I \in \{I_H, I_S\}} \mathbb{E}[U(I, d)]
기대 효용 \mathbb{E}[U(I, d)]는 결정 품질(Decision Quality), 시간 비용(Time Cost), 인지 부하(Cognitive Load), 그리고 위험(Risk)의 함수로 모델링된다.
\mathbb{E}[U(I, d)] = w_Q \cdot Q(I, d) - w_T \cdot T(I, d) - w_C \cdot C(I, d) - w_R \cdot R(I, d)
여기서 w_Q, w_T, w_C, w_R은 각 요소의 가중치, Q는 결정 품질, T는 시간 비용, C는 인지 부하, R은 위험이다.
3. 혼합 이니셔티브 계획 아키텍처
3.1 제안-승인 모델 (Propose-Approve Model)
가장 기본적인 혼합 이니셔티브 아키텍처로, 자율 시스템이 계획을 제안하고 인간 운영자가 승인, 수정, 또는 거부하는 구조이다.
\text{시스템} \xrightarrow{\pi_{\text{proposed}}} \text{인간} \xrightarrow{\text{approve/modify/reject}} \text{시스템} \xrightarrow{\pi_{\text{final}}} \text{실행}
이 모델의 장점은 구현이 간단하고 인간의 최종 통제권이 보장된다는 것이다. 그러나 고빈도 의사 결정이 필요한 동적 환경에서는 인간의 응답 지연(Response Latency)이 병목이 된다.
3.2 협상 모델 (Negotiation Model)
인간과 시스템이 계획의 각 요소에 대해 협상(Negotiation)을 수행하는 구조이다. 양측은 각자의 선호도(Preference)와 제약 조건(Constraint)을 제시하고, 이를 조율하여 합의된 계획을 도출한다.
\pi_{\text{agreed}} = \text{Negotiate}(\mathcal{P}_{\text{human}}, \mathcal{P}_{\text{system}}, \mathcal{C}_{\text{shared}})
여기서 \mathcal{P}_{\text{human}}은 인간의 선호도 집합, \mathcal{P}_{\text{system}}은 시스템의 제약 기반 선호도, \mathcal{C}_{\text{shared}}는 양측이 공유하는 제약 조건이다. MAPGEN(Mixed-Initiative Activity Plan Generator)은 NASA의 화성 탐사 로버 임무에 적용된 협상 기반 혼합 이니셔티브 계획 시스템의 대표 사례이다 (Ai-Chang et al., 2004).
3.3 적응형 자율성 모델 (Adaptive Autonomy Model)
적응형 자율성(Adaptive Autonomy) 모델은 상황에 따라 자율성 수준을 동적으로 조절한다. 시스템은 환경 상태, 임무 진행도, 운영자의 가용성 등을 모니터링하여 적절한 자율성 수준을 결정한다.
L_{\text{auto}}(t) = f_{\text{adapt}}(s_t, \text{LOA}_{\text{op}}(t), \text{risk}(t), \text{time\_pressure}(t))
여기서 L_{\text{auto}}(t)는 시각 t에서의 자율성 수준, s_t는 환경 상태, \text{LOA}_{\text{op}}(t)는 운영자의 상황 인식 수준(Level of Awareness), \text{risk}(t)는 현재 위험도, \text{time\_pressure}(t)는 시간 압박 정도이다.
적응형 자율성은 또한 인간의 인지 상태(Cognitive State)를 감지하여 자율성을 조절할 수 있다. 운영자의 피로(Fatigue), 주의 분산(Distraction), 과부하(Overload) 등이 감지되면 자율성 수준을 높여 운영자의 부담을 경감한다.
4. 상호작용 인터페이스 설계
4.1 계획 시각화 (Plan Visualization)
혼합 이니셔티브 시스템에서 운영자가 자율 시스템이 제안한 계획을 정확히 이해하기 위해서는 효과적인 시각화가 필수적이다. 계획 시각화의 핵심 요소는 다음과 같다.
- 시간축 표현(Timeline View): 각 로봇의 행동 시퀀스를 시간축 위에 표시하여 병렬 실행, 동기화 지점, 시간 제약 등을 직관적으로 파악할 수 있게 한다.
- 공간 표현(Spatial View): 지도 위에 로봇의 경로, 과업 위치, 금지 영역 등을 시각화한다.
- 계층 표현(Hierarchical View): 고수준 임무에서 저수준 행동까지의 분해 구조를 트리(Tree) 형태로 표현한다.
- 대안 비교(Alternative Comparison): 복수의 계획 대안을 병렬로 제시하여 운영자가 비교 평가할 수 있게 한다.
4.2 인간 입력 방식 (Human Input Modalities)
운영자가 계획에 개입하는 방식은 다음과 같이 분류된다.
| 입력 방식 | 설명 | 적용 상황 |
|---|---|---|
| 제약 추가 | 새로운 제약 조건(금지 영역, 시간 제한 등)을 지정 | 안전 요구 사항 반영 |
| 과업 순서 수정 | 과업의 실행 순서를 변경 | 우선순위 조정 |
| 자원 재할당 | 로봇-과업 할당을 변경 | 부하 분배 최적화 |
| 목표 추가/제거 | 임무 목표를 동적으로 변경 | 상황 변화 대응 |
| 자연어 지시 | 음성 또는 텍스트로 고수준 지시 전달 | 직관적 개입 |
4.3 설명 가능성 (Explainability)
운영자가 자율 시스템의 계획을 신뢰하고 효과적으로 수정하기 위해서는, 시스템이 특정 계획을 선택한 이유를 설명할 수 있어야 한다. 설명 가능한 계획(Explainable Planning, XAIP)은 다음의 형태로 제공된다 (Fox, Long, and Magazzeni, 2017).
- 대조적 설명(Contrastive Explanation): “왜 A를 선택했는가?” 대신 “왜 B 대신 A를 선택했는가?“의 형태로 제공되어 직관적 이해를 촉진한다.
- 인과적 설명(Causal Explanation): 특정 행동의 선행 원인과 연쇄 효과를 제시한다.
- 질의 기반 설명(Query-Based Explanation): 운영자의 질의에 대해 맥락에 적합한 설명을 생성한다.
5. 인지공학적 설계 고려사항
5.1 인지 부하 관리
혼합 이니셔티브 시스템에서 운영자의 인지 부하를 적절히 관리하는 것이 시스템 효과성의 핵심이다. Wickens (2008)의 다중 자원 이론(Multiple Resource Theory)에 따르면, 인간의 인지 자원은 시각적, 청각적, 공간적, 언어적 채널로 구분되며, 각 채널의 부하를 분산시키는 인터페이스 설계가 필요하다.
인지 부하의 실시간 추정은 다음의 지표를 통해 수행될 수 있다.
- 생리적 지표: 동공 확장(Pupil Dilation), 심박 변이도(Heart Rate Variability), 뇌전도(EEG) 등
- 작업 수행 지표: 응답 시간(Response Time), 오류율(Error Rate), 과업 전환 빈도 등
- 주관적 지표: NASA-TLX (Task Load Index) 등의 자기 보고 척도
5.2 상황 인식 (Situation Awareness)
Endsley (1995)의 상황 인식 모델에 따르면, 효과적인 혼합 이니셔티브 계획을 위해서는 운영자가 다음의 세 수준의 상황 인식을 유지해야 한다.
- 수준 1 - 지각(Perception): 현재 환경 요소의 인지
- 수준 2 - 이해(Comprehension): 환경 요소의 의미와 관련성 이해
- 수준 3 - 투영(Projection): 미래 상태의 예측
자율성 수준이 높아질수록 운영자의 상황 인식이 저하되는 **자율성 역설(Autonomy Paradox)**이 발생할 수 있다. 이는 과도한 자율화(Over-Automation)가 운영자를 의사 결정 루프에서 이탈시켜, 비상 시 효과적 개입이 어려워지는 현상이다 (Parasuraman and Riley, 1997).
5.3 신뢰 교정 (Trust Calibration)
운영자의 자율 시스템에 대한 신뢰(Trust)가 적절히 교정(Calibrate)되어야 한다. 과도한 신뢰(Over-Trust)는 자율 시스템의 오류를 간과하게 하고, 과소한 신뢰(Under-Trust)는 불필요한 인간 개입을 초래하여 시스템의 효율을 저하시킨다.
신뢰 교정을 위해서는 시스템의 성능과 한계를 투명하게 공개하고, 불확실성 수준을 명시적으로 전달하며, 시스템의 자기 평가(Self-Assessment) 결과를 제공하는 것이 효과적이다 (Lee and See, 2004).
6. 요약
혼합 이니셔티브 계획은 인간의 직관적 판단과 자율 시스템의 계산 능력을 결합하여, 완전 자율 또는 완전 수동 계획의 한계를 극복하는 패러다임이다. 제안-승인, 협상, 적응형 자율성 등의 아키텍처는 다양한 운용 시나리오에 적합한 이니셔티브 분배 전략을 제공한다. 효과적인 혼합 이니셔티브 시스템의 구현을 위해서는 직관적 계획 시각화, 다양한 인간 입력 방식, 설명 가능한 계획 생성 등의 인터페이스 설계가 필수적이며, 인지 부하 관리, 상황 인식 유지, 신뢰 교정 등의 인지공학적 원칙이 준수되어야 한다.
참고 문헌
- Ai-Chang, M., Bresina, J., Charest, L., Chase, A., Hsu, J., Jonsson, A., Kanefsky, B., Morris, P., Rajan, K., Yglesias, J., et al. (2004). “MAPGEN: Mixed-Initiative Planning and Scheduling for the Mars Exploration Rover Mission.” IEEE Intelligent Systems, 19(1), 8–12.
- Endsley, M. R. (1995). “Toward a Theory of Situation Awareness in Dynamic Systems.” Human Factors, 37(1), 32–64.
- Fox, M., Long, D., and Magazzeni, D. (2017). “Explainable Planning.” Proceedings of the IJCAI Workshop on Explainable AI (XAI).
- Horvitz, E. (1999). “Principles of Mixed-Initiative User Interfaces.” Proceedings of the ACM SIGCHI Conference on Human Factors in Computing Systems (CHI).
- Lee, J. D. and See, K. A. (2004). “Trust in Automation: Designing for Appropriate Reliance.” Human Factors, 46(1), 50–80.
- Parasuraman, R. and Riley, V. (1997). “Humans and Automation: Use, Misuse, Disuse, Abuse.” Human Factors, 39(2), 230–253.
- Sheridan, T. B. and Verplank, W. L. (1978). Human and Computer Control of Undersea Teleoperators. MIT Man-Machine Systems Laboratory.
- Wickens, C. D. (2008). “Multiple Resources and Mental Workload.” Human Factors, 50(3), 449–455.
version: 1.0