15.6.1. 모델 응답 변화에 따른 테스트 기대값(Expectation) 자동 제안 시스템
거대 언어 모델(LLM)을 백엔드로 사용하는 컴포넌트 환경에서는 ’올바른 행동(Correct Behavior)’의 정의가 고정 불변의 상수가 아니다. 프로덕트 요구사항이 변경되거나 더 지능적인 프롬프트 체인(Prompt Chain)이 도입됨에 따라, 모델은 기존 골든 데이터셋(Golden Dataset)의 정답지보다 훨씬 더 창의적이고 맥락적으로 우수한 응답을 산출하곤 한다.
그러나 낡은 오라클 시스템은 이러한 ’더 나은 답변’을 기계적인 불합치로 인식하여 무자비하게 실패(Fail) 처리해 버린다. 이를 해결하기 위해 개발자가 수동으로 DB를 열어 수천 건의 기대값(Expected Output)을 복사-붙여넣기 하는 작업은 막대한 인지와 시간의 낭비다. 본 절에서는 오라클 시스템 스스로 실패한(Fail) 케이스의 우수성을 평가하고 파이프라인 상에서 즉각적인 기대값 업데이트를 기안(Draft)하는 ’자동 제안 시스템(Auto-Proposal System)’의 구조를 설계한다.
1. 정답 역전 현상 (Ground Truth Inversion)의 인지
자동 제안 시스템을 구축하기 위해서는 먼저 ’무엇이 더 나은 정답인가?’를 판별하는 고차원적인 지능이 필요하다.
기존의 단순 문자열 매칭(Exact Match) 로직이나 정규표현식(Regex) 기반의 1차원적 오라클은 이를 수행할 수 없다. 오라클 실패 이벤트가 발생하면 그 즉시 **LLM-as-a-Judge 패러다임을 역산(Reverse)**하여, 기존의 정답 스키마와 새로운 모델 응답을 동시에 평가하는 판관(Judge) 모델 파이프라인을 트리거해야 한다. 판관은 구형 정답지(Old Expected)와 새로운 출력물(New Actual)을 비교 분석하여 “새로운 출력이 비즈니스 로직에 부합하며 사실상 기존 정답지를 대체해야 마땅한 품질 향상(Quality Uplift)을 가져왔는가?“를 철학적으로 판별한다.
2. 자동 제안 파이프라인(Auto-Proposal Pipeline) 아키텍처
AI 파워드 백엔드 환경에서 낡은 오라클의 기대값을 자동 수선하는 파이프라인의 작업 흐름은 다음과 같이 거시적인 관점에서 설계된다.
graph TD
A[단위/회귀 테스트 실패 발생] --> B[단순 오타/스펙 위반 여부 1차 필터링]
B -->|명백한 버그| C[일반 Fail 처리 및 Alert 발송]
B -->|도메인 규칙은 만족하나 값이 다름| D[LLM Judge 판관에게 교차 검증 요청]
D --> E{새 응답이 구 정답보다 우수한가?}
E -->|No| C
E -->|Yes: Ground Truth Inversion 탐지| F[새 응답을 기대값으로 하는 Golden Dataset Patch 생성]
F --> G[이슈 트래커 / GitHub PR 등제]
G -.-> H[개발자 HITL: One-Click 'Accept New Baseline']
H --> I[Golden DB 갱신 및 파이프라인 재개]
style D fill:#e1bee7,stroke:#8e24aa,stroke-width:2px
style F fill:#e3f2fd,stroke:#2196f3,stroke-width:2px
style I fill:#e6ffe6,stroke:#2ca02c,stroke-width:2px
2.1 섀도우 런(Shadow Run)을 통한 백그라운드 평가
이 제안 시스템은 핵심 파이프라인의 속도를 저하시켜선 안 된다. 현업 개발자들이 테스트 결과를 기다리며 대기하지 않도록, 모든 LLM-as-a-Judge 재평가 프로세스는 비동기 메시지 큐(Async Message Queue, e.g., Celery, RabbitMQ)를 통해 백그라운드의 **섀도우 런(Shadow Run)**으로 실행되어야 한다.
2.2 메타데이터 태깅과 Diff 리포트
단순히 “이게 더 낫습니다“라는 결론만 던져주는 시스템은 버려진다. 제안(Proposal)이 개발자에게 전달될 때는 기존 응답과의 차이점(Diff), 새로운 응답이 더 우수하다고 판단한 SOTA 모델의 근거(Rationale), 그리고 이 변경이 미칠 테스트 스위트 생태계의 바운더리(Boundary) 임팩트 레포트가 메타데이터로 첨부되어야만 인간-루프(HITL)의 신속한 의사결정을 유도할 수 있다.
3. 소결
고도화된 AI 애플리케이션에서 테스트 작성은 더 이상 사람이 기계를 향해 지시를 내리는 하향식 단방향 통신이 아니다. 모델의 생성 능력이 발전함에 따라, 기계 역시 스스로의 테스트 채점 기준표를 교정해 달라고 역으로 인간에게 제안(Propose)해야 한다. 기대값 자동 제안 시스템은 낡은 오라클로 인해 혁신이 가로막히는 병목 현상을 타파하고, AI 모델의 질적 성장이 곧바로 테스트 인프라의 양적 성숙으로 이어지도록 보장하는 **테스트 주도 진화(Test-Driven Evolution)**의 핵심 톱니바퀴이다.