1.5.2 사용자 경험(UX)의 일관성 저해: 같은 질문에 대해 매번 다른 어조와 포맷으로 응답

1.5.2 사용자 경험(UX)의 일관성 저해: 같은 질문에 대해 매번 다른 어조와 포맷으로 응답

인공지능 기반의 소프트웨어 시스템에서 사용자 경험(UX)은 전통적인 결정론적 시스템과는 근본적으로 다른 도전에 직면한다. 소프트웨어 엔지니어링의 황금률 중 하나는 ’동일한 입력에 대해 시스템은 항상 동일하고 예측 가능한 응답을 내놓아야 한다’는 것이다. 그러나 거대 언어 모델(LLM)을 주축으로 하는 현대의 인공지능 시스템은 이러한 원칙을 정면으로 위배한다. 동일한 질문을 던졌음에도 불구하고 시스템이 어떤 때는 정중한 비서처럼, 어떤 때는 냉소적인 전문가처럼 응답하거나, 데이터 포맷을 JSON에서 Markdown으로 임의로 변경하는 행위는 단순한 기술적 결함을 넘어 사용자 신뢰의 근간을 뒤흔드는 심각한 위협이 된다.

1. 비결정성의 기술적 메커니즘과 가변성 유발 요인

대규모 언어 모델의 응답이 일관성을 잃는 근본적인 이유는 모델의 아키텍처와 추론 인프라에 내재된 비결정성(Nondeterminism)에 있다. 이론적으로는 온도를 0으로 설정하여 가장 높은 확률의 토큰만을 선택하게 함으로써 결정론적인 결과를 도출할 수 있을 것으로 기대하지만, 실제 운영 환경에서의 결과는 이와 다르다.

1.1 하드웨어와 연산의 미시적 불일치

가장 하위 계층에서 발생하는 일관성 저해의 원인은 부동 소수점 연산의 비결합성(Floating-Point Non-associativity)이다. GPU와 같은 병렬 처리 장치는 수만 개의 코어를 사용하여 행렬 연산을 수행하는데, 이 과정에서 연산의 순서가 미세하게 달라질 수 있다. 수학적으로는 (a + b) + c = a + (b + c)가 성립하지만, 컴퓨터의 부동 소수점 연산에서는 정밀도의 한계로 인해 두 식의 결과값이 동일하지 않을 수 있다. 이러한 미세한 수치적 차이는 소프트맥스(Softmax) 함수를 거치며 특정 토큰의 선택 확률을 미묘하게 변화시키고, 결국 문장 전체의 구조나 어조를 뒤바꾸는 나비효과를 일으킨다.

또한, Mixture-of-Experts(MoE) 아키텍처를 사용하는 최신 모델들은 추론 시점에 토큰마다 서로 다른 전문가 모델을 할당한다. 이때 공유 자원에 대한 토큰들의 경쟁이나 배치(Batch) 처리 방식에 따라 전문가 할당 경로가 달라질 수 있으며, 이는 응답의 일관성을 더욱 저해하는 요인이 된다.

1.2 디코딩 전략과 확률적 샘플링의 영향

모델이 다음 토큰을 선택하는 디코딩 과정에서도 무작위성이 개입한다. 온도가 0이 아닌 상황에서는 다음과 같은 확률 분포 식에 따라 토큰이 선택된다.
p_i = \frac{\exp(z_i / T)}{\sum_{j=1}^{N} \exp(z_j / T)}
여기서 T는 온도를 나타내며, T가 높을수록 확률 분포가 평탄해져 덜 지배적인 토큰이 선택될 가능성이 커진다. 이외에도 상위 k개의 토큰만을 고려하는 Top-k 샘플링이나 누적 확률 분포가 p 이하인 토큰 집합에서 선택하는 Top-p(Nucleus) 샘플링은 모델의 창의성을 높이는 데 기여하지만, 비즈니스 애플리케이션에서는 일관성을 해치는 양날의 검으로 작용한다.

다음 표는 비결정성을 유발하는 주요 기술적 요인들을 정리한 것이다.

구분 \vert 요인설명영향 범위 \vert 결과
수치 연산 \vert 부동 소수점 비결합성연산 순서에 따른 미세한 오차 발생로짓(Logits) 값의 미세 변화 및 토큰 선택 영향
하드웨어 \vert 병렬 처리 가변성GPU 코어의 실행 순서 및 스케줄링 차이실행 시점마다 다른 출력 결과 도출 가능성
아키텍처 \vert MoE(Mixture of Experts)토큰별 전문가 할당 로직의 무작위성복잡한 추론 과정에서의 논리 전개 방식 변동
매개변수 \vert 샘플링 전략(T, Top-p, Top-k)확률 분포 내에서의 무작위 선택 허용응답 어조의 창의성 증대 혹은 일관성 결여
인프라 \vert 배치 및 부하 분산 정책여러 요청을 묶어 처리하는 과정에서의 자원 경쟁서버 상태에 따른 간헐적 포맷 깨짐 및 응답 지연

2. 사용자 경험에서의 심리적 영향과 신뢰의 조용한 붕괴

일관되지 않은 AI의 응답은 단순한 불편함을 넘어 사용자의 인지 체계와 시스템에 대한 신뢰에 심각한 타격을 준다. 사용자는 시스템이 자신의 의도를 정확히 파악하고 일정한 규칙에 따라 반응할 것이라고 기대하지만, AI의 변덕스러운 반응은 이러한 기대를 배신한다.

2.1 인지 부하의 증대와 검증 피로도

사용자가 AI 시스템과 상호작용할 때 발생하는 인지 부하는 시스템의 신뢰도와 직결된다. 동일한 질문에 대해 매번 다른 포맷이나 어조로 답하는 시스템은 사용자로 하여금 매 응답을 비판적으로 검토하게 만든다. 이는 ’검증 피로도’를 유발하며, 사용자가 시스템을 도구로서 편안하게 활용하는 대신 감시자로서 긴장하게 만든다.

The Effects of Trust and Cognitive Load on Human-Generative AI Communication 연구에 따르면, 사용자가 AI를 신뢰할수록 인지 부하가 낮아지며 대화는 더욱 효율적이고 창의적으로 변한다. 반면, 예측 불가능한 응답은 사용자의 뇌가 시스템의 패턴을 학습하는 것을 방해하여 정서적 피로감을 가중시킨다.

2.2 Gell-Mann Amnesia 효과와 권위의 상실

AI의 불일치는 Gell-Mann Amnesia Effect와 유사한 현상을 일으킨다. 사용자는 자신이 잘 아는 분야에서 AI가 어조를 바꾸며 틀린 정보를 제공하거나 포맷을 어기는 것을 목격하면, 시스템 전체의 유능함을 의심하게 된다. 반대로 자신이 모르는 분야에서는 AI의 일관성 없는 응답을 맹목적으로 수용하다가 나중에야 그 오류를 깨닫게 되며, 이는 결과적으로 서비스 이탈로 이어진다. 신뢰는 쌓기 어렵지만 무너지는 것은 순식간이며, 한 번 깨진 예측 가능성은 사용자가 시스템을 ‘장난감’ 수준으로 격하시키는 원인이 된다.

3. 브랜드 정체성 훼손과 어조의 편향성 문제

기업의 관점에서 어조의 일관성은 브랜드 보이스(Brand Voice)를 유지하는 핵심이다. AI가 제품의 철학이나 브랜드 지침을 무시하고 인터넷의 평균적인 어조로 회귀하는 현상은 브랜드 가치를 서서히 갉아먹는다.

3.1 브랜드 보이스의 누출(Leakage)

LLM은 학습 데이터의 거대한 바다에서 얻은 ’평균적인 글쓰기’를 기본값으로 갖는다. 따라서 특별한 제어 장치가 없다면 핀테크 스타트업의 친근한 AI가 갑자기 관공서의 안내문 같은 딱딱한 문투로 응답하거나, 의료 앱의 진중한 AI가 농담을 섞는 일이 발생한다. 이러한 ’브랜드 보이스 누출’은 사용자에게 일관된 브랜드 경험을 제공하는 데 실패했음을 의미한다.

7 Non-obvious Consequences of AI in UX에서 언급된 사례처럼, 청년을 위한 금융 서비스가 “너의 돈, 너의 규칙!“이라는 슬로건을 유지하다가 AI가 “효율적인 자산 관리를 위해 다음 절차를 이행하십시오“라고 말하는 순간, 서비스의 정체성은 사라진다.

3.2 AI의 내재적 어조 편향

최근의 학술적 연구인 Bias Beneath the Tone: Empirical Characterisation of Tone Bias in LLM-Driven UX Systems는 중립적인 프롬프트에 대해서도 LLM이 특정한 어조 편향을 보인다는 사실을 밝혀냈다. 모델들은 대체로 지나치게 정중하거나(Overly Polite), 낙관적(Cheerful), 혹은 회피적인(Cautious) 성향을 띠는 경향이 있다. 이러한 내재적 편향은 사용자에게 인위적인 느낌을 주며, 특히 심각한 상황이나 중립적인 정보 전달이 필요한 맥락에서 부적절한 사용자 경험을 제공하게 된다.

어조 편향 유형설명UX에 미치는 부정적 영향
과도한 공손함모든 요청에 대해 필요 이상으로 사과하거나 낮춤시스템의 권위 저하 및 의사소통 효율성 저해
강요된 낙관주의부정적인 피드백에도 밝은 어조 유지사용자의 불만 상황에서 공감 능력 부족으로 비침
회피적 완곡어법명확한 답변 대신 모호한 표현 반복정보의 신뢰도 하락 및 불확실성 증대
로봇적 평면화감정이 배제된 기계적인 문체 사용인간적 유대감 형성 실패 및 서비스 이용 재미 반감

4. 포맷의 불일치와 소프트웨어 통합의 장애

UX의 일관성은 시각적인 어조뿐만 아니라 데이터 구조의 정합성까지 포함한다. 현대의 소프트웨어 아키텍처에서 AI의 출력은 다른 시스템의 입력으로 사용되는 경우가 많으며, 이때 포맷의 미세한 변화는 전체 파이프라인을 파괴한다.

4.1 구조적 파싱 오류와 경제적 손실

LLM이 생성하는 Markdown이나 JSON 데이터는 종종 구문 오류를 포함하거나, 개발자가 의도하지 않은 텍스트 래핑을 수반한다. 예를 들어, “여기에 JSON 데이터를 생성했습니다:“와 같은 서술적인 문장이 데이터 앞에 붙거나, 필드 이름이 userId에서 user_id로 임의로 변경되는 현상이 그것이다. 이러한 불일치는 API 소비자에게 치명적인 영향을 미치며, checkout 성공률을 70%까지 떨어뜨리거나 운영팀이 24시간 장애 대기 상태에 놓이게 하는 원인이 된다.

StructEval 벤치마크에 따르면, 텍스트를 JSON이나 YAML로 변환하는 작업에서 모델의 정확도는 입력의 복잡도에 따라 현저히 달라진다. 특히 엔터프라이즈 환경에서 수천 건의 문서를 파싱할 때 발생하는 포맷 불일치는 단순한 버그를 넘어 데이터 무결성을 해치는 심각한 기술적 부채로 축적된다.

5. 일관성 확보를 위한 UX 패턴과 엔지니어링 전략

비결정성이라는 인공지능의 야생성을 길들이기 위해서는 시스템 설계와 UX 인터페이스 양면에서 엄격한 제어 장치를 도입해야 한다.

5.1 Microsoft HAX 및 Google PAIR 가이드라인의 적용

주요 기술 기업들은 AI의 불확실성을 관리하기 위한 디자인 가이드라인을 제시하고 있다. 마이크로소프트의 HAX Toolkit은 시스템의 능력을 명확히 하고(Make clear how well the system can do what it can do), 오류가 발생했을 때 사용자가 이를 쉽게 수정할 수 있도록 보장할 것을 강조한다. 구글의 PAIR Guide 역시 AI가 확률적으로 동작함을 인정하고, 사용자에게 결과의 확신도를 보여주거나 대안을 선택할 수 있는 기회를 제공함으로써 예측 가능성을 보완하도록 권장한다.

5.2 기술적 해결책: Structured Outputs와 Self-Consistency

엔지니어링 측면에서는 모델의 자율성을 제한하는 기법들이 사용된다. OpenAI의 Structured Outputs 기능은 유한 상태 기계(FSM)를 사용하여 생성되는 각 토큰이 미리 정의된 JSON 스키마를 100% 준수하도록 강제한다. 이는 프롬프트 엔지니어링만으로 해결할 수 없었던 포맷 불일치 문제를 해결하는 강력한 도구가 된다.

또한, Self-Consistency Improves Chain of Thought Reasoning in Language Models 논문에서 제시된 전략은 일관성 문제를 역이용하여 정확도를 높인다. 모델에게 동일한 문제에 대해 여러 개의 추론 경로(Reasoning Paths)를 생성하게 한 뒤, 가장 많이 도출된 답변을 선택하는 다수결(Majority Vote) 방식을 취함으로써 단일 응답이 가질 수 있는 무작위 오류를 효과적으로 억제한다.
\hat{a} = \text{argmax}_{a_i} \sum_{i=1}^{m} \mathbb{1}(a_i = a)
위 식은 m개의 샘플 중 가장 빈번하게 등장하는 정답 a를 최종 결과로 선택하는 과정을 나타낸다. 이러한 접근은 연산 비용을 증가시키지만, 금융이나 법률 등 높은 수준의 일관성과 정확성이 요구되는 분야에서는 필수적인 전략이 된다.

6. 결론: 결정론적 UX를 향한 여정

사용자 경험의 일관성 저해는 인공지능을 소프트웨어 제품으로 승화시키는 과정에서 반드시 넘어야 할 산이다. 같은 질문에 매번 다르게 답하는 AI는 매력적인 실험실의 결과물일 수는 있으나, 신뢰할 수 있는 비즈니스 인프라가 될 수는 없다.

개발자는 비결정성이라는 모델의 본질을 이해하고, 이를 보완하기 위한 결정론적 오라클(Deterministic Oracle)과 엄격한 UX 디자인 패턴을 구축해야 한다. 어조의 가변성을 통제하기 위한 시스템 메시지의 정교화, 포맷의 정합성을 보장하는 구조화된 출력 기능, 그리고 사용자의 인지 부하를 줄여주는 투명한 인터페이스 설계가 결합될 때 비로소 인공지능은 변덕스러운 기계에서 예측 가능한 도구로 진화할 수 있다. 인류가 도구를 신뢰해 온 역사는 언제나 ’동일한 행동에 대한 동일한 반응’이라는 물리적 일관성에 기반해 왔음을 잊지 말아야 한다.

7. 참고 자료

  1. Why Temperature=0 Doesn’t Guarantee Determinism in LLMs …, https://mbrenndoerfer.com/writing/why-llms-are-not-deterministic
  2. Non Determinism & Prompt Optimization in LLMs for AI Apps, https://futureagi.com/blogs/non-deterministic-llm-prompts-2025
  3. Defeating Nondeterminism in LLM Inference: What It Unlocks for, https://www.propelcode.ai/blog/defeating-nondeterminism-in-llm-inference-ramifications
  4. Non-Determinism of “Deterministic” LLM System Settings in Hosted, https://aclanthology.org/2025.eval4nlp-1.12.pdf
  5. Defeating Nondeterminism in LLM Inference - Thinking Machines Lab, https://thinkingmachines.ai/blog/defeating-nondeterminism-in-llm-inference/
  6. UX Patterns That Increase Trust in AI | Blog - Goji Labs, https://gojilabs.com/blog/ux-patterns-that-increase-trust-in-ai/
  7. The Effects of Trust and Cognitive Load on Human-Generative AI, https://www.researchgate.net/publication/400472591_The_Effects_of_Trust_and_Cognitive_Load_on_Human-Generative_AI_Communication_in_Higher_Education_Evidence_from_Indonesian_Undergraduate_Students
  8. Building and calibrating trust in AI | by Dr. Janna Lipenkova, https://uxdesign.cc/building-and-calibrating-trust-in-ai-717d996652ef
  9. The UX of Uncertainty: When AI Isn’t Sure, Say So - giorgio patrini, https://giorgiopatrini.org/the-ux-of-uncertainty-when-ai-isnt-sure-say-so
  10. 7 Non-Obvious Consequences of AI in UX | by Anton Abramovich …, https://medium.com/@abramovichanton/7-non-obvious-consequences-of-ai-in-ux-d5ba0d6dd815
  11. Empirical Characterisation of Tone Bias in LLM-Driven UX Systems, https://arxiv.org/html/2512.19950v1
  12. How Output Parsers Save Your LLM From Formatting Disaster, https://dev.to/alex_aslam/taming-the-chaos-how-output-parsers-save-your-llm-from-formatting-disaster-120o
  13. Mastering Structured Output in LLMs 1: JSON output with LangChain, https://medium.com/@docherty/mastering-structured-output-in-llms-choosing-the-right-model-for-json-output-with-langchain-be29fb6f6675
  14. Get consistent, well-formatted Markdown/JSON outputs from LLMs, https://community.n8n.io/t/get-consistent-well-formatted-markdown-json-outputs-from-llms/80749
  15. Benchmarking LLMs’ Capabilities to Generate Structural Outputs, https://arxiv.org/html/2505.20139v1
  16. LLM APIs Aren’t Complete Document Parsers: Why - LlamaIndex, https://www.llamaindex.ai/blog/llm-apis-are-not-complete-document-parsers
  17. Guidelines for Human-AI Interaction - Microsoft, https://www.microsoft.com/en-us/research/wp-content/uploads/2019/01/Guidelines-for-Human-AI-Interaction-camera-ready.pdf
  18. HAX Toolkit: Guidelines, Patterns, and Real-World Examples for, https://www.youtube.com/watch?v=l34vjk4SU-w
  19. People + AI Guidebook - Principles & Patterns, https://pair.withgoogle.com/guidebook/patterns
  20. Structured Outputs: Everything You Should Know - Humanloop, https://humanloop.com/blog/structured-outputs
  21. Self-Consistency Improves Chain of Thought Reasoning - Portkey, https://portkey.ai/blog/self-consistency-improves-chain-of-thought-reasoning-in-language-models-summary/
  22. SELF-CONSISTENCY IMPROVES CHAIN OF THOUGHT, http://webdocs.cs.ualberta.ca/~dale/papers/iclr23b.pdf
  23. (PDF) Self-Consistency Improves Chain of Thought Reasoning in, https://scispace.com/papers/self-consistency-improves-chain-of-thought-reasoning-in-11cskg6j
  24. Self-Consistency with Chain of Thought (CoT-SC) - Johannes Köppern, https://betterofjohn.com/uncategorized/self-consistency-with-chain-of-thought-cot-sc/