Booil Jung

설명 가능한 인공지능(XAI)

인공지능(AI) 기술이 사회 전반에 걸쳐 빠르게 확산되고 그 영향력이 증대됨에 따라, AI 시스템의 의사결정 과정을 인간이 이해하고 신뢰할 수 있도록 만드는 것이 중요한 과제로 부상했다. 특히, 딥러닝과 같은 고도화된 머신러닝 모델들은 뛰어난 성능을 자랑하지만, 그 내부 작동 원리가 복잡하고 불투명하여 ‘블랙박스(Black Box)’라는 비판에 직면해왔다. 이러한 배경 속에서 설명 가능한 인공지능(Explainable AI, XAI)은 단순한 기술적 호기심을 넘어 사회적, 윤리적, 법적 요구에 부응하기 위한 필수적인 연구 분야로 자리매김하고 있다. 본 보고서는 XAI의 근본적인 필요성부터 핵심 기술론, 실제 산업 적용 사례, 그리고 학계의 최신 연구 동향에 이르기까지, XAI 분야 전반에 대한 포괄적이고 심층적인 분석을 제공하고자 한다.

1990년대 후반 인공신경망 연구가 부활하고, 2010년대에 들어 딥러닝 기술이 비약적으로 발전하면서 AI는 인간의 능력을 뛰어넘는 성능을 보이기 시작했다. 2016년 이세돌 9단과의 대국에서 승리한 알파고(AlphaGo)는 이러한 발전을 상징하는 대표적인 사례다.1 이러한 고성능 모델들은 방대한 양의 데이터로부터 스스로 규칙과 지식을 학습하는 방식으로 작동하며, 인간이 사전에 정의한 규칙 기반 전문가 시스템과는 근본적으로 다른 철학을 가진다.1

그러나 이러한 발전의 이면에는 ‘블랙박스 문제’가 존재한다. 모델의 성능이 높아지고 구조가 복잡해질수록, AI가 특정 결론에 도달한 이유나 과정을 인간이 직관적으로 이해하기 어려워지는 현상이다.2 수백만, 수십억 개의 파라미터로 구성된 심층 신경망(Deep Neural Network)의 결정 과정을 추적하고 해석하는 것은 사실상 불가능에 가깝다.2 이러한 불투명성은 AI 시스템에 대한 통제력, 책임성, 그리고 감사 가능성의 상실로 이어진다.4 만약 AI의 판단에 오류가 발생했을 때, 그 원인을 파악하고 수정하는 것이 어렵다면, 우리는 그저 AI의 결정을 맹목적으로 신뢰해야 하는 상황에 놓이게 된다.5

이러한 AI의 성공이 역설적으로 만들어낸 ‘투명성 부채(Transparency Debt)’는 AI 기술의 발전 속도와 인간의 이해 능력 사이의 간극을 보여준다. 모델의 성능과 자율성이 높아질수록, 그 결정 과정의 불투명성으로 인한 잠재적 리스크는 기하급수적으로 증가한다. 즉, AI의 성공 자체가 설명가능성에 대한 요구를 필연적으로 증대시키는 원동력이 된 것이다. 이 문제를 해결하기 위해 등장한 것이 바로 설명 가능한 인공지능(XAI)이다. XAI는 AI 시스템의 의사결정 과정을 인간이 이해할 수 있는 형태로 제시하는 기술 및 방법론의 총칭이다.1 XAI의 목표는 AI 모델이 ‘어떻게’ 그리고 ‘왜’ 그러한 결론을 도출했는지에 대한 증거와 추론 과정을 제공함으로써, 불투명한 블랙박스를 투명한 ‘유리상자(Glass Box)’로 만드는 데 있다.1

XAI가 추구하는 핵심 목표는 다음과 같이 요약될 수 있다.

결론적으로 XAI는 AI 기술의 신뢰성, 안전성, 공정성을 담보하고 사회적 수용성을 높이기 위한 핵심적인 기술 패러다임이라 할 수 있다.

XAI에 대한 요구는 단순히 기술적 완성도를 높이기 위한 학문적 논의에 그치지 않는다. AI의 결정이 인간의 삶에 중대한 영향을 미치는 고위험(High-Stakes) 분야에서 XAI는 선택이 아닌 필수가 되고 있으며, 전 세계적으로 이를 법제화하려는 움직임이 가속화되고 있다.

고위험 분야에서의 필수성

의료, 금융, 자율주행, 법률 등 인간의 생명, 재산, 기본권과 직결되는 분야에서는 AI의 결정 하나하나가 막대한 파급 효과를 낳는다.1 예를 들어, 의료 AI가 암 진단을 놓치거나(거짓 음성) 불필요한 침습적 치료를 권고(거짓 양성)하는 경우, 환자에게 치명적인 결과를 초래할 수 있다.7 금융 분야에서 AI의 대출 심사 모델이 특정 집단에 불리한 결정을 내린다면 이는 심각한 사회적 차별 문제로 비화될 수 있다. 자율주행차가 예기치 않은 사고를 일으켰을 때, 그 원인이 AI의 판단 오류인지, 센서의 문제인지, 혹은 외부 환경 요인 때문인지 명확히 설명할 수 없다면 책임 소재를 가릴 수 없게 된다.13 이처럼 결정의 결과가 중대한 분야일수록 “왜 그런 결정을 내렸는가?”에 대한 설명은 시스템의 안전성과 신뢰성을 보장하기 위한 최소한의 요구 조건이 된다.4

글로벌 규제의 강화

이러한 사회적 요구는 구체적인 법률 및 규제 프레임워크로 이어지고 있다. 특히 유럽연합(EU)은 이 분야에서 선도적인 역할을 하고 있다.

이러한 규제 강화의 흐름은 EU에만 국한되지 않는다. 한국에서도 ‘AI 기본법’ 제정을 통해 AI 서비스 제공자가 이용자에게 AI의 의사결정 이유를 설명하도록 하는 의무를 부과하려는 움직임이 있으며 10, 중국과 일본 역시 개인정보보호법을 통해 정보 처리의 투명성과 설명 책임을 강조하고 있다.22

이처럼 전 세계적인 규제 동향은 GDPR의 특정 조항에 대한 법리적 해석 논쟁을 넘어서고 있다. 규제 당국은 법원의 최종 판결을 기다리지 않고, AI 투명성이라는 원칙을 직접적으로 강제하는 새로운 법률을 제정하며 ‘설명가능성’을 글로벌 표준으로 만들어가고 있다. 이는 기업들이 과거의 규정에 대한 소극적이고 법리적인 대응에서 벗어나, 미래의 강력한 투명성 요구에 선제적으로 대비해야 함을 시사한다.

윤리적 당위성

법적 강제를 떠나, XAI는 AI 윤리를 실현하는 핵심적인 도구다. AI 모델이 학습 데이터에 존재하는 사회적 편견(예: 특정 인종이나 성별에 대한 부정적 고정관념)을 학습하고 증폭시키는 것을 방지하기 위해서는 모델의 내부를 들여다볼 수 있어야 한다.11 XAI는 어떤 특성이 모델의 결정에 부당한 영향을 미치는지 식별하고, 이를 통해 개발자가 편향을 완화하고 보다 공정한 시스템을 구축하도록 돕는다.4 이는 단순히 기술적 문제를 해결하는 것을 넘어, AI가 사회에 긍정적인 영향을 미치도록 보장하는 윤리적 책무와 직결된다.

설명 가능한 인공지능(XAI) 분야는 다양한 목적과 접근 방식에 따라 수많은 기술들이 발전해왔다. 이 복잡한 기술 지형을 이해하기 위해서는 체계적인 분류 프레임워크가 필수적이다. XAI 방법론은 주로 설명의 범위(Scope), 모델 의존성(Model Dependency), 그리고 설명 시점(Timing)이라는 세 가지 기준으로 분류될 수 있다.6

XAI 기술들을 체계적으로 이해하기 위한 주요 분류 기준은 다음과 같다.

이러한 분류 기준들은 상호 배타적이지 않으며, 하나의 XAI 기술이 여러 범주에 동시에 속할 수 있다. 예를 들어, 특정 예측 결과를 설명하는 기법은 지역적이면서 동시에 모델 불가지론적일 수 있다.6

현존하는 수많은 사후 설명 기법 중 가장 널리 알려지고 활용되는 두 가지는 LIME(Local Interpretable Model-agnostic Explanations)과 SHAP(SHapley Additive exPlanations)이다. 두 기법 모두 모델 불가지론적 접근법을 취하지만, 근본적인 철학과 기술적 특성에서 차이를 보인다.

실무에서 어떤 도구를 선택할지는 프로젝트의 목표와 제약 조건에 따라 달라진다. 신속한 프로토타이핑이나 단일 사례에 대한 직관적인 설명이 필요할 때는 LIME이 유용할 수 있다. 반면, 규제 준수, 감사, 또는 높은 신뢰성이 요구되는 고위험 의사결정 시스템을 설명하고 모델의 전역적 행동을 이해해야 할 때는 이론적 보장이 뒷받침되는 SHAP이 더 적합한 선택이다.

특성 LIME (Local Interpretable Model-agnostic Explanations) SHAP (SHapley Additive exPlanations)
이론적 기반 지역적 대리 모델 (근사) 게임 이론 (섀플리 값)
설명 범위 엄격히 지역적 (한 번에 하나의 예측 설명) 지역적 및 전역적 (지역적 값들이 전역적 통찰로 집계됨)
일관성 보장되지 않음; 샘플링에 따라 불안정할 수 있음 보장됨; 특성의 영향력이 커지면 기여도 값이 감소하지 않음
계산 비용 단일 예측 설명에 빠름 계산 비용이 높음 (특히 KernelSHAP); TreeSHAP 등 최적화 버전은 빠름
출력 지역적 선형 모델의 특성 중요도 강력한 이론적 속성을 가진 가법적 특성 기여도
이상적 사용 사례 빠른 프로토타이핑, 단일 사례에 대한 직관적 설명, 계산 비용이 주요 제약일 때 32 높은 신뢰도와 감사가 요구되는 고위험 결정, 전역적 모델 행동 이해, 이론적 보장이 필요할 때 32

이미지 인식 분야에서 딥러닝, 특히 합성곱 신경망(CNN)이 압도적인 성능을 보이면서, CNN의 판단 근거를 시각적으로 보여주는 설명 기법들이 활발히 연구되었다. 그중 가장 대표적인 것이 CAM(Class Activation Mapping)과 그 파생 기술들이다.

XAI는 더 이상 이론적 개념에 머무르지 않고, 금융, 의료, 자율주행 등 다양한 산업 현장에서 실질적인 가치를 창출하며 빠르게 확산되고 있다. XAI의 적용은 단순히 AI 결정의 투명성을 높이는 것을 넘어, 규제 준수, 리스크 관리, 사용자 경험 향상, 그리고 인간과 AI 간의 협업을 촉진하는 핵심 동력으로 작용하고 있다.

금융 분야는 규제가 엄격하고 결정의 결과가 개인의 재산에 직접적인 영향을 미치기 때문에 XAI의 필요성이 가장 절실한 영역 중 하나다. 주요 활용 분야는 신용 평가, 대출 심사, 사기 탐지, 자산 관리 등이다.4

의료 분야에서 AI의 결정은 환자의 생명과 직결되므로, 설명가능성은 윤리적, 법적, 임상적으로 필수적인 요구사항이다. XAI는 의료 영상 분석, 질병 진단 보조, 개인 맞춤형 치료 계획, 신약 개발 등에서 활발히 활용되고 있다.4

자율주행차, 로봇, 스마트 팩토리 등 자율 시스템 분야에서 XAI는 안전성 검증과 신뢰성 확보의 핵심 기술이다. 시스템이 내리는 모든 결정의 이유를 추적하고 설명할 수 있어야만 예측 불가능한 상황에서의 위험을 최소화하고, 사고 발생 시 원인을 규명할 수 있기 때문이다.13

이러한 다양한 산업 사례들을 관통하는 중요한 사실은, XAI가 단순히 과거의 결정을 정당화하는 정적인 보고 도구가 아니라는 점이다. 오히려 XAI는 인간 전문가와 AI 모델 간의 역동적인 상호작용과 협업을 촉진하는 ‘촉매제’ 역할을 한다. 금융에서는 고객에게 실행 가능한 개선 방안을 제시하고, 의료에서는 의사의 진단 확신을 돕고 치료 계획 수립에 기여하며, 자율주행에서는 엔지니어의 디버깅과 시스템 개선을 이끈다. 이처럼 ‘설명 –» 인간의 이해 –» 피드백 및 행동 –» 시스템 개선 및 더 나은 의사결정’으로 이어지는 선순환 구조를 만들어내는 것이야말로 XAI가 실제 현장에서 창출하는 진정한 가치라 할 수 있다. 이는 XAI가 향후 ‘상호작용형 AI(Interactive AI)’ 연구로 발전해 나가는 필연적인 경로를 보여준다.

XAI는 AI의 투명성과 신뢰성을 높이는 강력한 도구이지만, 동시에 여러 기술적, 개념적 도전 과제와 내재적 한계를 안고 있다. XAI를 성공적으로 도입하고 활용하기 위해서는 이러한 한계를 명확히 인식하고, 설명의 ‘품질’을 객관적으로 평가하는 엄격한 방법론을 갖추는 것이 필수적이다.

“좋은 설명이란 무엇인가?”라는 질문은 XAI의 핵심 과제다. 설명의 유효성과 신뢰성을 보장하기 위해, 연구자들은 정량적 지표와 정성적 평가를 결합한 다각적인 평가 프레임워크를 개발해왔다.

평가 범주 핵심 질문 대표 지표 원리
충실도 (Faithfulness) 설명이 모델의 행동을 정확하게 반영하는가? AOPC, Insertion/Deletion, PGI/PGU 가장 중요하거나 중요하지 않은 특성을 교란시켰을 때 모델 신뢰도의 변화(감소 또는 증가)를 측정. 충실도가 높으면 중요한 특성이 큰 영향을 미침.52
강건성 (Robustness) 작은 입력 변화에도 설명이 안정적인가? 국소 립시츠 추정, 평균 민감도 입력에 미세한 변화를 주었을 때 설명이 얼마나 변하는지를 측정. 강건한 설명은 안정적이어야 함.55
복잡성 (Complexity) 설명이 간결하고 이해하기 쉬운가? 희소성(Sparsity), 특성 수 설명을 구성하는 데 사용된 특성이나 요소의 수를 측정. 일반적으로 더 단순한 설명을 선호함.55
건전성 검사 (Sanity Checks) 설명이 모델의 논리에 민감하게 반응하는가? 모델 무작위화 설명 기법이 설명 대상 모델과 독립적인지 테스트. 유효한 설명은 모델이 무작위화될 때 급격히 변해야 함.53
인간 중심 평가 인간이 설명을 유용하고 이해하기 쉽게 느끼는가? 과업 수행 능력, 사용자 만족도 설문 실제 과업에서 인간 피험자를 대상으로 설명의 효과를 평가. 설명가능성의 궁극적인 테스트.53

XAI가 모델의 내부를 들여다볼 수 있게 만들면서, 역설적으로 ‘설명’ 자체가 새로운 공격 표면(attack surface)이 될 수 있다는 문제가 제기되었다. 이는 적대적 XAI(Adversarial XAI, AdvXAI)라는 새로운 연구 분야의 등장을 이끌었다.59

XAI 연구는 기존의 블랙박스 모델을 해석하는 단계를 넘어, 초거대 AI, 복잡한 데이터 구조, 그리고 인간과의 상호작용과 같은 새로운 도전 과제들을 해결하기 위해 빠르게 진화하고 있다. 최신 연구 동향은 인과관계 추론, 상호작용성, 그리고 새로운 컴퓨팅 패러다임과의 결합을 통해 설명가능성의 근본적인 패러다임 전환을 모색하고 있다.

최근 AI 분야를 주도하고 있는 파운데이션 모델(Foundation Models), 특히 거대 언어 모델(LLM)과 확산 모델(Diffusion Model)은 그 규모와 복잡성, 그리고 예측 불가능한 창발적 능력(emergent capabilities)으로 인해 새로운 차원의 ‘블랙박스’ 문제를 제기하고 있다.66

기존의 특성 기여도 기반 설명을 넘어, 인간의 인지 과정과 더 유사하고, 더 깊이 있는 이해를 제공하는 새로운 설명 패러다임들이 부상하고 있다.

이러한 연구 프론티어들의 등장은 XAI 분야의 중요한 철학적 전환을 시사한다. LIME과 SHAP으로 대표되는 1세대 XAI가 이미 존재하는 블랙박스를 ‘외부에서 분석’하는 데 초점을 맞췄다면, 새로운 패러다임들은 AI와 인간의 관계를 재정의하고 있다. 인과적 XAI는 더 깊은 수준의 이해를, 상호작용형 XAI는 동적인 협력 관계를, 뉴로-심볼릭 AI는 블랙박스라는 전제 자체를 거부하고 본질적으로 이해 가능한 AI를 지향한다. 이는 XAI가 단순히 ‘AI를 설명하는 기술’에서 ‘AI와 함께 추론하는 기술’로 진화하고 있음을 보여준다. 미래의 AI는 투명한 블랙박스가 아니라, 처음부터 인간과 협력하고 소통할 수 있는 지능적인 파트너로 설계될 것이다.

전통적인 표 형식 데이터나 이미지를 넘어, 관계형 데이터인 그래프나 완전히 새로운 컴퓨팅 패러다임인 양자 컴퓨팅에 대한 설명가능성 연구도 활발히 진행되고 있다.

XAI 기술이 성숙해짐에 따라, 기업과 연구 기관은 이를 단순히 기술적 문제로 접근하는 것을 넘어, 경제적 가치와 전략적 중요성을 고려하여 체계적으로 도입하고 활용해야 한다. 본 파트에서는 XAI의 경제적 차원과 실용적인 구현 워크플로우를 제시하고, 미래 연구 방향을 조망한다.

본 보고서에서 심층적으로 분석한 바와 같이, XAI는 AI 기술의 책임감 있는 발전을 위한 핵심 동력으로 자리 잡았으나, 여전히 많은 도전 과제를 안고 있다.

  1. 설명 가능한 AI① XAI(eXplainable AI)란? – 개념, 역사, 중요성 - AHHA …, accessed July 12, 2025, https://ahha.ai/2024/07/09/xai/
  2. 설명 가능한 AI(XAI)란 무엇인가요? - Hitek Software, accessed July 12, 2025, https://hiteksoftware.co.kr/blog/explainable-ai/
  3. AI의 한계와 도전 과제, accessed July 12, 2025, https://contentstailor.com/entry/AI%EC%9D%98-%ED%95%9C%EA%B3%84%EC%99%80-%EB%8F%84%EC%A0%84-%EA%B3%BC%EC%A0%9C
  4. 설명 가능한 AI(XAI)란 무엇인가요? - IBM, accessed July 12, 2025, https://www.ibm.com/kr-ko/think/topics/explainable-ai
  5. 설명 가능한 인공지능(XAI)이란?, accessed July 12, 2025, https://www.irsglobal.com/bbs/rwdboard/15501
  6. [딥러닝] 설명가능 인공지능이란? (A Survey on XAI) - JINHYO AI Blog, accessed July 12, 2025, https://realblack0.github.io/2020/04/27/explainable-ai.html
  7. 설명 가능한 AI: 정의 이것이 어떻게 가능할까요? 그렇다면 데이터의 역할은 무엇입니까?, accessed July 12, 2025, https://www.netapp.com/ko/blog/explainable-ai/
  8. 설명 가능한 AI(3) XAI와 AI 규제 준수와의 상관성? - AHHA Labs, accessed July 12, 2025, https://ahha.ai/2024/07/09/xai_reliability/
  9. What is Explainable AI (XAI)? IBM, accessed July 12, 2025, https://www.ibm.com/think/topics/explainable-ai
  10. 설명가능한 AI(Explainable AI): 투명성과 신뢰성 확보를 위한 핵심 기술과 미래 - Goover, accessed July 12, 2025, https://seo.goover.ai/report/202504/go-public-report-ko-48917449-f3c7-4ecb-9f38-c699e68cdce7-0-0.html
  11. 인공지능 신뢰성 높이는 ‘설명가능 인공지능(XAI)’의 시대 - Appier, accessed July 12, 2025, https://www.appier.com/ko-kr/blog/explainable-ai-making-the-black-box-of-ai-into-a-glass-box
  12. 설명가능한 인공지능(XAI) 관련 설명(5) - URBAN COMMUNICATOR - 티스토리, accessed July 12, 2025, https://narrowmoon.tistory.com/17
  13. <지식 사전=""> 설명 가능한 AI(eXplainable AI, XAI): 비밀의 블랙박스를 열다, accessed July 12, 2025, https://blog.kakaocloud.com/99
  14. 설명 가능한 인공지능(XAI)[XAI개념, AI와 XAI차이, 적용사례,한계] - 짐승Lab, accessed July 12, 2025, https://beast1251.tistory.com/209
  15. 설명 가능한 인공지능 (Explainble AI, XAI)의 실제 적용 사례 - 메일리, accessed July 12, 2025, https://maily.so/inspirex/posts/vpzl98pnzk9
  16. PDF 다운로드 - 네이버 프라이버시센터 - NAVER, accessed July 12, 2025, https://privacy.naver.com/download/2023_NaverPrivacyWhitePaper.pdf
  17. Meaningful information and the right to explanation International Data Privacy Law, accessed July 12, 2025, https://academic.oup.com/idpl/article/7/4/233/4762325
  18. The right to explanation in the GDPR, accessed July 12, 2025, https://centri.unibo.it/alma-ai/it/ricerca/wednesdais/the-right-to-explanation-in-the-gdpr-giovanni-sartor.pdf/@@download/file/The%20right%20to%20explanation%20in%20the%20GDPR%20-%20Giovanni%20Sartor.pdf
  19. Is there a ‘right to explanation’ for machine learning in the GDPR? - IAPP, accessed July 12, 2025, https://iapp.org/news/a/is-there-a-right-to-explanation-for-machine-learning-in-the-gdpr
  20. 유럽 일반 개인정보 보호법(GDPR)이란? - Veritas, accessed July 12, 2025, https://www.veritas.com/ko/kr/information-center/gdpr
  21. 세계 최초의 AI 규제 법, 어떻게 대응할까? 전략 디지털 하버드비즈니스리뷰[HBR], accessed July 12, 2025, https://www.hbrkorea.com/article/view/atype/di/category_id/1_1/article_no/1102
  22. 인공지능 시스템에서 개인정보 처리방침 수립을 위한 법적/기술적 요구사항 분석 연구 - Korea Science, accessed July 12, 2025, https://koreascience.kr/article/JAKO202431757610624.page
  23. [기고] 인공지능 신뢰성 높이는 설명가능 인공지능(XAI)의 시대 - 동아일보, accessed July 12, 2025, https://www.donga.com/news/It/article/all/20210222/105559874/1
  24. Explainable AI - 1 - velog, accessed July 12, 2025, https://velog.io/@8068joshua/Explainable-AI-1
  25. XAI(Explaniable AI)에 대한 간단한 이해 - Engineering insight - 티스토리, accessed July 12, 2025, https://limitsinx.tistory.com/204
  26. LLMs for Explainable AI: A Comprehensive Survey - arXiv, accessed July 12, 2025, https://arxiv.org/pdf/2504.00125
  27. Neuro-Symbolic AI: Explainability, Challenges, and Future Trends - arXiv, accessed July 12, 2025, https://arxiv.org/html/2411.04383v1
  28. Is LIME better than SHAP when it comes to explaining Supervised ML Model Performance, accessed July 12, 2025, https://www.researchgate.net/post/Is_LIME_better_than_SHAP_when_it_comes_to_explaining_Supervised_ML_Model_Performance
  29. Explainable AI: A Comprehensive Guide - Scribble Data, accessed July 12, 2025, https://www.scribbledata.io/blog/explainable-ai-a-comprehensive-guide/
  30. LIME vs SHAP: A Comparative Analysis of Interpretability Tools - MarkovML, accessed July 12, 2025, https://www.markovml.com/blog/lime-vs-shap
  31. Explainable AI (XAI): A survey of recents methods, applications and frameworks AI Summer, accessed July 12, 2025, https://theaisummer.com/xai/
  32. 딥러닝 모델 해석 가능성: LIME과 SHAP 방법론 - 재능넷, accessed July 12, 2025, https://www.jaenung.net/tree/14581
  33. LIME vs SHAP: What’s the Difference for Model Interpretability? - ApX Machine Learning, accessed July 12, 2025, https://apxml.com/posts/lime-vs-shap-difference-interpretability
  34. [XAI] LIME(Local Interpretable Model-agnostic Explanation) 알고리즘 - 러닝머신의 Train Data Set, accessed July 12, 2025, https://myeonghak.github.io/xai/XAI-LIME(Local-Interpretable-Model-agnostic-Explanation)-%EC%95%8C%EA%B3%A0%EB%A6%AC%EC%A6%98/
  35. 의료 분야에 활용되는 설명 가능한 인공지능(XAI) 활용 동향, accessed July 12, 2025, https://mediasvr.egentouch.com/egentouch.media/apiFile.do?action=view&SCHOOL_ID=1007002&URL_KEY=cfeff1db-8c14-44e6-98a4-f8b810963308
  36. LIME vs SHAP: Which Is Better for Model Explanation? - Patsnap Eureka, accessed July 12, 2025, https://eureka.patsnap.com/article/lime-vs-shap-which-is-better-for-model-explanation
  37. SHAP and LIME Python Libraries: Part 1 – Great Explainers, with Pros and Cons to Both, accessed July 12, 2025, https://domino.ai/blog/shap-lime-python-libraries-part-1-great-explainers-pros-cons
  38. 설명 가능한 AI(2) XAI(eXplainable AI) 주요 방법론 - AHHA Labs, accessed July 12, 2025, https://ahha.ai/2024/07/09/xai_methods/
  39. [eXplainableAI (XAI)] LIME, Shapely, PDP, Permutation Feature Importance 간략한 설명 및 장단점 - no - 티스토리, accessed July 12, 2025, https://jjcouple.tistory.com/44
  40. 클래스 활성화 맵(Class Activation Map, CAM)과 시각적 설명 기법 - C’s Shelter - 티스토리, accessed July 12, 2025, https://gnuhcjh.tistory.com/253
  41. Class Activation Map (CAM) 논문 요약/리뷰 - 머신러닝 projectz - 티스토리, accessed July 12, 2025, https://jays0606.tistory.com/4
  42. Class Activation Mapping (CAM)과 Grad-CAM - AI-BLACK-TIGER - 티스토리, accessed July 12, 2025, https://ai-bt.tistory.com/entry/Class-Activation-Mapping-CAM%EA%B3%BC-Grad-CAM
    1. 너의 속이 궁금해 - Class Activation Map 살펴보기, accessed July 12, 2025, https://velog.io/@xpelqpdj0422/9.-%EB%84%88%EC%9D%98-%EC%86%8D%EC%9D%B4-%EA%B6%81%EA%B8%88%ED%95%B4-Class-Activation-Map-%EC%82%B4%ED%8E%B4%EB%B3%B4%EA%B8%B0
  43. [6주차] 논문리뷰: CAM, Grad-CAM, Grad-CAM++ - velog, accessed July 12, 2025, https://velog.io/@tobigs_xai/CAM-Grad-CAM-Grad-CAMpp
  44. 인공지능(AI) 기술의 놀라운 응용 사례: 의료, 금융, 제조업 혁신, accessed July 12, 2025, https://contentstailor.com/entry/%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5AI-%EA%B8%B0%EC%88%A0%EC%9D%98-%EB%86%80%EB%9D%BC%EC%9A%B4-%EC%9D%91%EC%9A%A9-%EC%82%AC%EB%A1%80-%EC%9D%98%EB%A3%8C-%EA%B8%88%EC%9C%B5-%EC%A0%9C%EC%A1%B0%EC%97%85-%ED%98%81%EC%8B%A0
  45. 자이메드, 의료 분야 위한 설명가능 인공지능 사례 공개 - 지티티코리아, accessed July 12, 2025, https://www.gttkorea.com/news/articleView.html?idxno=7117
  46. ICLR 2024 미리 보기, accessed July 12, 2025, https://hyperlab.hits.ai/blog/iclr-2024
  47. ICML 2024 미리 보기, accessed July 12, 2025, https://hyperlab.hits.ai/blog/ICML2024-Preview
  48. 설명가능한 인공지능(XAI) 관련 설명(1) - URBAN COMMUNICATOR - 티스토리, accessed July 12, 2025, https://narrowmoon.tistory.com/13
  49. Three Tips for Implementing Explainable AI - Altair, accessed July 12, 2025, https://altair.com/blog/executive-insights/three-tips-for-implementing-explainable-ai
  50. How are methods in XAI evaluated? by Mohammad Amin Dadgar - Medium, accessed July 12, 2025, https://amindadgar.medium.com/how-are-methods-in-xai-evaluated-b5b3b942e06d
  51. From Movements to Metrics: Evaluating Explainable AI Methods in Skeleton-Based Human Activity Recognition, accessed July 12, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC10975804/
  52. Module 5. 『설명가능한 AI(Explainable AI)』 3. Explainable AI (XAI) - velog, accessed July 12, 2025, https://velog.io/@uvictoli/Module-5.-%E3%80%8E%EC%84%A4%EB%AA%85%EA%B0%80%EB%8A%A5%ED%95%9C-AIExplainable-AI%E3%80%8F-3.-Explainable-AI-XAI
  53. [LG Aimers] 설명가능한 AI - 3. Explainable AI(XAI) - 3, accessed July 12, 2025, https://rahites.tistory.com/95
  54. Evaluating interpretability - Introduction to AI Interpretability - WordPress.com, accessed July 12, 2025, https://introinterpretableai.wordpress.com/evaluating-interpretability/
  55. Finding the right XAI method - A Guide for the Evaluation and Ranking of Explainable AI Methods in Climate Science - arXiv, accessed July 12, 2025, https://arxiv.org/html/2303.00652v2
  56. An Overview of the Empirical Evaluation of Explainable AI (XAI): A Comprehensive Guideline for User-Centered Evaluation in XAI - MDPI, accessed July 12, 2025, https://www.mdpi.com/2076-3417/14/23/11288
  57. “Explainable” AI Has Some Explaining to Do, accessed July 12, 2025, https://mit-serc.pubpub.org/pub/pt5lplzb
  58. A View on Vulnerabilites: The Security Challenges of XAI (Academic Track) - DROPS, accessed July 12, 2025, https://drops.dagstuhl.de/entities/document/10.4230/OASIcs.SAIA.2024.12
  59. arxiv.org, accessed July 12, 2025, https://arxiv.org/abs/2306.06123
  60. (PDF) Adversarial XAI Methods in Cybersecurity - ResearchGate, accessed July 12, 2025, https://www.researchgate.net/publication/355029397_Adversarial_XAI_Methods_in_Cybersecurity
  61. CristianCosci/Adversarial_attacks_on_Explainability_methods: AGV-Project for evolutionary adversarial attacks on XAI methods - GitHub, accessed July 12, 2025, https://github.com/CristianCosci/Adversarial_attacks_on_Explainability_methods
  62. Adversarial Examples on XAI-Enabled DT for Smart Healthcare Systems - MDPI, accessed July 12, 2025, https://www.mdpi.com/1424-8220/24/21/6891
  63. Adversarial attacks and defenses in explainable artificial intelligence …, accessed July 12, 2025, https://www.researchgate.net/publication/378327378_Adversarial_attacks_and_defenses_in_explainable_artificial_intelligence_A_survey
  64. A Survey of Adversarial Defences and Robustness in NLP - arXiv, accessed July 12, 2025, https://arxiv.org/pdf/2203.06414
  65. [ICLR 2024]Foundation Model 분야 최신 연구 동향 - LG AI Research BLOG, accessed July 12, 2025, https://www.lgresearch.ai/blog/view?seq=451
  66. LLMs for Explainable AI: A Comprehensive Survey - arXiv, accessed July 12, 2025, https://arxiv.org/html/2504.00125v1
  67. [2504.00125] LLMs for Explainable AI: A Comprehensive Survey - arXiv, accessed July 12, 2025, https://arxiv.org/abs/2504.00125
  68. [2501.09967] Explainable artificial intelligence (XAI): from inherent explainability to large language models - arXiv, accessed July 12, 2025, https://arxiv.org/abs/2501.09967
  69. Towards Transparent AI: A Survey on Explainable Large Language Models - arXiv, accessed July 12, 2025, https://arxiv.org/html/2506.21812
  70. XAI for All: Can Large Language Models Simplify Explainable AI? - arXiv, accessed July 12, 2025, https://arxiv.org/html/2401.13110v1
  71. CNN Explainer - Polo Club of Data Science, accessed July 12, 2025, https://poloclub.github.io/cnn-explainer/
  72. Student project: Explainability of Features Learned by Diffusion Models, accessed July 12, 2025, https://www.cs.ox.ac.uk/teaching/studentprojects/934.html
  73. A Survey on Diffusion Models for Anomaly Detection - arXiv, accessed July 12, 2025, https://arxiv.org/html/2501.11430v3
  74. Diffusion-Guided Counterfactual Generation for Model Explainability …, accessed July 12, 2025, https://openreview.net/forum?id=ANrzX5KFAG
  75. Explainable AI: Foundations, Applications, Opportunities for Data …, accessed July 12, 2025, https://romilapradhan.github.io/assets/pdf/xai-sigmod.pdf
  76. NeurIPS Tutorial Causality for Large Language Models, accessed July 12, 2025, https://neurips.cc/virtual/2024/tutorial/99520
  77. NeurIPS Poster From Causal to Concept-Based Representation Learning, accessed July 12, 2025, https://neurips.cc/virtual/2024/poster/93459
  78. Leveraging explanations in interactive machine learning … - Frontiers, accessed July 12, 2025, https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2023.1066049/full
  79. arxiv.org, accessed July 12, 2025, https://arxiv.org/html/2506.14777v2
  80. From Explainable to Interactive AI: A Literature Review on … - arXiv, accessed July 12, 2025, https://arxiv.org/pdf/2405.15051
  81. Leveraging Explanations in Interactive Machine Learning: An Overview - arXiv, accessed July 12, 2025, https://arxiv.org/pdf/2207.14526
  82. Explainable AI as a User-Centered Design Approach - inovex GmbH, accessed July 12, 2025, https://www.inovex.de/de/blog/explainable-ai-as-a-user-centered-design-approach/
  83. Designing Theory-Driven User-Centric Explainable AI. - NUS Ubicomp Lab, accessed July 12, 2025, https://ubiquitous.comp.nus.edu.sg/wp-content/uploads/2019/01/chi2019-reasoned-xai-framework.pdf
  84. Neuro-symbolic AI - Wikipedia, accessed July 12, 2025, https://en.wikipedia.org/wiki/Neuro-symbolic_AI
  85. Towards Cognitive AI Systems: a Survey and Prospective on Neuro-Symbolic AI - arXiv, accessed July 12, 2025, https://arxiv.org/pdf/2401.01040
  86. (PDF) Neuro-Symbolic AI: Explainability, Challenges, and Future Trends - ResearchGate, accessed July 12, 2025, https://www.researchgate.net/publication/385629948_Neuro-Symbolic_AI_Explainability_Challenges_and_Future_Trends
  87. Explainable Diagnosis Prediction through Neuro-Symbolic Integration - PMC, accessed July 12, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC12150699/
  88. Neurosymbolic Reinforcement Learning and Planning: A Survey - NSF-PAR, accessed July 12, 2025, https://par.nsf.gov/servlets/purl/10481273
  89. GraphXAI: a survey of graph neural networks (GNNs) for explainable …, accessed July 12, 2025, https://www.researchgate.net/publication/389678466_GraphXAI_a_survey_of_graph_neural_networks_GNNs_for_explainable_AI_XAI
  90. GNNExplainer: Generating Explanations for Graph Neural Networks - Stanford Computer Science, accessed July 12, 2025, https://cs.stanford.edu/people/jure/pubs/gnnexplainer-neurips19.pdf
  91. Generating Explanations for Graph Neural Networks - Duke Computer Science, accessed July 12, 2025, https://courses.cs.duke.edu/spring23/compsci590.1/Lectures/Pr-4-GNN-and-GNNExplainer.pdf
  92. GNNExplainer: Generating Explanations for Graph Neural Networks - NIPS, accessed July 12, 2025, http://papers.neurips.cc/paper/9123-gnnexplainer-generating-explanations-for-graph-neural-networks.pdf
  93. Explainability in Graph Neural networks with GNNExplainer by Sambhav Khurana, accessed July 12, 2025, https://medium.com/@sambhav.khurana006/explainability-in-graph-neural-networks-with-gnnexplainer-6287ec82dc28
  94. GNNExplainer: Generating Explanations for Graph Neural Networks - PMC, accessed July 12, 2025, https://pmc.ncbi.nlm.nih.gov/articles/PMC7138248/
  95. Parameterized Explainer for Graph Neural Network, accessed July 12, 2025, https://users.cs.fiu.edu/~dluo/papers/neurips20/Main.html
  96. BetaExplainer: A Probabilistic Method to Explain Graph Neural Networks - ResearchGate, accessed July 12, 2025, https://www.researchgate.net/publication/392386219_BetaExplainer_A_Probabilistic_Method_to_Explain_Graph_Neural_Networks
  97. Explainable Quantum Machine Learning Request PDF - ResearchGate, accessed July 12, 2025, https://www.researchgate.net/publication/367359215_Explainable_Quantum_Machine_Learning
  98. [Literature Review] Opportunities and limitations of explaining quantum machine learning, accessed July 12, 2025, https://www.themoonlight.io/en/review/opportunities-and-limitations-of-explaining-quantum-machine-learning
  99. eXplainable AI for Quantum Machine Learning - ResearchGate, accessed July 12, 2025, https://www.researchgate.net/publication/365081252_eXplainable_AI_for_Quantum_Machine_Learning
  100. [2211.01441] eXplainable AI for Quantum Machine Learning - arXiv, accessed July 12, 2025, https://arxiv.org/abs/2211.01441
  101. Explaining Quantum Circuits with Shapley Values - arXiv, accessed July 12, 2025, https://arxiv.org/abs/2301.09138
  102. From Black Box to Glass Box: A Step-by-Step Guide to Implementing, accessed July 12, 2025, https://superagi.com/from-black-box-to-glass-box-a-step-by-step-guide-to-implementing-explainable-ai-in-your-organization/
  103. Explainable AI (XAI): The Complete Guide (2025) - Viso Suite, accessed July 12, 2025, https://viso.ai/deep-learning/explainable-ai/
  104. A new look at the economics of AI MIT Sloan, accessed July 12, 2025, https://mitsloan.mit.edu/ideas-made-to-matter/a-new-look-economics-ai
  105. Explainable AI Made Simple: Techniques, Tools & How To Tutorials - Spot Intelligence, accessed July 12, 2025, https://spotintelligence.com/2024/01/15/explainable-ai/
  106. What are the best practices for implementing Explainable AI? - Milvus, accessed July 12, 2025, https://milvus.io/ai-quick-reference/what-are-the-best-practices-for-implementing-explainable-ai