Part 1. 인공지능의 철학적 기원과 고전적 기호주의
인공지능(Artificial Intelligence)이라는 학문 분야는 단순한 공학적 산물이 아니라, 수천 년에 걸친 철학적 탐구의 연장선 위에 성립하였다. “기계가 사고할 수 있는가?“라는 질문은 고대 그리스 철학에서부터 근대 합리론과 경험론을 거쳐 20세기 수리논리학과 계산 이론으로 이어지는 긴 지적 계보를 갖는다. 본 Part는 인공지능의 철학적 뿌리를 추적하고, 초기 인공지능 연구를 지배한 기호주의(Symbolicism) 패러다임의 이론적 구조와 성과, 그리고 그 한계를 체계적으로 기술한다.
1. 사유하는 기계의 철학적 계보
인공지능의 개념적 기원은 형식 논리학(Formal Logic)의 역사와 불가분하게 연결되어 있다. 아리스토텔레스(Aristotle)의 삼단논법(Syllogism)은 추론을 형식적 규칙의 기계적 적용으로 환원할 수 있다는 최초의 체계적 시도였다. 이 관점은 17세기에 이르러 라이프니츠(Gottfried Wilhelm Leibniz)의 보편 기호법(Characteristica Universalis)과 추론 계산(Calculus Ratiocinator) 구상으로 발전하였다. 라이프니츠는 모든 인간의 사고를 형식적 기호 체계로 표현하고, 이를 기계적 규칙에 따라 조작함으로써 진리를 도출할 수 있다고 주장하였다.
데카르트(René Descartes)의 심신이원론(Mind-Body Dualism)은 정신과 물질의 관계에 대한 근본적 물음을 제기하였으며, 이는 이후 인공지능 철학에서 의식(Consciousness)과 계산(Computation)의 관계에 대한 논쟁으로 직결된다. 한편, 홉스(Thomas Hobbes)는 “추론은 계산이다(Reasoning is Computation)“라는 명제를 통해 사고의 기계론적(Mechanistic) 해석 가능성을 명시적으로 제시하였다.
2. 수리논리학과 계산 가능성 이론
19세기 후반에서 20세기 초반에 걸쳐 수리논리학의 발전은 인공지능의 직접적 토대를 구축하였다. 부울(George Boole)의 논리 대수(Algebra of Logic)는 논리적 추론을 대수적 연산으로 형식화하였고, 프레게(Gottlob Frege)의 개념기법(Begriffsschrift)은 현대 술어 논리학(Predicate Logic)의 기초를 놓았다.
러셀(Bertrand Russell)과 화이트헤드(Alfred North Whitehead)의 『수학 원리(Principia Mathematica)』(1910-1913)는 수학 전체를 논리적 공리로부터 연역하려는 논리주의(Logicism) 프로그램의 정점이었다. 비록 괴델(Kurt Gödel)의 불완전성 정리(Incompleteness Theorems, 1931)가 이 프로그램의 근본적 한계를 증명하였으나, 형식 체계 내에서의 기계적 추론이라는 아이디어는 이후 인공지능 연구에 직접적인 영감을 제공하였다.
튜링(Alan Turing)은 1936년 발표한 “On Computable Numbers, with an Application to the Entscheidungsproblem“에서 튜링 기계(Turing Machine)라는 추상적 계산 모델을 제안하였다. 이 모델은 알고리즘적으로 계산 가능한 함수의 범위를 정밀하게 규정하였으며, 처치-튜링 논제(Church-Turing Thesis)와 함께 계산 가능성(Computability)의 이론적 틀을 확립하였다. 1950년 튜링은 “Computing Machinery and Intelligence“에서 기계 지능의 판별 기준으로 튜링 테스트(Turing Test)를 제안하며, 인공지능 철학의 핵심 논제를 명확히 정립하였다.
3. 다트머스 회의와 인공지능의 탄생
1956년 다트머스 회의(Dartmouth Conference)는 인공지능을 독립적 학문 분야로 공식 출범시킨 역사적 사건이다. 매카시(John McCarthy), 민스키(Marvin Minsky), 로체스터(Nathaniel Rochester), 섀넌(Claude Shannon)이 주도한 이 회의에서 “인공지능“이라는 용어가 공식적으로 채택되었다. 회의의 제안서에는 학습의 모든 측면과 지능의 모든 특성이 원칙적으로 기계에 의해 시뮬레이션 가능하다는 가설이 명시되었다.
다트머스 회의 이후 초기 인공지능 연구는 기호주의 패러다임을 중심으로 전개되었다. 이 접근법은 인간의 지능을 기호(Symbol)의 조작으로 모델링할 수 있다는 물리적 기호 체계 가설(Physical Symbol System Hypothesis)에 기반한다. 뉴웰(Allen Newell)과 사이먼(Herbert A. Simon)이 제안한 이 가설은, 물리적 기호 체계가 일반 지능 행동의 필요충분조건이라고 주장하였다.
4. 기호주의 인공지능의 주요 성과
기호주의 패러다임은 초기 인공지능의 다수의 핵심적 성과를 산출하였다.
4.1 논리 이론가와 범용 문제 해결기
뉴웰과 사이먼은 1956년 논리 이론가(Logic Theorist)를 개발하여 『수학 원리』의 정리를 자동으로 증명하는 데 성공하였다. 이후 개발된 범용 문제 해결기(General Problem Solver, GPS)는 수단-목표 분석(Means-Ends Analysis)을 통해 다양한 유형의 문제를 해결하는 범용적 추론 프로그램을 지향하였다.
4.2 지식 표현과 추론 체계
기호주의 인공지능에서 지식은 명시적 기호 구조로 표현된다. 술어 논리(Predicate Logic)를 기반으로 한 지식 표현(Knowledge Representation)은 사실(Fact), 규칙(Rule), 관계(Relation)를 형식적으로 부호화한다. 프레임(Frame), 의미 네트워크(Semantic Network), 스크립트(Script) 등의 표현 구조가 개발되어 상식 지식(Commonsense Knowledge)과 영역 지식(Domain Knowledge)의 체계적 표현이 시도되었다.
자동 정리 증명(Automated Theorem Proving)과 해소 원리(Resolution Principle)는 형식 논리 체계 내에서의 기계적 추론을 실현하였다. 로빈슨(J. Alan Robinson)의 해소 원리(1965)는 일차 술어 논리(First-Order Predicate Logic)에서의 자동 증명을 위한 효율적이고 완전한 추론 규칙을 제공하였다.
4.3 전문가 시스템
전문가 시스템(Expert System)은 기호주의 인공지능의 가장 성공적인 실용적 응용이었다. MYCIN(의료 진단), DENDRAL(분자 구조 분석), R1/XCON(컴퓨터 시스템 구성) 등의 시스템은 특정 영역의 전문 지식을 규칙 기반(Rule-Based)으로 부호화하여 전문가 수준의 의사결정을 지원하였다. 이들 시스템은 지식 기반(Knowledge Base)과 추론 엔진(Inference Engine)의 분리라는 아키텍처 원리에 기반하였다.
5. 기호주의의 근본적 한계
기호주의 패러다임은 강력한 이론적 틀을 제공하였으나, 여러 근본적 한계에 직면하였다.
첫째, 프레임 문제(Frame Problem)는 어떤 행동이 세계의 어떤 측면을 변화시키고 어떤 측면을 변화시키지 않는지를 형식적으로 기술하는 것이 극도로 어렵다는 문제이다. 매카시와 헤이스(Patrick Hayes)가 1969년에 제기한 이 문제는 상식 추론의 형식화가 갖는 본질적 난점을 드러낸다.
둘째, 기호 접지 문제(Symbol Grounding Problem)는 하나드(Stevan Harnad)가 1990년에 명확히 정식화한 것으로, 형식적 기호가 어떻게 실세계의 의미와 연결되는가에 대한 근본적 물음이다. 기호 체계 내부의 기호 조작만으로는 진정한 의미 이해에 도달할 수 없다는 비판은 기호주의의 의미론적 한계를 지적한다.
셋째, 지식 획득 병목(Knowledge Acquisition Bottleneck)은 전문가 시스템의 실용적 확장을 가로막는 현실적 장벽이었다. 전문가의 암묵적 지식(Tacit Knowledge)을 명시적 규칙으로 변환하는 과정은 극도로 노동 집약적이며, 지식의 규모가 증가함에 따라 규칙 간 충돌과 유지보수의 복잡성이 기하급수적으로 증가하였다.
넷째, 조합 폭발(Combinatorial Explosion) 문제는 탐색 공간의 크기가 문제의 규모에 따라 지수적으로 증가하는 현상으로, 기호적 탐색 기반 접근법의 확장성(Scalability)을 근본적으로 제한하였다.
6. 기호주의에서 연결주의로의 전환
기호주의의 한계는 대안적 패러다임의 탐색을 촉진하였다. 연결주의(Connectionism)는 뇌의 신경 구조에서 영감을 받아, 다수의 단순한 처리 단위(Unit)가 상호 연결된 네트워크를 통해 지능적 행동이 창발(Emergence)할 수 있다는 관점을 제시하였다. 이 패러다임의 전환은 명시적 규칙 부호화 대신 데이터로부터의 학습을 핵심 메커니즘으로 채택하며, 이후 딥러닝 혁명의 이론적·역사적 기반을 형성하였다.
기호주의와 연결주의의 이론적 대립과 상호 보완은 인공지능 연구사의 핵심 축이며, 현대의 신경-기호 통합(Neuro-Symbolic Integration) 연구는 두 패러다임의 장점을 결합하려는 시도로서 활발히 진행되고 있다.