컴퓨터 그래픽스(Computer Graphics, 이하 CG)는 컴퓨터를 사용하여 시각 정보를 생성, 조작 및 표시하는 모든 기술과 그 결과물을 아우르는 광범위한 분야이다.1 이 보고서는 CG 기술의 역사를 단순히 연대기적으로 나열하는 것을 넘어, 기술적 토대, 학문적 탐구, 산업적 요구, 그리고 창의적 열망이라는 네 가지 힘이 상호작용하며 이 분야를 어떻게 형성해왔는지를 심층적으로 분석하고자 한다. CG의 역사는 최초의 전자식 디지털 컴퓨터인 에니악(ENIAC)의 개발과 그 맥을 같이하며 시작되었으며 2, 오실로스코프 화면 위에서 희미하게 빛나던 추상적인 선에서 출발하여 오늘날 인공지능이 생성하는 사진처럼 사실적인 이미지와 몰입형 가상 세계에 이르기까지 경이로운 발전을 거듭해왔다.
이 기술의 여정은 추상적인 데이터를 직관적인 시각 정보로 변환하려는 인간의 근본적인 욕구에서 시작되었다. 초기 컴퓨터가 순수한 수치 계산기였던 시절 2, 데이터를 눈으로 보고 상호작용하려는 필요성은 군사 시뮬레이션과 같은 실용적인 분야에서 처음으로 가시화되었다.2 이 ‘데이터를 보려는’ 욕망은 점차 ‘세계를 창조하려는’ 야망으로 진화하여 영화와 게임 산업의 폭발적인 성장을 이끌었다.4 따라서 CG의 전체 역사는 컴퓨터의 디지털 영역과 인간의 지각 영역 사이의 소통 대역폭과 충실도를 높이기 위한 끊임없는 투쟁의 과정으로 이해할 수 있다.
본 보고서는 CG의 태동기부터 시작하여 벡터와 래스터라는 근본적인 패러다임의 대립, 3D 리얼리즘을 향한 학문적 탐구, 그래픽 하드웨어의 혁신, 그리고 영화, 게임, 산업 설계 등 다양한 응용 분야가 기술 발전을 견인한 과정을 체계적으로 추적할 것이다. 나아가 실시간 레이 트레이싱, 인공지능 기반 렌더링, 가상 및 증강현실과 같은 최신 기술 동향을 분석하고, 이 모든 기술의 융합점으로서 주목받는 메타버스와 디지털 트윈의 미래를 조망함으로써 CG 기술의 과거, 현재, 그리고 미래를 관통하는 통찰을 제공하고자 한다. 아래 표는 본 보고서에서 다룰 컴퓨터 그래픽스 역사의 주요 이정표를 요약한 것이다.
표 1: 컴퓨터 그래픽스 역사의 주요 연대기적 이정표
| 연도 | 주요 사건 | 의의 |
|---|---|---|
| 1950 | 벤 라포스키, ‘오실론스(Oscillons)’ 발표 3 | 전자 장치로 생성된 최초의 그래픽 이미지. |
| 1955 | MIT, SAGE 방공 시스템 완성 2 | CRT 디스플레이를 활용한 최초의 대규모 실시간 인터랙티브 그래픽 시스템. |
| 1960 | 윌리엄 페터, ‘컴퓨터 그래픽스’ 용어 창안 3 | 보잉사에서 인간형 와이어프레임 모델(‘Boeing Man’)을 제작하며 용어 최초 사용. |
| 1963 | 이반 서덜랜드, ‘스케치패드(Sketchpad)’ 개발 3 | 최초의 그래픽 사용자 인터페이스(GUI)이자 객체 지향 개념을 도입한 혁명적 프로그램. |
| 1969 | 시그래프(SIGGRAPH) 발족 2 | 세계 최대 규모의 컴퓨터 그래픽스 학회 및 컨퍼런스 시작. |
| 1973 | 제록스 PARC, ‘알토(Alto)’ 컴퓨터 개발 6 | 비트맵 디스플레이, 마우스, GUI를 통합한 현대적 개인용 컴퓨터의 원형. |
| 1975 | 마틴 뉴웰, ‘유타 주전자(Utah Teapot)’ 제작 8 | 3D 렌더링 알고리즘 테스트를 위한 표준 참조 모델 탄생. |
| 1981 | IBM PC 출시 2 | 개인용 컴퓨터의 대중화 시대를 열며 CG 기술의 저변 확대 기반 마련. |
| 1982 | 영화 ‘트론(TRON)’ 개봉 2 | 컴퓨터 그래픽을 광범위하게 사용한 최초의 장편 영화. |
| 1993 | 세가, ‘버추어 파이터(Virtua Fighter)’ 출시 9 | 3D 폴리곤 그래픽을 사용한 격투 게임의 혁명, 게임 산업의 3D 전환 가속화. |
| 1995 | 픽사, ‘토이 스토리(Toy Story)’ 개봉 4 | 세계 최초의 장편 풀 3D CG 애니메이션 영화. |
| 1999 | 엔비디아, ‘지포스 256’ 출시 및 ‘GPU’ 용어 대중화 10 | 그래픽 가속기를 넘어선 범용 그래픽 처리 장치(GPU) 시대의 개막. |
| 2007 | ‘크라이시스(Crysis)’ 출시 5 | 실시간 그래픽의 사실성을 한 단계 끌어올린 벤치마크 게임. |
| 2018 | 엔비디아, 실시간 레이 트레이싱 지원 RTX GPU 출시 11 | 수십 년간 영화계의 전유물이던 레이 트레이싱 기술의 실시간 게임 적용 시작. |
| 2020년대 | AI 기반 렌더링(DLSS, NeRF) 및 메타버스/디지털 트윈 부상 | AI가 그래픽 생성 및 성능 향상에 핵심 역할을 하며, 몰입형 가상 세계 기술이 주류로 부상. |
컴퓨터 그래픽스의 역사는 제2차 세계대전 이후 냉전 시대의 군사적, 학문적 필요성이 맞물리며 싹텄다. 이 시기, 컴퓨터는 단순한 계산 도구를 넘어 데이터를 시각화하고 인간과 상호작용하는 새로운 가능성을 탐색하기 시작했다. 군사적 우위를 점하기 위한 거대 프로젝트는 막대한 자금과 최고의 인재를 끌어모으는 용광로 역할을 했고, 이 과정에서 탄생한 기술들은 훗날 그래픽스 분야 전체를 지탱하는 초석이 되었다.
컴퓨터 그래픽스의 실질적인 기원은 1940년대 MIT에서 군사용 시뮬레이션 컴퓨터로 개발된 ‘훨윈드(Whirlwind)’ 프로젝트에서 찾을 수 있다.2 이 시스템은 레이더와 연동하여 스크린에 표시된 영상을 통해 적기를 격추하는 시뮬레이션 기능을 갖추고 있었으며, 이는 컴퓨터가 생성한 이미지를 실시간 상호작용에 사용한 최초의 사례 중 하나로 기록된다.
이러한 초기 시도들은 1950년대에 이르러 미국 국방성의 반자동 방공 시스템, 즉 ‘세이지(SAGE, Semi-Automatic Ground Environment)’ 프로젝트에서 정점을 찍었다.3 SAGE는 북미 대륙 전역의 레이더망을 통합하여 적의 폭격기 침투를 탐지하고 요격 관제사에게 시각 정보를 제공하는 거대한 지휘 통제 시스템이었다. 이 시스템의 핵심은 음극선관(CRT) 디스플레이와 ‘라이트 펜(Light Pen)’이라는 입력 장치였다. 관제사는 CRT 화면에 표시된 비행 물체를 라이트 펜으로 직접 선택하여 정보를 조회하거나 요격 명령을 내릴 수 있었다.3
SAGE는 여러 측면에서 역사적 의의를 가진다. 첫째, 이는 인류 최초의 대규모 실시간 인터랙티브 컴퓨터 그래픽 시스템이었다. 수많은 오퍼레이터가 컴퓨터가 생성한 그래픽 정보를 보며 실시간으로 의사결정을 내리는 이 모델은 현대의 관제 시스템, 나아가 모든 그래픽 사용자 인터페이스의 원형이 되었다. 1955년 SAGE의 완성은 CRT를 통한 영상 시대의 개막이자 본격적인 CG의 시작으로 평가받는다.2 둘째, SAGE 프로젝트에는 IBM과 같은 당대 최고의 기술 기업들이 참여했다. 이들은 프로젝트를 수행하며 대규모 컴퓨터 시스템 구축, 실시간 데이터 처리, 그리고 그래픽스 하드웨어에 대한 귀중한 기술과 노하우를 축적했으며, 이는 훗날 민수용 컴퓨터 시스템 개발의 자양분이 되었다.12 이처럼 CG의 태동은 순수한 학문적 호기심이 아닌, 국가 안보라는 절박한 현실적 요구에 의해 촉발된 기술 혁신의 산물이었다.
군사 프로젝트가 CG의 실용적 가능성을 열었다면, 그 학문적, 개념적 토대를 마련한 인물은 단연 이반 서덜랜드(Ivan Sutherland)였다. ‘컴퓨터 그래픽스의 아버지’로 불리는 그는 13 1962년 MIT에서의 박사학위 논문 “스케치패드: 인간과 기계의 그래픽 커뮤니케이션 시스템(Sketchpad: A Man-Machine Graphical Communication System)”을 통해 컴퓨터와의 상호작용 방식에 대한 패러다임을 완전히 바꾸어 놓았다.3
스케치패드는 단순히 그림을 그리는 프로그램을 넘어선 개념적 혁명이었다. 링컨 TX-2라는 당대 최고의 컴퓨터에서 구동된 이 프로그램은 15, 9인치 CRT 모니터와 라이트 펜으로 구성된 시스템을 통해 사용자가 컴퓨터와 직접적으로 ‘대화’할 수 있는 길을 열었다.13 사용자는 라이트 펜으로 화면에 직접 선과 원 같은 도형을 그릴 수 있었을 뿐만 아니라, 이미 그려진 도형을 선택하여 복사하고, 크기를 조절하며, 회전시킬 수 있었다.13 또한, 선의 길이를 고정하거나 두 선을 평행하게 만드는 등의 ‘제약 조건(constraints)’을 부여하는 기능도 포함되어 있었다.
스케치패드가 가져온 혁신은 다음과 같이 요약할 수 있다.
서덜랜드는 “디스플레이가 연결된 컴퓨터는 우리에게 실제 세상에서는 구현할 수 없는 개념들을 만들어낼 기회를 갖게 하였다. 이것은 수학의 멋진 세계를 들여다볼 수 있는 돋보기 같은 것이다”라는 말로 스케치패드의 철학을 요약했다.13 그의 연구는 이후 가상현실(VR), 증강현실(AR) 시스템 개발로 이어지며 평생에 걸쳐 컴퓨터 그래픽스 분야에 지대한 영향을 미쳤다.3
SAGE와 스케치패드가 CG의 주류 역사를 개척하는 동안, 다른 한편에서는 예술과 공학 분야의 선구자들이 독자적인 방식으로 디지털 이미지의 가능성을 탐색하고 있었다.
1950년, 미국의 수학자이자 예술가인 벤 라포스키(Ben F. Laposky)는 오실로스코프를 이용하여 추상적인 그래픽 이미지를 창조했다.3 오실로스코프는 원래 전류의 변화를 파형으로 보여주는 계측 장비였지만, 라포스키는 이를 예술적 매체로 활용하여 전자 광선이 브라운관 위에서 그리는 기하학적이고 유기적인 형태를 사진으로 기록했다. ‘오실론스(Oscillons)’ 또는 ‘전자 추상(Electronic Abstractions)’이라 불린 이 작품들은 전자 장치에 의해 생성된 최초의 그래픽 이미지로 인정받으며, 컴퓨터 아트의 효시가 되었다.3
공학 분야에서는 1960년 보잉(Boeing)사의 연구원 윌리엄 페터(William Fetter)가 중요한 족적을 남겼다. 그는 비행기 조종석의 공간 효율성과 조종사의 시야를 분석하기 위해, 인간의 신체를 3차원 와이어프레임(wireframe) 모델로 구현했다. ‘보잉 맨(Boeing Man)’으로 알려진 이 이미지는 인간 형태를 표현한 최초의 3D 컴퓨터 모델 중 하나였다.16 더욱 중요한 것은, 페터가 자신의 작업을 설명하기 위해 ‘컴퓨터 그래픽스(Computer Graphics)’라는 용어를 처음으로 사용했다는 점이다.3 이로써 그는 새로운 학문 및 산업 분야에 공식적인 이름을 부여한 인물이 되었다.
한편, 이 시기의 그래픽 출력은 CRT 화면에만 국한되지 않았다. 컴퓨터가 지시하는 좌표에 따라 펜을 움직여 종이 위에 도면이나 그래프를 그리는 장치인 ‘플로터(Plotter)’가 널리 사용되었다.3 1958년 미국의 캘컴(Calcomp)사가 개발한 565 드럼 플로터는 이러한 흐름을 대표하는 장비였으며, 1950년대는 ‘플로터의 시대’라고도 불릴 만큼 플로터는 초기 엔지니어링 및 과학 분야에서 중요한 시각화 도구로 자리 잡았다.2
이처럼 컴퓨터 그래픽스의 탄생은 단일한 사건이 아니라, 군사(제어), 공학(설계), 예술(표현)이라는 세 가지 서로 다른 동기가 융합된 결과였다. 군은 통제를 위한 데이터 시각화라는 거대한 수요와 자금을 제공했고, 공학은 설계를 위한 실용적 응용을 개척했으며, 예술은 이 새로운 매체의 표현 가능성을 처음으로 탐색했다. 그리고 이반 서덜랜드의 스케치패드는 이 세 가지 흐름이 만나는 교차점에서 탄생하여, 이후 CG가 나아갈 방향을 제시하는 기념비적인 이정표가 되었다.
컴퓨터 그래픽스의 초기 역사는 이미지를 표현하는 두 가지 근본적으로 다른 방식, 즉 벡터 그래픽스와 래스터 그래픽스 사이의 기술적 경쟁과 진화의 과정으로 요약될 수 있다. 이 두 패러다임은 컴퓨터가 세상을 ‘보는’ 방식의 철학적 차이를 반영하며, 각각의 장단점은 하드웨어의 발전과 맞물려 CG 기술의 전체적인 발전 방향을 결정했다.
초기 컴퓨터 그래픽스는 벡터(Vector) 방식이 지배했다. 벡터 그래픽스는 이미지를 점, 직선, 곡선과 같은 수학적 객체들의 집합으로 정의한다.3 이는 마치 “A 지점에서 B 지점까지 선을 그려라”와 같은 일련의 그리기 명령어로 이미지를 기술하는 것과 같다.
이 기술의 핵심은 벡터 디스플레이(Vector Display) 또는 랜덤 스캔(Random Scan) 디스플레이라 불리는 특수한 CRT 모니터였다. 일반적인 TV와 달리, 벡터 디스플레이는 전자빔을 화면 전체에 걸쳐 순차적으로 주사(scan)하는 것이 아니라, 컴퓨터의 명령에 따라 특정 좌표로 직접 이동하여 선을 그려나갔다.18 1951년 MIT에서 개발된 벡터그래픽스 화상처리(vectorscope graphics display) 기술이 이러한 방식의 시초였다.3
벡터 방식의 가장 큰 장점은 해상도에 구애받지 않는다는 점이었다. 이미지가 수학적 공식으로 정의되기 때문에, 아무리 확대해도 선은 언제나 날카롭고 깨끗하게 유지되었다.17 계단 현상(aliasing)이 원천적으로 발생하지 않아 정밀한 선을 표현하는 데 매우 유리했다.18 또한, 이미지를 저장하는 데 필요한 메모리도 상대적으로 적었다. 화면의 모든 픽셀 정보를 저장할 필요 없이, 그리기 명령어 목록인 ‘디스플레이 리스트(display list)’만 저장하면 되었기 때문이다.18 SAGE 시스템, 스케치패드, 그리고 ‘아스테로이드’와 같은 초기 아케이드 게임들이 모두 이 벡터 방식을 사용했다.
하지만 벡터 방식은 명확한 한계를 가지고 있었다. 선을 그리는 데는 탁월했지만, 색상이 채워진 면을 표현하는 것은 매우 비효율적이었다. 면을 채우기 위해서는 무수히 많은 선을 촘촘하게 반복해서 그려야 했고, 이는 상당한 처리 시간을 요구했다.18 따라서 복잡한 질감이나 사진처럼 사실적인 이미지를 표현하는 데는 근본적인 어려움이 있었다.
1970년대에 들어서면서 컴퓨터 그래픽스는 패러다임의 대전환을 맞이한다. 이는 래스터(Raster) 그래픽스의 부상 때문이었다.2 래스터 그래픽스는 이미지를 ‘픽셀(pixel)’이라는 작은 사각형 점들의 격자(grid), 즉 비트맵(bitmap)으로 표현한다.17 이는 이미지를 수학적 명령어로 기술하는 대신, 화면의 각 점이 어떤 색을 가져야 하는지를 하나하나 명시하는 방식이다.
이러한 혁명을 가능하게 한 핵심 기술은 ‘프레임버퍼(framebuffer)’였다.20 프레임버퍼는 디스플레이 화면의 모든 픽셀에 대한 색상 정보를 저장하는 전용 고속 메모리(RAM) 공간이다.20 컴퓨터의 중앙처리장치(CPU)나 그래픽 프로세서는 이 프레임버퍼에 픽셀 데이터를 쓰고, 비디오 컨트롤러는 이 메모리의 내용을 주기적으로 읽어들여 모니터에 비디오 신호를 보내 화면을 갱신한다.
프레임버퍼의 등장은 이미지 생성 과정과 디스플레이 갱신 과정을 분리(decoupling)했다는 점에서 기념비적인 발전이었다. 벡터 방식에서는 컴퓨터가 매 순간 그림을 다시 그려야 했지만, 래스터 방식에서는 일단 프레임버퍼에 이미지가 완성되면 컴퓨터는 다른 작업을 수행할 수 있고, 비디오 컨트롤러가 독립적으로 화면을 유지해준다. 이로 인해 컴퓨터는 복잡한 연산에 더 많은 시간을 할애할 수 있게 되었고, 이는 곧 채워진 다각형, 부드러운 음영, 텍스처 매핑 등 이전에는 불가능했던 정교하고 사실적인 이미지 표현의 문을 열었다. 기하학적 모델을 픽셀의 집합으로 변환하는 이 과정을 ‘래스터화(Rasterization)’라고 부른다.18
물론 이러한 변화에는 대가가 따랐다. 래스터 방식은 본질적으로 해상도에 종속적이며, 이미지를 확대하면 픽셀 격자가 드러나며 계단 현상이 발생하는 단점이 있었다.17 또한, 화면의 모든 픽셀 정보를 저장해야 하므로 막대한 양의 메모리가 필요했다. 초기 컴퓨터 시대에 래스터 방식이 널리 쓰이지 못한 근본적인 이유가 바로 여기에 있었다. 예를 들어, 640x480 해상도에 8비트(256색) 컬러 이미지를 저장하기 위해서는 약 300KB의 RAM이 필요한데, 이는 1970년대 초반에는 엄청나게 비싸고 큰 용량이었다. 그러나 1970년대 직접회로(IC) 기술의 발달과 함께 시작된 반도체 메모리 가격의 기하급수적인 하락은 2 프레임버퍼를 경제적으로 실현 가능하게 만들었고, 이는 래스터 그래픽스가 CG의 주류로 자리 잡는 결정적인 계기가 되었다. 하드웨어의 발전과 메모리 용량의 증가는 결국 하드웨어 스프라이트와 같은 과도기적 기술들을 도태시키고 래스터 방식을 표준으로 만들었다.22
벡터와 래스터 그래픽스는 서로 다른 철학을 바탕으로 한 기술이며, 각각의 특성은 오늘날까지도 다양한 응용 분야에서 그 쓰임새를 결정하고 있다. 두 패러다임의 차이점은 다음 표와 같이 요약할 수 있다.
표 2: 벡터 그래픽스와 래스터 그래픽스 비교 분석
| 구분 | 벡터 그래픽스 (Vector Graphics) | 래스터 그래픽스 (Raster Graphics) |
|---|---|---|
| 기본 단위 | 수학적 객체 (점, 선, 곡선, 다각형) 17 | 픽셀 (Pixel, Picture Element)의 격자 17 |
| 표현 방식 | 절차적/명령 기반 (예: “선을 그려라”) 18 | 선언적/상태 기반 (예: “이 픽셀은 빨간색”) 21 |
| 해상도 | 해상도 독립적 (Resolution-Independent). 확대/축소 시 품질 저하 없음.17 | 해상도 종속적 (Resolution-Dependent). 확대 시 픽셀화(Pixelation) 및 계단 현상(Aliasing) 발생.17 |
| 파일 크기 | 일반적으로 작음. 복잡도에 따라 증가.19 | 일반적으로 큼. 이미지 크기(가로x세로)와 색 깊이(bpp)에 비례.19 |
| 주요 장점 | 무한한 확장성, 작은 파일 크기, 정밀한 선 표현. | 사진과 같은 사실적 이미지, 복잡한 색상 및 질감 표현에 용이. |
| 주요 단점 | 사진처럼 복잡한 톤과 색상 표현이 어려움. 채워진 영역 렌더링이 비효율적.18 | 파일 크기가 크고, 확대 시 품질 저하. |
| 주요 용도 | 로고, 아이콘, 폰트, 일러스트레이션, 건축/기계 도면(CAD).19 | 디지털 사진, 웹 이미지, 영화 VFX, 게임 텍스처, 디지털 페인팅.19 |
| 핵심 기술 | 디스플레이 리스트(Display List), 벡터 디스플레이. | 프레임버퍼(Framebuffer), 래스터 스캔 디스플레이, 래스터화(Rasterization). |
| 파일 형식 | AI, EPS, SVG, PDF (일부) | JPEG, GIF, PNG, BMP, TIFF |
결론적으로, 벡터에서 래스터로의 전환은 단순히 기술적 우위의 문제가 아니었다. 이는 반도체 기술의 발전, 특히 메모리 가격의 하락이라는 경제적 요인이 뒷받침되었기에 가능했던 거대한 패러다임의 전환이었다. 이 전환을 통해 컴퓨터 그래픽스는 선을 그리는 도구에서 벗어나, 현실 세계를 모방하고 새로운 시각적 세계를 창조할 수 있는 강력한 ‘화폭’을 손에 넣게 되었다. 이 픽셀 기반의 화폭 위에서 3D 리얼리즘을 향한 본격적인 탐구가 시작될 수 있었다.
래스터 그래픽스와 프레임버퍼가 ‘무엇을 그릴 것인가’에 대한 캔버스를 제공했다면, 1970년대와 1980년대는 ‘어떻게 사실적으로 그릴 것인가’에 대한 방법론, 즉 알고리즘이 폭발적으로 발전한 시기였다. 이 시기, 학계는 상업적 제약에서 비교적 자유로운 환경에서 3D 그래픽스의 근본적인 문제들을 해결하기 위한 지적 탐험에 나섰다. 이 지적 탐험의 중심에는 유타 대학교와 제록스 파크(PARC) 연구소가 있었다. 이들이 쏘아 올린 아이디어들은 당대의 하드웨어로는 실시간 구현이 불가능한 것들이었지만, 훗날 그래픽스 산업 전체의 청사진이 되었다.
1970년대, 미국 유타 주의 솔트레이크시티에 위치한 유타 대학교(University of Utah)는 전 세계 3D 컴퓨터 그래픽스 연구의 메카로 떠올랐다. 이러한 명성은 데이비드 에반스(David Evans)와 이반 서덜랜드(Ivan Sutherland)라는 두 거장의 비전 덕분이었다. 스케치패드를 개발한 서덜랜드는 1968년 유타 대학교에 합류하여 에반스와 함께 컴퓨터 과학과를 이끌었다. 그들은 미 국방부 고등연구계획국(ARPA, 훗날 DARPA)의 막대한 지원을 바탕으로 당대 최고의 인재들을 끌어모아 3D 그래픽스의 근본 문제들을 해결하는 데 집중했다.24
유타 대학교의 연구 환경은 훗날 그래픽스 산업을 뒤흔들 인물들을 배출하는 산실이 되었다. 픽사(Pixar)의 공동 창립자가 되는 에드윈 캐트멀(Edwin Catmull), 실리콘 그래픽스(SGI)를 창립한 짐 클락(Jim Clark), 어도비(Adobe)를 공동 창립한 존 워녹(John Warnock), 객체 지향 프로그래밍과 GUI의 선구자인 앨런 케이(Alan Kay) 등이 모두 이 시기 유타에서 연구에 매진했다.2
유타 학파의 연구는 3차원 공간의 물체를 어떻게 수학적으로 표현하고(모델링), 어떻게 2차원 화면에 사실적으로 보이게 할 것인가(렌더링)에 초점을 맞췄다. 이들은 텍스처 매핑, Z-버퍼링, 곡면 표현 알고리즘 등 오늘날 3D 그래픽스의 근간을 이루는 수많은 핵심 기술들을 개발하거나 정립했다.24 유타 대학교는 단순히 개별 기술을 개발하는 것을 넘어, 3D 그래픽스를 하나의 독립된 학문 분야로 체계화하고, 미래의 산업을 이끌어갈 인재들을 양성하는 결정적인 역할을 수행했다.
3D 객체를 화면에 그릴 때 가장 기본적인 문제는 ‘어떻게 표면의 색상과 명암을 결정할 것인가’이다. 이 과정을 셰이딩(Shading)이라고 하며, 유타 대학교를 중심으로 1970년대에 개발된 셰이딩 알고리즘들은 3D 그래픽의 사실성을 비약적으로 발전시켰다.
플랫 셰이딩 (Flat Shading): 가장 원시적인 방식으로, 3D 모델을 구성하는 각 다각형(폴리곤)을 단일한 색상으로 채우는 기법이다. 계산이 매우 빠르지만, 결과물은 각진 면이 그대로 드러나 마치 조각난 종이를 붙여놓은 듯한 ‘각진(faceted)’ 모습을 보였다.11
구로 셰이딩 (Gouraud Shading): 1971년 유타 대학교의 앙리 구로(Henri Gouraud)가 개발한 이 알고리즘은 3D 그래픽스에 처음으로 ‘매끄러움’을 부여했다. 핵심 아이디어는 폴리곤의 각 꼭짓점(vertex)에서 조명 계산을 수행한 뒤, 폴리곤 내부의 픽셀 색상은 이 꼭짓점들의 색상 값을 선형 보간(linear interpolation)하여 채우는 것이었다. 이 방식은 플랫 셰이딩보다 훨씬 부드러운 음영 전환을 보여주었지만, 폴리곤의 중앙부에서 발생하는 하이라이트(specular highlight, 빛이 정반사되어 반짝이는 부분)를 제대로 표현하지 못하는 단점이 있었다.11
퐁 셰이딩 (Phong Shading): 1975년, 역시 유타 대학교 소속이었던 베트남계 미국인 부이 투옹 퐁(Bui Tuong Phong)은 구로 셰이딩의 한계를 극복하는 혁신적인 방법을 제시했다.11 그는 색상 값을 보간하는 대신, 폴리곤의 표면 방향을 나타내는 ‘법선 벡터(normal vector)’를 보간했다. 그리고 폴리곤 내부의
모든 픽셀에 대해 보간된 법선 벡터를 사용하여 조명 계산을 다시 수행했다. 이 방식은 계산량이 구로 셰이딩보다 훨씬 많았지만, 곡면 위에서 부드럽게 움직이는 정확한 하이라이트를 표현할 수 있어 훨씬 사실적인 결과물을 만들어냈다.11
1970년대에 등장한 이러한 스무드 셰이딩(Smooth Shading) 기법들은 2 CG가 단순한 공학 도구를 넘어 예술적 표현이 가능한 매체로 인식되는 계기를 마련했으며 2, 이 알고리즘들은 오늘날까지도 모든 실시간 3D 그래픽스 파이프라인의 핵심 구성 요소로 사용되고 있다.
표 3: 3D 셰이딩 및 렌더링 알고리즘의 진화
| 알고리즘 | 개발자/시기 | 핵심 원리 | 시각적 결과 | 계산 비용 |
|---|---|---|---|---|
| 플랫 셰이딩 | 1960년대 | 각 폴리곤을 단일 색상으로 채움. | 각진 면이 그대로 드러남. 매우 비사실적. | 매우 낮음 |
| 구로 셰이딩 | 앙리 구로 (1971) | 폴리곤의 꼭짓점에서 조명을 계산하고, 내부 색상을 보간(interpolate)함.11 | 부드러운 음영 표현이 가능하나, 하이라이트 표현이 부정확함. | 낮음 |
| 퐁 셰이딩 | 부이 투옹 퐁 (1975) | 폴리곤의 법선 벡터를 보간하고, 픽셀 단위로 조명을 계산함.11 | 부드러운 음영과 정확한 하이라이트 표현 가능. | 중간 |
| 레이 트레이싱 | 터너 휘티드 (1980) | 카메라에서 각 픽셀을 통해 광선을 역추적하여 빛의 물리적 경로를 시뮬레이션함.11 | 그림자, 반사, 굴절 등 물리적으로 정확하고 사실적인 결과물. | 매우 높음 |
| 래디오시티 | 1984년 | 빛 에너지가 표면 간에 어떻게 반사되고 분산되는지를 계산하여 간접광(Global Illumination)을 시뮬레이션함. | 부드럽고 사실적인 간접 조명 표현에 탁월하나, 동적 장면에 부적합. | 매우 높음 |
유타 대학교가 3D 그래픽스의 알고리즘적 토대를 다지고 있었다면, 캘리포니아의 제록스 팔로알토 연구소(Xerox PARC)는 인간과 컴퓨터의 상호작용 방식 자체를 혁신하고 있었다. 1973년, PARC의 연구원들은 ‘알토(Alto)’라는 이름의 실험적인 개인용 컴퓨터를 개발했다.6 알토는 상업적으로 판매된 제품은 아니었지만 26, 오늘날 우리가 당연하게 여기는 개인용 컴퓨터의 모든 핵심 요소를 최초로 통합한 시스템이었다.
알토의 가장 큰 혁신은 고해상도 ‘비트맵 디스플레이(bitmapped display)’를 채택한 것이었다.6 이전의 컴퓨터들이 주로 텍스트 기반의 인터페이스를 가졌던 반면, 알토는 화면의 모든 픽셀을 개별적으로 제어할 수 있었다. 606x808 픽셀의 세로 방향 모니터는 7 컴퓨터 화면을 단순한 텍스트 출력 장치가 아닌, 무엇이든 그릴 수 있는 디지털 캔버스로 만들었다.
이 캔버스 위에서 PARC의 연구원들은 ‘데스크톱 메타포(desktop metaphor)’라는 혁명적인 개념을 구현했다. 파일은 서류철 아이콘으로, 삭제 기능은 휴지통 아이콘으로, 프로그램은 창(window)으로 시각화되었다.6 그리고 사용자는 키보드뿐만 아니라, 세 개의 버튼이 달린 ‘마우스(mouse)’를 사용하여 이 아이콘과 창들을 직관적으로 조작할 수 있었다.7 이것이 바로 현대적인 그래픽 사용자 인터페이스(GUI)의 탄생이었다.
알토는 또한 WYSIWYG(What You See Is What You Get, 보는 대로 얻는다) 텍스트 편집기, 이더넷(Ethernet) 네트워킹 등 시대를 앞서간 기술들을 선보였다.7 비록 제록스는 알토의 상업적 가치를 제대로 알아보지 못했지만, 그 아이디어들은 PARC를 방문했던 젊은 스티브 잡스에게 영감을 주어 애플 리사(Lisa)와 매킨토시(Macintosh) 개발에 결정적인 영향을 미쳤으며, 이는 다시 마이크로소프트 윈도우의 탄생으로 이어졌다.6 알토와 비트맵 디스플레이의 등장은 래스터 그래픽스 시대의 본격적인 개막을 알리는 신호탄이었다.
1975년, 유타 대학교의 연구원 마틴 뉴웰(Martin Newell)은 자신의 3D 렌더링 알고리즘을 테스트할 적절한 모델을 찾고 있었다. 그의 아내는 부엌에 있던 멜리타(Melitta)사 의 흰색 주전자를 모델로 제안했다. 뉴웰은 모눈종이에 주전자의 형태를 스케치하고, 그 좌표 데이터를 직접 컴퓨터에 입력하여 베지에 곡선(Bézier curve) 기반의 3D 모델을 만들었다.8 이렇게 탄생한 것이 바로 컴퓨터 그래픽스 역사상 가장 유명한 3D 모델, ‘유타 주전자(Utah Teapot)’이다.8
유타 주전자가 순식간에 3D 그래픽스 연구의 표준 테스트 모델로 자리 잡은 데에는 몇 가지 이유가 있었다.
유타 주전자는 단순한 테스트 모델을 넘어, 전 세계 그래픽스 연구자 커뮤니티를 하나로 묶는 상징이자 아이콘이 되었다. 1970년대 학계에서 이루어진 이러한 알고리즘적 탐구는 당장 시장에 출시될 제품을 위한 것이 아니었다. 그것은 하드웨어가 아이디어를 따라오지 못했던 시대에, 미래를 위해 지적 자산을 축적하는 과정이었다. 이 시기에 쌓인 ‘잠재적 에너지’는 1980년대와 1990년대, 하드웨어의 발전이라는 기폭제를 만나 엄청난 속도로 폭발하며 CG 산업의 빅뱅을 이끌게 된다.
1970년대 학계에서 탄생한 정교한 3D 그래픽스 알고리즘들은 하나의 거대한 장벽에 부딪혔다. 바로 연산 능력의 한계였다. 퐁 셰이딩으로 렌더링된 단 한 장의 이미지를 생성하는 데에도 수 분에서 수 시간이 걸리는 상황에서, 실시간 상호작용은 먼 미래의 꿈처럼 보였다. 이 꿈을 현실로 만든 것은 바로 그래픽 처리를 전담하는 특화된 하드웨어, 즉 그래픽 처리 장치(GPU)의 등장이었다. 그래픽 하드웨어의 역사는 고가의 전문가용 장비에서 시작하여, 게임 시장의 폭발적인 성장에 힘입어 대중화되고, 마침내 현대 인공지능 혁명의 핵심 동력으로 자리 잡는 드라마틱한 과정을 거쳤다.
오늘날 컴퓨터의 핵심 부품으로 자리 잡은 GPU(Graphics Processing Unit)는 처음부터 지금과 같은 모습을 갖추고 있었던 것은 아니다. 그 기원은 1970년대 아케이드 게임 기판과 1980년대 초기 개인용 컴퓨터에 탑재되기 시작한 ‘그래픽 가속기(Graphics Accelerator)’ 또는 ‘비디오 디스플레이 프로세서(VDP)’에서 찾을 수 있다.10 이 초기 칩들은 CPU의 부담을 덜어주기 위해 특정 그래픽 작업, 예를 들어 2D 이미지(스프라이트)를 화면에 그리거나, 선을 긋고, 특정 영역을 색으로 채우는 등의 고정된 기능(fixed-function)을 하드웨어적으로 처리했다. 후지쯔의 MB14241 비디오 시프트 레지스터는 ‘스페이스 인베이더’와 같은 1970년대 아케이드 게임에서 스프라이트 그래픽 출력을 가속하는 데 사용된 대표적인 예이다.28
진정한 의미의 전환점은 1990년대 후반에 찾아왔다. 3D 게임이 부상하면서, 3차원 모델의 좌표를 변환하고(Transform), 조명을 계산하며(Lighting), 이를 2D 화면에 그리는(Rendering) 과정의 연산량이 기하급수적으로 증가했다. 1997년, 엔비디아(NVIDIA)는 2D와 3D 그래픽 가속 기능을 하나의 칩에 통합하고 AGP라는 그래픽 카드 전용 인터페이스를 통해 데이터 전송 속도를 높인 ‘리바 128(Riva 128)’을 출시하며 시장의 강자로 부상했다.29
그리고 1999년, 엔비디아는 역사적인 제품인 ‘지포스 256(GeForce 256)’을 출시하며, 이를 “세계 최초의 GPU”라고 명명했다.10 엔비디아가 ‘GPU’라는 용어를 통해 강조한 것은 이 칩이 단순한 가속기를 넘어, 변환 및 조명(T&L) 엔진을 포함한 전체 3D 렌더링 파이프라인을 하드웨어적으로 처리하는 독립적인 ‘프로세서’라는 점이었다. 이 마케팅은 대성공을 거두었고, ‘GPU’라는 명칭은 이후 업계 표준으로 자리 잡았다.10
GPU가 CPU와 근본적으로 다른 점은 그 구조에 있다. CPU가 소수의 고성능 코어를 탑재하여 복잡한 명령어를 순차적으로 빠르게 처리하는 ‘직렬 연산(Serial Processing)’에 특화되어 있다면, GPU는 수백, 수천 개의 작고 단순한 코어를 집적하여 수많은 데이터를 동시에 처리하는 ‘병렬 연산(Parallel Processing)’에 최적화되어 있다.10 Full HD(1920x1080) 해상도의 화면은 약 200만 개의 픽셀로 이루어져 있다. 이 모든 픽셀의 색상을 초당 60번씩 계산해야 하는 그래픽 작업은, 마치 수백만 개의 깨를 하나씩 빻는 것이 아니라 절구에 넣고 한 번에 빻는 것과 같은 병렬 처리에 절대적으로 유리하다.10 GPU의 등장은 방대한 그래픽 데이터를 실시간으로 처리할 수 있는 길을 열었고, 이는 3D 그래픽 기술이 대중화되는 가장 중요한 물리적 기반이 되었다.
1980년대부터 1990년대 초반까지, 최첨단 컴퓨터 그래픽스는 소수의 전문가들만이 누릴 수 있는 특권이었다. 이 시대를 지배한 것은 바로 ‘그래픽 워크스테이션(Graphics Workstation)’이라 불리는 고가의 전문가용 컴퓨터 시스템이었다. 그리고 이 시장의 절대 강자는 유타 대학교 출신의 짐 클락(Jim Clark)이 1982년에 설립한 실리콘 그래픽스(Silicon Graphics, Inc., 이하 SGI)였다.2
SGI는 1983년 첫 제품인 IRIS 1000 그래픽 단말기를 시작으로 2, 1970년대 유타 대학교에서 개발된 학문적 알고리즘들을 하드웨어적으로 구현하여 상업화하는 데 성공했다. SGI의 워크스테이션은 강력한 3D 그래픽 처리 성능을 바탕으로 과학 기술 시뮬레이션, CAD/CAM, 그리고 영화 시각 효과(VFX) 분야에서 독보적인 위치를 차지했다.24
영화 ‘터미네이터 2: 심판의 날’의 액체 금속 로봇 T-1000, ‘쥬라기 공원’의 살아 움직이는 공룡 등, 90년대 초반 관객들을 경악시킨 혁명적인 시각 효과들은 대부분 SGI 워크스테이션의 힘으로 탄생했다. 이 기기들은 수만 달러에서 수십만 달러에 달하는 높은 가격 때문에 일반인들은 접할 수 없었지만, CG 기술이 무엇을 할 수 있는지에 대한 대중의 인식을 바꾸고, CG를 하나의 전문 산업 분야로 정착시키는 데 결정적인 역할을 했다. 이 시기는 CG 기술이 소수의 전문가 집단에 의해 주도되던 ‘귀족적’ 시대였다고 할 수 있다.
SGI 워크스테이션이 CG의 정점을 보여주고 있던 1990년대, 컴퓨터 시장의 저변에서는 거대한 지각 변동이 일어나고 있었다. 1981년 IBM PC의 등장은 2 개인용 컴퓨터(PC)의 시대를 열었고, 이는 곧 CG 기술의 ‘민주화’를 이끌었다. PC의 폭발적인 보급은 거대한 잠재 시장을 형성했고, ‘둠’과 ‘퀘이크’ 같은 3D 게임의 성공은 이 시장에 3D 그래픽 처리 능력이라는 구체적인 수요를 만들어냈다.
이 기회를 포착한 여러 반도체 회사들이 PC용 3D 그래픽 카드 시장에 뛰어들면서, 1990년대 후반은 치열한 ‘GPU 전쟁’의 시대가 되었다. 3dfx의 ‘부두(Voodoo)’ 시리즈는 ‘글라이드(Glide)’라는 독자적인 API를 앞세워 초기 3D 게임 시장을 장악했다. 이에 맞서 ATI(훗날 AMD에 인수)는 ‘레이지(Rage)’ 시리즈와 이후 ‘라데온(Radeon)’ 시리즈를, 엔비디아는 ‘리바(Riva)’ 시리즈와 ‘지포스(GeForce)’ 시리즈를 내놓으며 치열한 기술 및 가격 경쟁을 벌였다.29 ATI는 2002년 라데온 9700을 출시하며 GPU 대신 ‘VPU(Visual Processing Unit)’라는 용어를 사용하기도 했으나, 결국 엔비디아의 GPU라는 용어가 시장의 표준으로 굳어졌다.28
이 경쟁은 기술 발전의 강력한 촉매제였다. 매년 새로운 아키텍처와 두 배 가까운 성능 향상을 담은 신제품이 쏟아져 나왔고, 3D 그래픽 카드의 가격은 빠르게 하락했다. 불과 몇 년 만에 수만 달러짜리 SGI 워크스테이션의 성능을 능가하는 그래픽 카드를 수백 달러에 구매할 수 있게 된 것이다. 이 ‘3D 파워의 민주화’는 CG 기술의 역사에서 가장 중요한 변곡점 중 하나였다. 고가의 전문가용 장비에서나 가능했던 실시간 3D 그래픽이 이제 모든 PC 사용자의 책상 위에서 구현될 수 있게 되면서, 3D 게임 산업은 폭발적으로 성장했고, 이는 다시 GPU 기술 발전을 촉진하는 선순환 구조를 만들었다.
흥미로운 점은, 이 과정에서 예상치 못한 결과가 파생되었다는 것이다. 3D 게임을 위해 발전된 GPU의 강력한 병렬 처리 아키텍처는, 훗날 인공지능(AI) 분야, 특히 딥러닝(Deep Learning) 모델을 훈련하는 데 가장 이상적인 도구임이 밝혀졌다.10 딥러닝의 핵심 연산인 행렬 곱셈은 그래픽스의 좌표 변환과 본질적으로 동일한 종류의 연산이었기 때문이다. 결국, 더 사실적인 게임 그래픽을 즐기려는 대중의 욕망이 GPU 기술의 발전을 이끌었고, 이는 21세기 가장 중요한 기술 혁명 중 하나인 AI 혁명의 하드웨어적 토대를 마련하는 예기치 않은 나비 효과를 낳았다.31
컴퓨터 그래픽스 기술은 진공 속에서 발전하지 않았다. 그 발전의 이면에는 언제나 강력한 수요, 즉 ‘킬러 애플리케이션(Killer Application)’이 존재했다. 영화 산업은 한계를 모르는 시각적 상상력의 구현을 요구했고, 비디오 게임 산업은 제한된 자원 내에서 최고의 실시간 경험을 짜내야 하는 과제를 던졌다. 산업 설계 분야는 수학적 정확성을, 과학 분야는 데이터의 명료한 시각화를 최우선 과제로 삼았다. 이처럼 각기 다른 응용 분야가 제기하는 고유한 ‘진화적 압력’은 CG 기술 생태계를 풍부하고 다양하게 만드는 핵심 동력이었다.
엔터테인먼트 산업, 특히 영화와 애니메이션은 CG 기술의 한계를 끊임없이 밀어붙이는 가장 강력한 견인차 역할을 해왔다. 이 분야의 목표는 단 하나, ‘계산 비용에 구애받지 않는 최고의 사실성’이었다.
1982년에 개봉한 디즈니 영화 ‘트론(TRON)’은 CG 역사에서 빼놓을 수 없는 이정표다.2 비록 상업적으로 큰 성공을 거두지는 못했지만, 영화의 상당 부분을 컴퓨터가 생성한 가상 공간으로 채운 최초의 시도였다. 당시 기술의 한계로 인해 캐릭터는 배우가 연기한 장면에 수작업으로 빛나는 회로를 그려 넣는 방식으로 제작되었지만, 빛나는 오토바이 ‘라이트 사이클’이 질주하는 장면 등은 CG가 만들어낼 수 있는 새로운 시각적 세계의 가능성을 전 세계에 각인시켰고, 수많은 아티스트와 엔지니어에게 영감을 주었다.2
CG 영화의 진정한 혁명은 픽사 애니메이션 스튜디오(Pixar Animation Studios)에서 시작되었다. 유타 대학교 출신의 에드윈 캐트멀(Ed Catmull)은 오래전부터 컴퓨터만으로 장편 애니메이션을 만들겠다는 꿈을 가지고 있었다.14 루카스필름의 컴퓨터 부서를 스티브 잡스가 인수한 후 설립된 픽사는, 캐트멀의 주도 아래 ‘렌더맨(RenderMan)’이라는 독자적인 렌더링 소프트웨어를 개발했다. 이 기술을 바탕으로 1995년, 세계 최초의 장편 풀 3D CG 애니메이션인 ‘토이 스토리(Toy Story)’가 탄생했다.4 ‘토이 스토리’의 성공은 CG가 단지 특수 효과의 보조 수단이 아니라, 스토리텔링의 중심이 될 수 있음을 증명하며 애니메이션 산업의 패러다임을 완전히 바꾸었다.
픽사의 핵심 기술 중 하나는 캐트멀이 개발한 ‘서브디비전 서피스(Subdivision Surface)’ 알고리즘이었다. 이는 다각형으로 이루어진 거친 모델을 반복적으로 세분화하고 부드럽게 만들어, 유기적이고 복잡한 곡면을 효율적으로 생성하는 기술이다.14 동물의 털, 피부의 질감 등 픽사 영화의 놀라운 디테일은 이러한 기술적 토대 위에서 가능했다.14 흥미롭게도 이 기술은 영화를 넘어 건축 분야에도 영향을 미쳐, 건축가 자하 하디드가 설계한 동대문디자인플라자(DDP)의 유려한 곡선 디자인에도 원천적으로 활용되었다.14
CG는 실사 영화의 시각 효과(VFX)에도 혁명을 가져왔다. ‘터미네이터 2’의 액체 금속 인간, ‘쥬라기 공원’의 공룡은 CG가 현실과 구별할 수 없는 존재를 창조할 수 있음을 보여주었다. 한국 영화계 역시 이러한 흐름에 동참했다. 1994년 영화 ‘구미호’에서 처음으로 모핑(morphing) 효과를 사용한 것을 시작으로 2, 2006년 ‘중천’, 2007년 ‘디 워’ 등 순수 국내 기술로 제작된 CG가 영화의 중요한 부분을 차지하며 한국 영화의 시각적 표현력을 한 단계 끌어올렸다.32 오늘날 할리우드 블록버스터는 물론, 대부분의 영화에서 CG의 도움 없이는 제작을 상상하기 어려울 정도로 CG는 영화 제작의 필수 요소로 자리 잡았다.32
영화가 최고의 품질을 위해 한 프레임을 렌더링하는 데 수 시간을 사용할 수 있다면, 비디오 게임은 초당 30회 또는 60회(즉, 프레임당 16.6~33.3밀리초)라는 엄격한 시간제한 내에서 모든 것을 처리해야 하는 ‘실시간(real-time)’의 영역이다. 이러한 혹독한 제약 조건은 비디오 게임을 실시간 CG 기술 발전의 가장 중요한 시험장이자 원동력으로 만들었다.
초기 비디오 게임 그래픽은 4비트, 8비트 색상의 2D ‘스프라이트(sprite)’를 기반으로 했다. 1980년대 후반 16비트 시대로 넘어가면서 더 풍부한 색상과 다중 배경 스크롤이 가능해졌지만, 진정한 혁신은 1990년대 ‘폴리곤의 시대(Polygon Age)’가 열리면서 시작되었다.5
이 혁명의 중심에는 이드 소프트웨어(id Software)와 그들의 게임 엔진 ‘이드 테크(id Tech)’가 있었다. 1993년 출시된 ‘둠(Doom)’은 완전한 3D는 아니었지만, 높낮이가 다른 공간과 동적인 조명을 구현한 ‘2.5D’ 그래픽으로 1인칭 슈팅(FPS) 게임 장르를 확립하고 대중화했다.5 1996년작 ‘퀘이크(Quake)’는 여기서 한 걸음 더 나아가, 배경과 캐릭터 모두를 완전한 3D 폴리곤으로 구현하고 실시간 광원 효과를 도입하며 진정한 3D 게임 시대를 열었다.33 이드 소프트웨어의 엔진들은 높은 최적화와 모드(MOD) 제작의 용이성 덕분에 이후 수많은 게임의 기반 기술이 되었다.
한편, 아케이드 시장에서는 1993년 세가(SEGA)가 출시한 ‘버추어 파이터(Virtua Fighter)’가 업계에 엄청난 충격을 안겨주었다.9 당시 주류였던 2D 격투 게임과 달리, ‘버추어 파이터’는 3D 폴리곤으로 제작된 캐릭터들이 입체적인 공간에서 현실적인 물리 법칙에 따라 싸우는 모습을 보여주었다.34 와이어프레임 위에 플랫 셰이딩을 입힌 35 다소 각진 모습이었지만, 실제 무술을 기반으로 한 부드럽고 사실적인 움직임은 전 세계 게임 개발자들을 경악시키기에 충분했다.9 ‘버추어 파이터’의 등장을 기점으로, 수많은 게임 회사들이 앞다투어 3D 그래픽으로 개발 노선을 전환하며 게임 산업 전체의 3D 혁명을 가속화했다.9 이 게임은 세가의 강력한 3D 아케이드 기판 ‘모델 1(Model 1)’의 성능을 유감없이 보여준 사례이기도 하다.37
이후 3D 게임 그래픽은 하드웨어의 발전과 함께 눈부신 진화를 거듭했다. 2007년에 출시된 ‘크라이시스(Crysis)’는 당시 PC 하드웨어의 한계를 시험하는 극사실적인 그래픽으로 ‘실사와 게임의 경계가 어디까지 허물어질 수 있는가’에 대한 기준을 제시했다.5 오늘날 게임 그래픽은 단순히 사실적인 묘사를 넘어, ‘언캐니 밸리(uncanny valley, 불쾌한 골짜기)’를 피하기 위해 의도적으로 스타일을 과장하거나 5, 사운드 및 햅틱 기술과 결합하여 플레이어의 몰입도를 극대화하는 방향으로 발전하고 있다.39
표 4: 이드 테크(id Tech) 게임 엔진의 주요 세대별 발전
| 엔진 명칭 | 주요 게임 | 기술적 도약 및 특징 |
|---|---|---|
| id Tech 1 | 둠 (Doom, 1993) | 2.5D 렌더링(BSP 트리), 동적 조명 효과, 텍스처 매핑, Z축 개념 도입, 높은 모드 확장성.33 |
| id Tech 2 | 퀘이크 (Quake, 1996) | 완전한 3D 폴리곤 렌더링, 실시간 광원, 복층 구조 레벨 디자인, QuakeC 스크립트 언어 도입.33 |
| id Tech 2 (개량) | 퀘이크 2 (Quake II, 1997) | 컬러 라이팅(Colored Lighting) 도입, DLL 기반의 모듈화된 엔진 구조로 전환.33 |
| id Tech 3 | 퀘이크 3 아레나 (Quake III Arena, 1999) | 곡면 표현(Curved Surfaces), 셰이더 스크립트를 통한 정교한 표면 효과, 버텍스 애니메이션 기반의 MD3 모델 포맷.40 |
| id Tech 4 | 둠 3 (Doom 3, 2004) | 통합 조명 및 그림자(Unified Lighting and Shadowing), 픽셀당 동적 조명, 노멀 매핑(Normal Mapping)의 대중화.41 |
| id Tech 5 | 레이지 (Rage, 2011) | 메가텍스처(MegaTexture) 기술 도입으로 광활한 야외 환경에 고유하고 디테일한 텍스처를 구현.42 |
컴퓨터 그래픽스가 가장 심오하고 광범위한 영향을 미친 분야 중 하나는 바로 산업계이다. 컴퓨터 지원 설계(CAD, Computer-Aided Design)와 컴퓨터 지원 제조(CAM, Computer-Aided Manufacturing) 기술은 제품의 기획부터 생산에 이르는 전 과정을 디지털화하며 제조업의 패러다임을 근본적으로 바꾸었다. 이 분야의 핵심 요구사항은 ‘수학적 정확성’과 ‘데이터의 무결성’이다.
CAD의 역사는 스케치패드와 1957년 제너럴 모터스에서 개발한 DAC-1 시스템까지 거슬러 올라간다.43 그러나 CAD 기술이 산업 전반으로 확산된 것은 PC의 등장과 함께였다. 1982년 오토데스크(Autodesk)사가 출시한 ‘오토캐드(AutoCAD)’는 저렴한 가격과 PC 기반의 접근성을 무기로, 이전까지 고가의 워크스테이션에서나 가능했던 2D 도면 설계를 대중화했다.43 건축, 기계, 전자 등 수많은 분야의 설계자들이 수작업 제도판을 버리고 컴퓨터 화면으로 옮겨가면서, 설계의 생산성과 정확성은 비약적으로 향상되었다.
3D CAD 분야에서는 프랑스의 다쏘 시스템즈(Dassault Systèmes)가 개발한 ‘카티아(CATIA)’가 독보적인 위치를 차지했다. 원래 항공기 설계를 위해 1977년부터 개발된 카티아는 복잡한 곡면 모델링에 탁월한 성능을 보이며 항공우주 및 자동차 산업의 표준으로 자리 잡았다.43 보잉 777 항공기는 전체 설계 과정이 카티아를 통해 이루어진 최초의 사례로 유명하다. 카티아와 같은 3D CAD 소프트웨어는 디지털 목업(Digital Mock-up), 즉 물리적인 시제품 없이도 컴퓨터상에서 부품을 조립하고 간섭을 확인하며 성능을 시뮬레이션할 수 있게 하여, 개발 기간과 비용을 획기적으로 절감시켰다.44
CAD와 CAM의 통합은 여기서 한 걸음 더 나아간 혁신이었다. CAM은 CAD로 만들어진 3D 디지털 모델을 바탕으로, CNC(컴퓨터 수치 제어) 공작기계나 3D 프린터가 제품을 실제로 가공하고 제작하는 데 필요한 공구 경로(toolpath)와 기계 명령어를 자동으로 생성하는 기술이다.45 CAD와 CAM의 결합은 설계부터 제조까지의 과정을 하나의 매끄러운 디지털 워크플로우로 통합하여47 오류를 최소화하고 생산 자동화를 극대화했다.48 오늘날 우리가 사용하는 자동차, 스마트폰, 의료 기기 등 거의 모든 공산품은 이러한 CAD/CAM 기술의 산물이다.45
“백문이 불여일견”이라는 말처럼, 때로는 한 장의 그림이 수백 페이지의 데이터보다 더 많은 통찰을 준다.46 과학 및 데이터 시각화(Scientific and Data Visualization)는 방대하고 추상적인 수치 데이터를 인간이 직관적으로 이해할 수 있는 시각적 형태로 변환하는 CG의 핵심 응용 분야이다.50 이 분야의 목적은 ‘데이터의 정확한 표현’을 통해 인지를 강화하고 새로운 가설을 세우는 것을 돕는 데 있다.50
의료 분야는 시각화 기술의 가장 큰 수혜자 중 하나다. 과거 필름으로 보던 X-ray나 CT, MRI 영상은 이제 3차원 디지털 영상으로 대체되었다. 의사들은 이 3D 모델을 통해 환자의 신체 내부 구조를 여러 각도에서 관찰하고, 종양의 위치나 혈관의 형태를 정밀하게 파악하여 진단의 정확성을 높인다. 나아가, 수술 전에 가상으로 절개와 봉합을 시뮬레이션하며 수술 계획을 세우거나, 의대생들의 수술 훈련에 활용하기도 한다.46
공학 및 과학 연구에서도 시각화는 필수적이다. 자동차 주변의 공기 흐름(유체 역학 시뮬레이션), 은하의 충돌 과정(천체물리학 시뮬레이션), 신약 분자의 결합 구조(화학 시각화) 등, 인간의 눈으로는 직접 볼 수 없거나 실험이 불가능한 현상들을 CG를 통해 시각화함으로써 연구자들은 복잡한 시스템의 작동 원리를 이해하고 예측할 수 있다.50 비행 시뮬레이션은 조종사 훈련에 드는 막대한 인적, 물적 비용을 절감하는 대표적인 사례다.46
이처럼 각 응용 분야는 CG 기술에 서로 다른 요구사항을 제기하며 그 발전을 이끌었다. 영화는 사실성을, 게임은 실시간성을, CAD는 정확성을, 과학은 명료성을 추구했다. 처음에는 각자의 길을 가던 이 기술들은 하드웨어 성능이 상향 평준화되면서 점차 서로의 영역을 넘나들며 융합하고 있다. 실시간 게임 엔진이 영화 제작에 쓰이고, 영화의 전유물이던 레이 트레이싱 기술이 게임에 도입되는 오늘날의 모습은 이러한 수렴 진화의 결과물이다.
21세기에 들어서면서 컴퓨터 그래픽스는 새로운 변곡점을 맞이했다. 수십 년간 누적된 알고리즘의 발전과 무어의 법칙을 뛰어넘는 GPU 성능의 폭발적인 성장은, 이전에는 불가능의 영역으로 여겨졌던 기술들을 현실로 끌어내렸다. ‘실시간 레이 트레이싱’은 사실성의 성배에 다가서는 길을 열었고, ‘인공지능’은 그래픽을 생성하고 가속하는 방식 자체를 근본적으로 바꾸고 있다. 한편, ‘가상현실(VR)’과 ‘증강현실(AR)’은 스크린이라는 마지막 경계를 허물고 디지털 정보를 우리의 현실 감각 속으로 직접 통합하려는 시도를 하고 있다. 이 세 가지 흐름은 현대 CG 기술의 최전선을 형성하며 미래의 시각적 경험을 재정의하고 있다.
오랫동안 컴퓨터 그래픽스의 궁극적인 목표, 즉 ‘성배(Holy Grail)’는 빛의 물리적 현상을 완벽하게 시뮬레이션하는 것이었다. 1980년 터너 휘티드(Turner Whitted)에 의해 제안된 ‘레이 트레이싱(Ray Tracing, 광선 추적)’은 바로 이 목표를 위한 가장 원리적인 접근법이다.11
전통적인 래스터화(Rasterization) 방식이 3D 모델을 2D 화면에 투영한 뒤, 섀도 맵(shadow map)이나 환경 맵(environment map)과 같은 여러 ‘속임수(trick)’를 사용하여 빛의 효과를 근사적으로 흉내 내는 것이었다면 25, 레이 트레이싱은 정반대의 접근을 취한다. 화면의 각 픽셀에서 가상의 광선을 카메라(눈)의 시점으로 발사하여, 이 광선이 3D 공간 내의 물체와 부딪히고, 반사되고, 굴절하며 광원에 도달하기까지의 경로를 역추적한다.25 이 과정을 통해 빛의 물리 법칙에 기반한 매우 사실적인 그림자, 반사, 굴절, 그리고 간접 조명(Global Illumination) 효과를 얻을 수 있다. 예를 들어, 레이 트레이싱으로 생성된 그림자는 광원과의 거리에 따라 자연스럽게 부드러워지고(soft shadow), 반사된 이미지에는 화면 밖의 객체까지 정확하게 비치는 등, 래스터화 방식으로는 구현하기 어려운 높은 수준의 사실감을 제공한다.25
하지만 이 모든 장점에는 막대한 계산 비용이라는 대가가 따랐다.25 수백만 개의 픽셀에 대해 각각 복잡한 광선 경로를 계산해야 했기 때문에, 레이 트레이싱은 한 프레임을 렌더링하는 데 수 시간에서 수일이 걸리는 오프라인 렌더링, 즉 영화 VFX 분야의 전유물이었다.
이 패러다임을 바꾼 것은 하드웨어의 발전이었다. 2018년, 엔비디아는 레이 트레이싱 연산을 전담하는 하드웨어 코어(RT Core)를 탑재한 RTX 시리즈 GPU를 출시했다. 이와 함께 마이크로소프트의 DXR(DirectX Raytracing)과 같은 API가 등장하면서, 마침내 게임과 같은 인터랙티브 애플리케이션에서 레이 트레이싱을 ‘실시간’으로 구현하는 것이 가능해졌다.11 물론 초기 실시간 레이 트레이싱은 성능 저하가 커서 제한적으로 사용되었지만, 언리얼 엔진과 같은 최신 게임 엔진들은 전통적인 래스터화 방식과 레이 트레이싱을 결합한 ‘하이브리드 렌더링(Hybrid Rendering)’ 기법을 통해 54, 성능과 품질 사이의 균형을 맞추며 점차 그 적용 범위를 넓혀가고 있다. 이는 수십 년간 이어져 온 그래픽 렌더링 방식이 ‘근사’에서 ‘시뮬레이션’으로 전환되는 역사적인 순간이었다.
인공지능(AI), 특히 딥러닝 기술의 부상은 컴퓨터 그래픽스 분야에 또 다른 혁명을 가져왔다. AI는 이제 그래픽을 위한 보조 도구를 넘어, 그래픽을 생성하고 렌더링하는 과정에 깊숙이 관여하는 공생 파트너로 자리 잡고 있다.
AI가 실시간 그래픽스에 미친 가장 즉각적인 영향은 성능 향상 기술에서 나타난다. 대표적인 예가 엔비디아의 ‘딥러닝 슈퍼 샘플링(DLSS, Deep Learning Super Sampling)’이다.55 DLSS의 기본 원리는 게임을 실제 목표 해상도(예: 4K)보다 낮은 해상도(예: 1080p)로 렌더링하여 GPU의 부담을 줄인 다음, AI 모델을 사용하여 그 결과물을 목표 해상도로 ‘업스케일링(upscaling)’하는 것이다.56
핵심은 이 AI 모델이 단순한 이미지 확대 알고리즘이 아니라는 점이다. 엔비디아의 슈퍼컴퓨터는 수많은 게임의 초고해상도 이미지와 저해상도 이미지를 비교 학습하여, 저해상도 이미지에서 고품질의 고해상도 이미지를 ‘재구성’하는 방법을 터득한다.56 이 과정에서 이전 프레임의 정보(temporal data)까지 활용하여 움직이는 이미지에서도 선명도를 유지한다. 이 모든 AI 연산은 GPU 내의 전용 하드웨어인 ‘텐서 코어(Tensor Core)’에서 처리되므로, 기존 렌더링 파이프라인에 미치는 영향을 최소화한다.55
DLSS는 버전이 올라가면서 더욱 발전했다. DLSS 3는 AI를 이용해 렌더링된 프레임과 프레임 사이에 새로운 중간 프레임을 ‘생성(Frame Generation)’하여 삽입함으로써 프레임률을 2배 이상 끌어올렸고, DLSS 3.5는 레이 트레이싱 과정에서 발생하는 노이즈를 AI가 제거하는 ‘레이 재구성(Ray Reconstruction)’ 기능을 도입하여 시각적 품질을 한층 더 개선했다.56 DLSS는 막대한 연산량을 요구하는 실시간 레이 트레이싱과 고해상도 게이밍을 현실적으로 만들어주는 핵심 기술로 평가받는다.
AI는 성능 향상을 넘어, 3D 장면을 표현하고 생성하는 방식 자체를 바꾸고 있다. 이 새로운 분야를 ‘뉴럴 렌더링(Neural Rendering)’이라고 부른다.57 그중 가장 주목받는 기술이 바로 ‘뉴럴 래디언스 필드(NeRF, Neural Radiance Fields)’이다.
NeRF는 수십 장의 2D 사진만으로 해당 장면의 완전한 3D 표현을 학습하는 혁신적인 기술이다.58 전통적인 3D 모델이 다각형 메시(mesh)와 텍스처로 장면을 표현하는 것과 달리, NeRF는 장면 자체를 하나의 작은 인공신경망(MLP, Multi-Layer Perceptron)으로 표현한다. 이 신경망은 5차원의 입력값, 즉 3차원 공간 좌표 $(x, y, z)$와 2차원의 시선 방향 $(\theta, \phi)$을 받아, 해당 지점의 색상(RGB)과 밀도(density, 불투명도) 값을 출력하도록 훈련된다.60
훈련이 완료되면, 이 작은 신경망은 해당 장면에 대한 모든 시각 정보를 ‘압축’하여 담고 있는 셈이 된다. 새로운 시점의 이미지를 생성하고 싶을 때, 컴퓨터는 해당 시점에서 화면의 각 픽셀을 향해 가상의 광선을 쏘고, 광선이 통과하는 경로상의 여러 지점에서 신경망을 호출하여 색상과 밀도 값을 얻는다. 그리고 ‘볼륨 렌더링(Volume Rendering)’이라는 기법을 통해 이 값들을 종합하여 최종 픽셀 색상을 결정한다.61 그 결과, 훈련에 사용되지 않았던 새로운 시점에서도 놀라울 정도로 사실적인 이미지를 생성할 수 있다.60
NeRF는 아직 연구 초기 단계에 있지만, 가상현실(VR) 및 증강현실(AR)을 위한 고품질 3D 콘텐츠 제작, 의료 영상 재구성, 위성 이미지를 통한 도시 모델링 등 무한한 잠재력을 보여주고 있다.58 이는 3D 콘텐츠 제작 방식의 근본적인 패러다임 전환을 예고한다.
가상현실(VR)과 증강현실(AR)은 컴퓨터 그래픽스의 목표를 ‘화면 너머의 세계를 보는 것’에서 ‘그 세계 안으로 들어가는 것’으로 바꾸어 놓았다. VR은 사용자를 완전히 새로운 가상 환경으로 데려가고, AR은 현실 세계 위에 디지털 정보를 겹쳐 보여준다.63 이러한 몰입형 경험을 구현하기 위해, VR/AR은 기존 그래픽스 기술에 훨씬 더 엄격한 요구사항을 부과한다.
가장 중요한 것은 높은 프레임률(최소 90fps 이상)과 극도로 낮은 지연 시간(latency)이다. 사용자의 머리 움직임과 화면에 보이는 영상 사이에 약간의 시차라도 발생하면 극심한 어지러움(VR sickness)을 유발하여 몰입을 깨뜨리기 때문이다. 또한, 양쪽 눈에 각각 고해상도 이미지를 렌더링해야 하므로 일반적인 게임보다 훨씬 높은 GPU 성능이 요구된다.65
이러한 도전 과제를 해결하기 위해 등장한 핵심 기술이 바로 ‘포비티드 렌더링(Foveated Rendering)’이다.66 이 기술은 인간 시각 시스템의 특성을 교묘하게 이용한다. 우리 눈은 시야의 중심부(중심와, fovea)에서는 매우 높은 해상도로 사물을 인식하지만, 주변부로 갈수록 해상도가 급격히 떨어진다.67 포비티드 렌더링은 VR 헤드셋에 내장된 시선 추적(eye-tracking) 센서를 사용하여 사용자가 현재 응시하고 있는 지점을 파악한다. 그리고 그 중심 영역은 최고 해상도로 렌더링하고, 시선이 미치지 않는 주변부 영역은 점진적으로 해상도를 낮추어 렌더링한다.66
사용자는 이러한 해상도 차이를 거의 인지하지 못하지만, GPU가 처리해야 할 총 픽셀 수는 극적으로 감소한다. 이를 통해 하드웨어의 부담을 크게 줄이면서도 사용자에게는 항상 선명한 고품질의 시각 경험을 제공할 수 있다.70 포비티드 렌더링은 고품질 무선 VR/AR 기기를 현실화하는 데 필수적인 기술로 평가받고 있다.
세계적인 기술 발전의 흐름 속에서 한국의 컴퓨터 그래픽스 산업 또한 독자적인 성장 과정을 거쳤다. 국내 CG의 역사는 1980년대 말, KBS와 MBC 같은 방송사들이 컬러 방송을 시작하며 자막 처리를 위해 ‘문자 발생기(Character Generator)’를 도입하면서 시작되었다.1
본격적인 산업의 형성은 1990년대에 이루어졌다. 1990년, 광고 제작사 애니텔이 ‘봉봉쥬스’ CF를 통해 80초 분량의 CG 광고를 선보이며 주목받았고, 이후 CG 프로덕션(cinepix), 포스트 프로덕션(Digital Impact) 등 전문 업체들이 속속 창립되었다.2 워크스테이션용 소프트웨어인 소프트이미지(Softimage), 합성 소프트웨어인 에디(eddie) 등이 국내에 공급되기 시작하며 기술적 기반도 마련되었다.2 1993년에는 국내 최초의 CG 전문 잡지인 ‘캐드 앤 그래픽스(Cad & Graphics)’가 창간되어 정보 교류의 장을 열었다.2
영화계에서는 1994년 ‘구미호’가 국산 영화 최초로 CG 기술(모핑)을 도입했으며, 같은 해 2D와 3D를 결합한 극장용 애니메이션 ‘블루 시걸’이 개봉했다.2 1995년 ‘아마게돈’, 1996년 ‘은행나무 침대’ 등 90년대 중후반 한국 영화들은 점차 CG의 비중을 높여가며 시각적 표현의 새로운 가능성을 탐색했다. 이러한 90년대의 도전과 축적된 경험은 2000년대 이후 한국이 영화 VFX와 게임 산업에서 세계적인 경쟁력을 갖추는 밑거름이 되었다.
컴퓨터 그래픽스의 수십 년에 걸친 역사는 이제 ‘메타버스(Metaverse)’와 ‘디지털 트윈(Digital Twin)’이라는 두 가지 거대한 개념 아래 하나로 수렴하고 있다. 이들은 단순히 새로운 유행어가 아니라, 지금까지 논의된 모든 그래픽 기술이 총체적으로 집약되어 발현되는 미래의 플랫폼이자 방법론이다. 이 두 개념을 명확히 이해하고, 이들이 어떻게 CG 기술의 궁극적인 지향점이 되는지를 분석함으로써 우리는 기술의 미래 궤적을 조망할 수 있다.
디지털 트윈과 메타버스는 종종 혼용되지만, 그 목적과 현실과의 관계에서 근본적인 차이를 보인다.
디지털 트윈(Digital Twin)은 현실 세계에 존재하는 물리적 자산(공장, 건물, 도시 등)이나 프로세스를 가상 공간에 1:1로 복제한 ‘디지털 쌍둥이’다.72 핵심은 현실 세계의 사물인터넷(IoT) 센서 등으로부터 수집된 데이터가 실시간으로 가상 모델에 연동되어, 디지털 트윈이 항상 현실의 상태를 정확하게 반영한다는 점이다.73 디지털 트윈의 주된 목적은 ‘분석과 예측’이다. 가상 공간에서 다양한 시나리오를 시뮬레이션하여 현실에서 발생할 수 있는 문제를 미리 예측하고(예: 설비 고장 예측), 운영 프로세스를 최적화하며, 데이터 기반의 정확한 의사결정을 지원하는 데 중점을 둔다.72 즉, 디지털 트윈은 ‘데이터 우선주의’이며, 현실을 분석하고 제어하기 위해 현실을 거울처럼 비추는 도구다.74
메타버스(Metaverse)는 현실을 넘어선, 다수의 사용자가 ‘아바타’라는 가상 자아를 통해 상호작용하는 영속적이고 공유된 3D 가상 공간이다.72 메타버스의 핵심은 ‘경험과 상호작용’이다. 사용자들은 이 가상 세계 안에서 사회적 교류, 경제 활동, 엔터테인먼트 등 다양한 활동을 즐긴다.74 메타버스는 현실의 제약을 뛰어넘는 창의적이고 몰입감 있는 경험을 제공하는 것을 목표로 하며, 현실과 반드시 동일할 필요가 없다.74 즉, 메타버스는 ‘경험 우선주의’이며, 상호작용을 위한 새로운 현실을 창조하는 플랫폼이다.
이 두 개념의 차이는 아래 표와 같이 명확하게 정리할 수 있다.
표 5: 몰입형 개념 비교: VR, AR, 디지털 트윈, 메타버스
| 구분 | 주요 목적 | 현실과의 관계 | 핵심 기술 | 주요 활용 사례 |
|---|---|---|---|---|
| 가상현실(VR) | 가상 세계에서의 몰입 경험 74 | 현실을 완전히 차단하고 대체 64 | HMD, 트래킹, 실시간 3D 렌더링 | 게임, 훈련 시뮬레이션, 가상 체험 |
| 증강현실(AR) | 현실 세계의 정보 강화 및 의사결정 지원 74 | 현실 세계 위에 가상 정보를 겹쳐서 확장 63 | 스마트폰/글래스, SLAM, 객체 인식 | 내비게이션, 원격 협업, 정보 시각화 |
| 디지털 트윈 | 현실 세계의 분석, 예측, 최적화 73 | 현실을 데이터 기반으로 정확하게 복제 및 연동 (Mirror) 73 | IoT, AI, 시뮬레이션, 데이터 시각화 | 스마트 팩토리, 시설물 관리, 도시 계획 |
| 메타버스 | 가상 세계에서의 사회/경제적 상호작용 74 | 현실과 분리되거나 연결된 새로운 가상 공간 창조 72 | 실시간 3D 플랫폼, 아바타, 블록체인, VR/AR | 소셜 플랫폼, 가상 콘서트, 원격 근무 |
메타버스와 디지털 트윈은 어느 날 갑자기 나타난 기술이 아니다. 이들은 컴퓨터 그래픽스의 역사 전체를 관통하는 기술들이 하나의 목표를 향해 융합되는 필연적인 귀결이다.75 기능적인 메타버스나 디지털 트윈을 구축하기 위해서는 지금까지 논의된 거의 모든 CG 기술이 필수적으로 요구된다.
결국 이 두 개념은 CG 기술의 ‘종합 예술’이라 할 수 있다. 수십 년간 각자의 영역에서 발전해 온 기술들이 이제 하나의 거대한 플랫폼 안에서 서로 엮이고 통합되어, 이전과는 차원이 다른 가치와 경험을 창출하고 있다.
컴퓨터 그래픽스의 역사를 되돌아보면 몇 가지 일관된 원칙이 흐르고 있음을 알 수 있다. 첫째, 실용적 필요(군사, 산업)와 예술적 열망(영화, 게임) 사이의 끊임없는 상호작용이 기술 발전을 이끌었다. 둘째, 소프트웨어(알고리즘)와 하드웨어(칩)는 서로를 자극하며 공진화(co-evolution)해왔다. 셋째, 이 모든 기술의 궁극적인 지향점은 디지털 정보와 물리적 현실 사이의 경계를 허무는 것이었다.
이반 서덜랜드가 스케치패드를 ‘수학 세계를 들여다보는 돋보기’라고 표현했듯이 13, 컴퓨터 그래픽스의 본질은 인간의 인지 능력을 확장하여 보이지 않는 것을 보게 하고, 상상 속의 세계를 현실처럼 체험하게 하는 데 있다. 라이트 펜에서 마우스로, GUI에서 3D 게임으로, 그리고 이제 VR/AR 헤드셋으로 이어지는 역사는 인간의 의도와 디지털 실행 사이의 인터페이스를 점점 더 직관적이고 투명하게 만들어, 궁극적으로는 컴퓨터라는 도구 자체를 ‘사라지게’ 만드는 과정이었다.
메타버스와 디지털 트윈은 이러한 흐름의 정점에 서 있지만, 동시에 새로운 도전 과제를 제기한다. 방대한 가상 세계를 채울 콘텐츠를 어떻게 효율적으로 제작하고 관리할 것인가? 서로 다른 플랫폼 간의 데이터와 자산을 어떻게 상호 운용할 것인가? 그리고 이 강력한 가상 현실이 만들어낼 윤리적, 사회적 문제들에 어떻게 대비할 것인가?
이러한 질문에 답을 찾아가는 과정이 앞으로의 컴퓨터 그래픽스 역사를 써 내려갈 것이다. 분명한 것은, 디지털의 빛으로 새로운 현실을 창조하려는 인간의 여정은 이제 막 새로운 장을 열었다는 사실이다.
| 래스터와 벡터 파일의 차이점 | Adobe, accessed July 5, 2025, https://www.adobe.com/kr/creativecloud/file-types/image/comparison/raster-vs-vector.html |
| CAD(Computer-Aided Design)의 역사와 주요 제품 | 무이아미고, accessed July 5, 2025, https://www.muyamigo.co.kr/blogs/history-of-cad |
| 설계 및 제조를 위한 CAD/CAM 소프트웨어 | 오토데스크 - Autodesk, accessed July 5, 2025, https://www.autodesk.com/kr/solutions/cad-cam |
| 1 . 시각화 | 데이터 시각화 - 한국 R 사용자회, accessed July 5, 2025, https://r2bit.com/book_viz/viz-motivations.html |
| 리얼타임 레이 트레이싱 | 언리얼 엔진 4.27 문서 | Epic Developer Community, accessed July 5, 2025, https://dev.epicgames.com/documentation/ko-kr/unreal-engine/real-time-ray-tracing?application_version=4.27 |