17.1 기존 컴퓨팅의 한계와 새로운 패러다임의 요구
우리는 지금 인류 역사상 가장 기형적인 ’연산 거품’의 시대에 살고 있다. 챗GPT 같은 모델 하나를 훈련시키기 위해, 빅테크들은 수만 장의 H100 칩을 하나로 엮어 소형 원자력 발전소 하나가 내뿜는 막대한 전기 에너지를 구글(Google)과 MS의 서버에 처박고 있다. 매년 성능이 30배씩 좋아져야 한다는 젠슨 황(Jensen Huang)의 광기 어린 로드맵은, 거꾸로 말하면 수년 내에 지구상의 모든 실리콘이 다 타버리거나 데이터센터가 녹아내릴 수 있다는 치명적인 경고와 같다.
전기를 끝없이 잡아먹어 기후 재앙을 앞당기는 비참한 에너지 효율성, 아무리 칩을 미세하게 깎아도 더 이상 원자 크기 밑으로는 내려갈 수 없는 절대적인 ‘물리적 마지노선’. 현재의 고전적인 폰 노이만(Von Neumann) 방식의 연산 구조는 결국 거대한 장벽에 직면해 있다. 이 장에서는 엔비디아(NVIDIA)가 왜 기존 칩의 크기를 줄이는 데 집착하는 것을 멈추고, 데이터의 이동과 양자 시뮬레이션이라는 전혀 다른 ’새로운 뇌’의 구조를 갈구할 수밖에 없는지その 피 말리는 한계 비용의 진실을 들여다본다.
17.1.1 무어의 법칙의 한계와 실리콘의 물리적 장벽
지난 수십 년간 글로벌 IT 산업을 살찌운 가장 오만하고 달콤한 종교적 마약, ‘무어의 법칙(Moore’s Law)’. “2년마다 반도체 반도체의 트랜지스터 집적도는 2배로 증가하고 가격은 절반으로 떨어진다“는 이 신성한 교리는 이제 완벽하게 사망 선고를 받았다.
TSMC가 아무리 천문학적인 돈을 쏟아부어 2-나노(nm), 1-나노 공정을 쥐어짜 내도, 원자 몇 개 굵기의 미세한 선폭 안에 전자를 우겨넣는 순간 ’양자 터널링(Quantum Tunneling)’이라는 자연계의 저주가 발동된다. 통제해야 할 전자들이 벽을 마음대로 뚫고 질주하여 칩에서 열이 폭발해 끓어오르고 누설 전류가 줄줄 새어나가는 것이다.
이제 실리콘에 회로를 조금 더 얇게 긋기 위해 치러야 할 공학 연구비와 네덜란드 ASML의 노광장비(EUV) 구매 비용은 수백조 원을 넘어서며 도저히 계산기 장부가 맞지 않는 기형적 비용 곡선을 그리고 있다. 즉, 칩 하나를 더 똑똑하게 만들기 위해 치르는 ’한계 비용의 물리적 파산’이 다가온 것이다. 이것은 단순히 엔비디아(NVIDIA)의 세대교체 속도가 더뎌짐을 의미하는 것이 아니라, 현 인류 문명의 컴퓨팅 진화 속도 자체가 돌벽에 머리를 박고 박살 나기 직전임을 의미한다.
17.1.2 초대규모 AI 모델이 촉발한 데이터 처리와 전력 병목 현상
과거의 컴퓨팅이 아주 빠른 두뇌(CPU) 하나로 어려운 수학 문제를 깊게 생각하는 일이었다면, 오늘날 생성형 인공지능 트레이닝의 본질은 ’수천억 개의 말뭉치 텍스트 데이터 토막’을 수만 개의 무식한 머리통(GPU)에 1초에 수방 번씩 삽으로 퍼 넣어 강제로 쑤셔 넣는 **‘끝없는 데이터 이동의 폭력’**에 가깝다.
문제는 이 과정에서 병목 현상이 생기는 곳은 연산을 처리하는 칩의 코어가 아니라는 점이다. 칩과 칩 사이, 칩과 메모리(HBM) 사이를 연결하는 ’도로운송망(구리선, 기판 연결부 등)’이 데이터의 거대한 쓰나미 볼륨을 도저히 견디지 못하고 터져나가고 있다. 정보를 처리하는 속도보다 정보를 나르는 속도가 느려서 칩이 공회전만 하는 최악의 비효율.
게다가 이 엄청난 우격다짐식 데이터 이동은 서버실 전체 전기세의 절반 이상을 허공의 열(발열)로 허무하게 날려버린다. 젠슨 황(Jensen Huang)은 “데이터센터는 연산 공장이 아니라 거대한 고압 전력 소비 괴물“이 되어가고 있다고 비명처럼 경고한다. 전 세계의 전기 생산량이 인공지능을 감당하지 못해 블랙아웃이 올 수 있다는 이 살인적인 전력 병목. 이것이 바로 단순한 칩 성능 개선만으로는 절대 구원받을 수 없는 새로운 에너지 전송 패러다임을 강요받는 이유다.