16.2 빅테크 기업들의 독립 선언: 자체 실리콘(맞춤형 칩) 경쟁
엔비디아(NVIDIA)가 매 분기 수십조 원의 돈복사 축제를 벌일 수 있는 것은, 아마존(Amazon), 구글(Google), 마이크로소프트(Microsoft), 메타(Meta)라는 4마리의 슈퍼 아나콘다(빅테크 클라우드 서비스 제공자)들이 강도 같은 가격표에도 반발하지 못하고 눈물을 머금은 채 수만 장의 GPU를 쓸어 담기 때문이다.
그러나 이 천재적인 글로벌 통치자들은 남에게 목덜미를 잡힌 채 하청업체 노릇을 할 멍청이들이 아니다. 이들은 엔비디아 GPU를 긁어모아 자신들의 데이터센터에 까는 동안, 비밀리에 수만 명의 실리콘 엔지니어를 사냥해 지하 벙커에서 **자체 맞춤형 실리콘(Custom Silicon - ASIC)**을 미친 듯이 깎아재끼고 있었다.
엔비디아의 범용 칩이 수만 가지 잡동사니 코드를 모두 커버하도록 비싸고 뚱뚱하게 만들어졌다면, 빅테크의 맞춤형 칩은 “오직 구글의 모델, 오직 아마존의 추론 코드” 딱 하나만 폭력적으로 빠르게 수행하도록 모든 불필요한 기능을 도려내고 원가율을 극단으로 낮춘 날카로운 바늘과 같다. 이 장에서는 엔비디아의 우수고객들이 한순간에 가장 잔인한 반란군 사령관으로 돌변하여 선포한, 끔찍한 인하우스 칩 독립선언의 피비린내 나는 현황을 파헤친다.
16.2.1 구글 TPU: 데이터센터 AI 가속기의 오랜 선구자이자 최대 위협
빅테크의 칩 독립전쟁에서 가장 징그럽고 오랜 역사를 자랑하는 최강의 군벌은 단연코 **구글(Google)**의 **TPU(Tensor Processing Unit)**다. 엔비디아(NVIDIA)가 단순 그래픽 처리에 몰두하던 시절, 구글은 이미 행렬과 텐서(선형대수 물리량) 곱셈 연산만을 미친 듯이 폭격해 내는 자체 ASIC(주문형 반도체)을 구워내어 자사의 알파고(AlphaGo)와 신경망 번역기에 때려 박고 있었다.
구글의 무서움은 단순히 칩을 하나 잘 깎았다는 데서 그치지 않는다. 그들은 지구상 최대의 데이터센터 인프라 체급과 압도적인 해저 광케이블 망을 등지고 있다. 구글은 이 TPU 수만 개를 광학 회선으로 엮어내어 거대한 슈퍼컴퓨터 괴물, ’팟(Pod)’을 창조했다. 외부 시장에 칩 하나를 떼어 파는 것은 관심조차 없다. 오직 “텐서플로우(TensorFlow)라는 우리 놀이터에 들어오면, 이 미친 TPU 팟을 가상으로 대여해 줄 테니 엔비디아의 강도 같은 GPU 렌탈 비용에 피 흘리지 마라“며 고객들을 흡수한다. 구글 TPU는 젠슨 황(Jensen Huang)의 통제 권력이 구글 안방의 문턱 앞에서 완벽하게 부서져 산산조각 났음을 입증하는 가장 무겁고도 오래된 지정학적 위협이다.
16.2.2 아마존(AWS)의 트레이니엄(Trainium)과 인퍼런시아(Inferentia)
글로벌 클라우드 해적선의 영원한 두목, 아마존 AWS(Amazon Web Services). 이들은 전 세계의 거의 모든 스타트업과 기업 고객의 숨통을 손에 쥐고 데이터 월세를 징수하는 절대자다. 그들 입장에서 AWS 서버 유지 비용의 절반 이상을 하청 반도체 납품업자인 엔비디아(NVIDIA)에게 세금처럼 바치는 것은 도저히 묵과할 수 없는 오만방자함의 허용이다.
이 반란을 부수기 위해 AWS는 안나푸르나 랩스(Annapurna Labs)라는 이스라엘 괴짜 스타트업을 일찌감치 매수하여, 오직 딥러닝 훈련과 추론이라는 양대 산맥만을 정조준한 쌍두마차 칩, **‘트레이니엄(Trainium)’**과 ‘인퍼런시아(Inferentia)’ 실리콘을 깎아냈다.
“엔비디아 칩을 쓸 돈이 부족해? 그럼 원가율이 극도로 싼 우리 AWS 자사 칩(인퍼런시아)으로 네 언어 모델 구동 시켜라. 전력도 적게 먹고 추론 응답 속도도 훨씬 개빨라질 것이다.” AWS는 자신들의 무기인 ‘거대한 클라우드 대여망’ 그물 자체를 칩셋 성능의 연장선으로 지렛대 삼는다. 클라우드의 주인이 하우스 룰(House Rule)을 무기로 엔비디아를 클라우드의 지하실로 밀어내려는 এই 치밀한 거세 작전이야말로, 칩 시장을 궤도 이탈하게 만드는 파괴적 지각 변동의 핵심이다.
16.2.3 마이크로소프트(MS)의 마이아(Maia)와 코발트(Cobalt) 프로젝트
오픈AI(OpenAI)와의 끔찍한 동맹을 통해 구글을 짓밟고 수십억 인류의 PC 화면에 ’코파일럿(Copilot)’을 강제로 심어 넣으려는 마이크로소프트(Microsoft). 그러나 이 거대한 AI 정복 전쟁의 이면에는 한 번의 챗GPT 쿼리마다 엔비디아(NVIDIA) 칩을 혹사시키며 전기세와 비용을 허공에 태워버려야 하는 ’소프트웨어 절대 군주의 피눈물’이 고여 있다.
이 밑 빠진 독(GPU 구매 비용)을 부수기 위해 마이크로소프트는 가장 은밀하게 자체 클라우드 통제용 실리콘을 벼려냈다. 바로 마이아(Maia) AI 가속기와 범용 ARM 칩셋인 코발트(Cobalt) CPU다. 마이아는 복잡하고 무거운 엔비디아 칩 디자인을 폐기하고, 오직 오픈AI의 거대 파라미터 텍스트 추론 연산만을 세상에서 가장 효율적이고 싼 전력으로 찍어 누르는 데 올인한 극단적 ‘칼잡이’ 칩이다.
“우리가 파는 AI 서비스를 구동하는 데드엔진은 이제 우리가 직접 설계한다.” 세계 최고의 소프트웨어 괴물이 하드웨어 마이크로아키텍처 설계 도면에 손을 뻗는 이 섬뜩한 내재화(Vertical Integration) 선언은, 엔비디아가 영원히 클라우드 제왕들과 상생할 수 없으며 결국엔 철저한 제로섬 게임의 단두대에 서게 됨을 예고하는 신호탄이다.
16.2.4 메타(Meta)의 MTIA 설계와 빅테크의 탈(脫)엔비디아 움직임이 갖는 의미
엔비디아(NVIDIA) H100 GPU를 단일 기업 단위로 지구상에서 가장 폭식하듯 쓸어 담아, 무려 35만 장을 사재기한 광기의 주역 메타(Meta). 하지만 마크 저커버그(Mark Zuckerberg)조차도 영업이익의 기둥뿌리를 엔비디아 계좌로 이체하는 출혈을 견디지 못하고 자신들만의 반독점 쿠데타를 시작했다. 그것이 바로 메타 훈련 및 추론 가속기 **MTIA(Meta Training and Inference Accelerator)**다.
오픈소스 거대 언어 모델 라마(Llama) 시리즈를 무료로 흩뿌리며 전 세계 오픈 생태계를 장악한 메타지만, 그 모델을 서비스하기 위해 매일 불태우는 칩 구동 비용은 천문학적이다. MTIA는 철저하게 라마의 추천 알고리즘과 텍스트 생성만을 가장 저렴하게 돌리기 위해 설계된 메타 전용 식칼이다.
이 거대 빅테크들의 독자 칩 개발(Custom Silicon) 도미노 현상은, 단지 엔비디아 칩의 매출을 일부 깎아 먹는 수준의 단순한 해프닝이 아니다. 클라우드의 절대 지배를 꿈꾸던 젠슨 황(Jensen Huang)의 가장 충성스러운 수하들이 사실은 언제라도 그의 등 뒤에 칼을 꽂고 자신들의 생태계를 분리해 나갈 수 있는 가장 무서운 ’가상국가(Hyperscaler)의 독립 포고문’이나 다름없다. 엔비디아는 가장 든든한 고객을 동시에 가장 두려운 미래의 적으로 매일 키워주고 있는 셈이다.