8.2 하이퍼스케일러와 클라우드 생태계 장악

8.2 하이퍼스케일러와 클라우드 생태계 장악

과거 10대들의 게이머 팬덤이나 상대하던 젠슨 황(Jensen Huang)이 이제 글로벌 기업 클라우드의 한복판으로 진격했을 때, 그가 마주친 진정한 거대한 코끼리들은 바로 아마존(AWS), 마이크로소프트 애저(MS Azure), 구글 클라우드(Google GCP)로 대변되는 이른바 ‘클라우드 타이탄(Cloud Titans) 하이퍼스케일러’ 들이었다. 전 세계 개발자들과 중소기업들을 거대한 데이터센터 컴퓨터 농장에 모아놓고 영구적 월세 장사(Rental Business)를 하며 권력을 쥔 이 무서운 갑(甲)들 앞에서, 부품을 납품해야 하는 엔비디아(NVIDIA)는 언제라도 목이 잘릴 수 있는 철저한 약자인, ’을(乙)’의 칩 벤더(Vendor)에 불과했다.

8.2장에서는 이 절대반지를 쥔 하이퍼스케일러(Hyperscaler)들과 엔비디아가 어떻게 서로 피비린내 나는 눈치 싸움을 거쳐 운명적인 기생-연합의 동맹(Alliance)을 맺게 되었는지 탐구한다.

자체 클라우드 생태계에 고객을 더 많이 빨아들이기 위해 경쟁하던 AWS와 구글 등이 왜 너그럽게 수천억 원짜리 엔비디아 GPU만 골라 대량으로 랩(Lab)실에 쓸어 담아야만 했는지, 엔비디아가 어떠한 영업 마법으로 B2B 클라우드 인프라의 90% 이상 점유율을 차지하며 이 거인들의 목덜미에 독점의 거미줄을 잔인하게 둘러쳤는지 그 무자비한 인프라 장악력을 조명한다. 나아가 이 숨 막히는 ’종속(Dependency)’의 공포에서 벗어나고자 빅테크 황제들이 기어이 살기 위해 ’독자 칩 자체 개발(Custom Silicon)’이라는 칼날을 빼들고 저항하려는 현재의 차가운 전장 상황까지 선명하게 짚어본다.

8.2.1 클라우드 타이탄(AWS, MS 애저, 구글 클라우드)과의 전략적 동맹

아마존(AWS), 마이크로소프트 애저(MS Azure), 구글(Google Cloud). 일명 ’클라우드 타이탄(Cloud Titans)’으로 불리는 이 초거대 하이퍼스케일러들은 사실상 칩 제조사들의 생살여탈권을 움켜쥐고 있는 가장 잔혹하고 거대한 포식자 그룹이다. 이들은 수단과 방법을 가리지 않고 칩 단가를 후려쳐 자신들의 거대 서버 농장 데이터센터(Data Center)를 채우고 유지하는 것이 최우선 미션이었다.

하지만 알렉스넷(AlexNet) 이후 전 세계 딥러닝(Deep Learning) 연구를 하고자 하는 스타트업 수만 개가 클라우드로 미친 듯이 몰려들자, 이 거대 코끼리들은 심각한 딜레마(Dilemma)에 빠졌다. 클라우드 고객들(개발자, 학계)은 더 이상 값싼 깡통 서버를 빌려달라고 구걸하지 않았다. 그들은 하나같이 모니터에 광기 어린 눈을 뜨고 요구했다. “나에게 당장 엔비디아(NVIDIA) GPU와 쿠다(CUDA) 라이브러리가 깔린 최고급 연산 인스턴스(Instance)를 대여해 주시오!”

이는 클라우드 타이탄들에게도 완벽하고도 굴욕적인 항복선언을 강요하는 것이나 다름없었다. 아무리 자신들이 거대한 돈의 권력을 지니고 있다 한들, 자사의 클라우드 서버에 최신 엔비디아 V100이나 A100 GPU를 잔뜩 꽂아놓고 광고하지 않으면, 그 어떤 딥러닝 고객도 자신들의 데이터센터를 쳐다보지 않는 충격적인 구조적 구속력(Binding Force) 속으로 빨려 들어가고 있음을 인정해야만 했다. 결국 아마존 제프 베이조스(Jeff Bezos)의 권력조차, 엔비디아가 요구하는 비싼 마진(Margin)을 고스란히 떼어주며 GPU를 독점적으로 쓸어 담아 자신의 랙(Rack)에 우선 할당하기 위한 가장 뜨겁고 굴욕적인, 그러나 거절할 수 없는 전략적 동맹(Strategic Alliance)을 강요, 성사당하게 된 것이다.

8.2.2 B2B 클라우드 인프라 내 엔비디아 GPU의 압도적 점유율

클라우드 타이탄들이 눈물을 머금고 앞다투어 엔비디아(NVIDIA)의 A100, H100 GPU 등을 컨테이너 단위로 훔치듯 입고시켜 데이터센터 인프라(Data Center Infrastructure)에 처박기 시작했을 때, 세계 B2B 클라우드 컴퓨팅 생태계의 판도는 그야말로 엔비디아의 완벽한 녹색 융단폭격(Carpet Bombing)으로 초토화되어 갔다.

경쟁사인 AMD나 인텔(Intel)이 아무리 가격을 낮춰 납품하려 시도해도, 클라우드 업체들은 이를 사들이길 공포스럽게 두려워했다. 오직 B2B 클라우드 고객(개발자들)의 요구 때문이었다. “저희 회사 AI 플랫폼 코드는 전부 오직 쿠다(CUDA) 언어 기반으로 10년 동안 최적화되어 있습니다. AMD 칩을 임대해 주신다면, 우리 코드를 죄다 다 뜯어고치느라 회사가 파산할 것입니다.”
이 ’전환 비용(Switching Cost)’이라는 무서운 절대 방패는, 엔비디아가 하이퍼스케일러 B2B 클라우드 머신러닝 인스턴스(ML Instance) 시장 점유율을 사실상 독점 독재 수치인 90% 이상까지 징그럽게 빨아들이도록 만들어버렸다.

graph TD
    A[B2B 클라우드 시장의 NVIDIA 독재 메커니즘]
    
    B[전 세계 AI 소프트웨어 및 앱 개발자 군단] -->|오직 쿠다CUDA 환경만 원함| C(CSP 클라우드 타이탄들<br>AWS, MS, Google)
    
    C -->|고객 이탈 공포로 타사 칩 구매 포기| D{GPU 발주 계약}
    D --> E[AMD & Intel: 시장 점유율 처참한 패배]
    D --> F[NVIDIA: 마진 안 깎고 배짱 영업 극대화]
    
    F --> G[클라우드 내 AI 인프라 점유율 90% 달성<br>Absoute Monopoly in Hyperscalers]
    
    style F fill:#f9f,stroke:#333,stroke-width:2px,color:#fff
    style G fill:#f55,stroke:#333,stroke-width:2px,color:#fff

클라우드 기업들은 이제 자신들이 갑(甲)이 아니라 철저하고 완벽한 엔비디아의 하청 대여소일 뿐이라는 굴욕적인 현실마저 삼켜야 했다. 칩 물량을 배정받기 위해 젠슨 황(Jensen Huang)의 사무실 앞에 클라우드 황제들이 무릎을 꿇듯 줄을 서야 했으며, 엔비디아가 부르는 어처구니없이 치솟는 단가를 조폭의 통행세(Toll)처럼 고스란히 뜯기는 극단적인 포식자-피식자의 역전 생태계, 그 뼈부러진 완전체의 먹이사슬(Food Chain)이 클라우드 권력판 위에 완성된 것이다.

8.2.3 CSP(클라우드 서비스 제공자)들의 엔비디아 의존성 및 자체 칩 개발 동향

자신들의 거대한 데이터센터(Data Center) 천장이 통째로 젠슨 황(Jensen Huang)의 그림자로 덮이며 숨통이 조여드는 극단적인 종속(Dependency)의 공포를 느끼기 시작한 AWS, 구글 클라우드, 마이크로소프트 애저 같은 세계 최고의 하이퍼스케일러(Hyperscaler) CSP들. 그들은 이 목이 옥죄이는 통행세로부터 살아남기 위해 마침내 창고에서 피 흘리는 복수의 칼날을 꺼내 들기 작정했다. 이른바 ‘자체 설계 실리콘 칩(Custom Silicon)’ 개발이라는 처절한 독립운동의 선언이었다.

“우리 클라우드가 엔비디아(NVIDIA) GPU를 사느라 번 돈을 모조리 젠슨 황의 주머니에 바칠 바에는, 아예 수조 원의 연구개발비를 쏟아부어 우리 고객들이 주로 쓰는 기능만 특화된 ’가성비 칩(ASIC)’을 직접 깎아서 인스턴스(Instance)에 박아버리자!”

구글은 완벽하게 딥러닝 텐서 처리만 고속화한 무식한 병렬칩 TPU(Tensor Processing Unit)를 내놓았고, 아마존은 트레이니엄(Trainium)과 인퍼런시아(Inferentia)를 자체 설계하여 배포했다. MS 애저 역식 마이아(Maia) 칩에 자본을 쏟아부었다.
하지만 이 수조 원짜리 탈출 발버둥을 지켜보는 젠슨 황의 눈빛은 한 치의 흔들림조차 없이 평온하고 서늘했다. “고객사에 맞춰 단순 특화 조립된 칩들은 결코 수십 년 동안 거대한 C언어 생태계를 씹어 삼키며 거대하게 피 흘려 수직 계열화를 마친 ’쿠다(CUDA)와 엔비디아 수백억 개 코어 생태계 호환성’의 아우토반을 온전히 대체할 수 없다.”

클라우드 거인들이 자체 칩으로 자존심을 세우려 치명적인 돈의 출혈을 구사하고 있는 현 시점에도, 정작 대부분의 최신 제너러티브 AI(Gen AI) 스타트업 고객들은 여전히 자신들의 모델을 안정적으로 최적화 훈련시킬 범용 GPU로 타사 칩을 철저히 불신하며 오직 엔비디아의 H100 인스턴스만을 대기열(Queue)에 걸어놓고 울부짖는, 그 지독한 생태계 최상위 권력 다툼의 차가운 전쟁(Cold War)은 지금 이 순간에도 데이터센터 구석구석에서 현재 진행형으로 터져나가고 있다.