9.3 서비스형 AI 인프라: DGX 클라우드(DGX Cloud)의 등장

9.3 서비스형 AI 인프라: DGX 클라우드(DGX Cloud)의 등장

수천만 달러의 칩 납품 대금과 영구적인 소프트웨어 구독료(AI Enterprise)까지 손에 쥔 엔비디아(NVIDIA). 하지만 그 모든 비즈니스의 최종적인 배달 플랫폼은 여전히 아마존(AWS), 마이크로소프트 애저(MS Azure) 같은 거대한 하이퍼스케일러(Hyperscaler)들의 클라우드 천장 아래에서 숨죽여 행해지고 있었다. 결국 이 거대한 유통 갑(甲)들이 서버 사용료라는 막대한 채찍과 마진을 휘두르고 있었던 것이다.

이 절대 권력의 사슬마저 박살내고 싶었던 젠슨 황(Jensen Huang)은 또다시 이단적이고 오만한 선전포고를 날린다. “우리가 칩도 다 만들었고 소프트웨어도 다 세팅해 놨는데, 왜 꼭 기업 고객들이 AWS나 구글의 조잡한 포털 사이트를 거쳐서 우리 GPU를 대여해 써야 하는가? 그냥 우리가 직접 클라우드 서비스(Cloud Service)를 열어서 고객들한테 직거래로 대여해 주면 되지 않는가?”

그렇게 세계 클라우드 생태계의 목덜미를 치며 등장한 것이 바로 엔비디아 자체 클라우드 서비스, ‘DGX 클라우드(DGX Cloud)’ 다. 9.3장에서는 단순히 부품 납품업자라는 을(乙)의 껍데기를 찢어버리고, 대놓고 세계 최고의 클라우드 제공자(CSP)들의 앞마당에 자신들의 간판을 내걸며 통행세를 직접 거둬들이기 시작한 AI 서비스화(AIaaS, AI-as-a-Service) 도발을 추적한다. 엔비디아와 빅테크들 사이에 벌어지는 동지이자 적인, 그 숨 막히는 이중 플레이(Frenemy) 경쟁의 실체를 파고들어 보자.

9.3.1 AI 슈퍼컴퓨팅의 서비스화(AIaaS, AI-as-a-Service) 전략

전 세계 수만 개의 스타트업(Start-up)들은 챗GPT(ChatGPT)와 같은 자체 인공지능(AI)을 만들고 싶어 안달이 났지만, 그들 수중에 엔비디아(NVIDIA)의 H100 GPU를 수 천 개 단위로 직접 사서 물리적인 자체 서버실(On-Premise)을 지을 돈과 수십 명의 인프라 기술자 따위는 없었다.
그들의 유일한 살길은 거대 클라우드 서비스(AWS, GCP 등)에 접속해 시간당 요금을 내고 그래픽 카드를 빌려 쓰고 반납하는 일명 ‘AI 슈퍼컴퓨팅의 렌탈(Rental)’, 바로 서비스화(AIaaS, AI-as-a-Service) 방식이었다.

이를 꿰뚫어 본 엔비디아는 ‘DGX 클라우드(DGX Cloud)’ 를 통해 이 시장에 직접 숟가락을, 아니 폭격기를 몰고 난입했다.
“개발자들아, 아마존 서버 세팅하느라 며칠씩 허비하지 마라. 아무 웹 브라우저나 열어서 우리 DGX 클라우드 사이트에 접속하면, 곧바로 우리 본사가 설계한 세계 최고 성능의 엔비디아 슈퍼컴퓨터(DGX) 군단과 최정예 AI 엔진(소프트웨어)이 당신들 눈앞에 딸깍 한 번으로 나타날 것이다. 한 달에 수만 달러짜리 브라우저 직통 대여료만 내라.”

이것은 단순히 하드웨어 연산 능력만 덜렁 빌려주는 낡은 방식에서 완전히 탈피한 것을 의미했다. 칩(GPU), 운영체제(네트워크), 그리고 초적화 딥러닝 툴킷(SW)까지 모두 포장된 완벽한 ’엔비디아 패키지’를 전선 코드 하나 꼽지 않고 인터넷 창(Browser) 하나만 열어서 직배송받는 시대. 이 폭력적인 편의성은 거대한 딥러닝 모델 조립이라는 극강의 고난도 작업을, 마치 넷플릭스(Netflix) 영화 결제하듯 세상 모든 가난한 천재들에게 손쉽게 던져주는 가장 달콤한 악마의 대여 서비스 도입을 알리는 신호탄이었다.

9.3.2 자체 클라우드 인프라 구축의 의미와 B2B 비즈니스 확장

엔비디아(NVIDIA)가 내놓은 이 당돌한 ‘DGX 클라우드(DGX Cloud)’ 는 단순히 클라우드 임대 장사 하나를 더 개업한 수준의 의미가 아니었다. 그것은 하드웨어 공급자가 소프트웨어 생태계를 넘어, 최종 소비자와 직결되는 유통망(Distribution Channel)까지 단독으로 차려버렸다는 거대한 수직 독점(Vertical Monopoly)의 피날레를 상징했다.

보통 하드웨어 기업은 “우리 칩을 많이 쓰게 해주세요“라며 아마존(AWS)이나 마이크로소프트(MS) 같은 B2B 고객들에게 굽신거려야 했다. 그러나 젠슨 황(Jensen Huang)은 DGX 클라우드를 통해 빅테크들을 건너뛰고, 글로벌 기업 고객들의 데이터와 결제 계좌를 직접 자신들의 포털 안으로 빨아들이기 시작했다.
자동차 회사, 제약 회사, 금융 기관의 CIO(최고정보책임자)들은 복잡한 하이퍼스케일러의 인스턴스를 쇼핑하는 대신, 곧바로 엔비디아와 직거래 계약을 맺고 “우리 회사의 전용 AI를 엔비디아 본사 시스템 속에서 안전하게 훈련시켜 주시오“라며 막대한 현찰 뭉치를 다이렉트로 던져 주었다.

이로써 엔비디아는 가장 아랫단의 H100 GPU 칩 설계, 그 칩들을 묶고 잇는 NVLink와 인피니밴드 네트워크망, 최적화시켜 구동할 AI 엔터프라이즈 소프트웨어 구독권, 그리고 마지막으로 구동되는 클라우드 ’웹 페이지 접속권’까지, B2B 비즈니스의 시작부터 끝까지 타사의 간섭이 1밀리미터도 끼어들 틈이 없는 가장 무자비한 ’풀스택 클라우드 브로커(Full-Stack Cloud Broker)’로서의 절대 권력을 소름 돋게 전 세계 위에 안착시켰다.

9.3.3 주요 빅테크 클라우드 서비스 제공자(CSP)들과의 복잡한 협력 및 경쟁 관계

자신들의 영업망을 통째로 털먹으려 들어온 엔비디아(NVIDIA)의 자체 클라우드 서비스(DGX Cloud) 선언에, 전 세계 클라우드 생태계의 절대 군주들인 AWS, 구글 클라우드, 마이크로소프트 애저(MS Azure)는 당혹감과 분노에 휩싸였다. “우리가 사준 수십 단의 칩으로 장사해 먹고 큰 부품 업체 놈들이, 감히 우리 앞마당에서 월세를 뺏어 먹으려 들어?”

하지만 더 끔찍한 것은, 이 클라우드 타이탄(Cloud Titans)들이 분노하면서도 엔비디아의 이 건방진 DGX 클라우드 전진 기지를 자신들의 데이터센터(Data Center) 천장 아래에 기꺼이 세입시켜 주는, 굴욕적인 동행을 거절할 수가 없었다는 사실이었다.
젠슨 황(Jensen Huang)의 징그러운 정치적 화법은 이러했다.
“놀라지 마라, DGX 클라우드는 엔비디아가 단독으로 건물을 짓겠다는 게 아니다. 당신들(오라클, 파트너 클라우드 등)의 매장 안에 ’엔비디아 브랜드 직영점(Shop-in-Shop)’을 내는 것이다. 우리가 프리미엄 고객을 호객해 줄 테니, 뒷단의 서버 대여 수익은 같이 나누자.”

graph TD
    A[엔비디아 DGX 클라우드의 기묘한 기생 전략<br>NVIDIA DGX Cloud Frenemy Model]
    
    A --> B[NVIDIA의 프론트엔드 장악]
    B --> C[프리미엄 구독형 AIaaS 직거래 판매<br>고객 데이터 및 라우팅 독점]
    
    A --> D[빅테크 클라우드CSP의 백엔드 하청화]
    D --> E[AWS, Oracle, MS, Google]
    E --> F[자신들의 물리적 데이터센터 공간 내어줌<br>엔비디아의 하청 임대업자로 전락]
    
    C -.-> |적대적 경쟁이 아닌| F
    F -.-> |강압적 공생에 의한| G((완벽한 프레너미Frenemy 생태계 완성))
    
    style C fill:#f9f,stroke:#333,stroke-width:2px,color:#fff
    style F fill:#f55,stroke:#333,stroke-width:2px,color:#fff

클라우드 제공자들은 자존심이 철저히 짓밟혔지만, 엔비디아의 직영점을 유치하지 않으면 수많은 딥러닝 기업 고객들이 통째로 경쟁 클라우드로 이탈할 것이라는 공포에 질려 눈물을 머금고 자신들의 플랫폼 안에 엔비디아의 소프트웨어와 하드웨어를 통째로 모셔와야만 했다. 적장과 식탁을 공유하면서도 식탁 위의 모든 가장 맛있는 고기 수익률(Margin)을 교묘하게 빼앗아 먹는 ’가장 잔혹한 프레너미(Frenemy, 친구이자 적)’의 완전한 승리가 달성된 것이다.