AWS의 ‘클라우드 1.0’ 시대 저물고, 엔비디아의 ‘클라우드 2.0’ 시대 온다

엔비디아, 이젠 다른 회사 거치지 않고 DGX클라우드 직접 제공한다 전문가들 “AI 반도체 등에 업은 엔비디아가 AWS 제치고 차세대 클라우드 시장 지배할 것” AWS도 앤스로픽 투자 및 자사 데이터센터 AI 반도체 교체 등으로 대응 나서

AI 반도체 업체 엔비디아(NVIDIA)가 자체 데이터센터를 확보하려는 움직임을 보이고 있다. 이뿐만 아니라 그래픽처리장치(GPU) 등 기존 하드웨어 부문에 집중했던 엔비디아는 이제 아마존웹서비스(AWS)가 선점하고 있던 클라우드 시장으로 발을 넓힐 것으로 보인다. 전문가들은 엔비디아가 자사 AI 반도체를 활용해 생성형 AI의 흐름 속에서 클라우드 시장에서의 엣지를 AWS 대비 크게 확보할 것으로 보고 있다.

이에 AWS도 대응에 나섰다. AWS는 지난 9월 오픈AI 경쟁사로 꼽히는 앤스로픽(Anthropic)에 대규모 투자를 집행하며 해당 기업 인력을 활용해 자사 클라우드 서비스를 강화하겠다고 밝혔다. 지난 6월엔 자사 데이터센터용 AI 반도체 칩을 엔비디아의 경쟁사인 AMD의 GPU로 대체하겠다고 발표하기도 했다.

자체 데이터센터 구축 움직임 보이는 엔비디아

4일(현지시간) 외신 보도에 따르면 엔비디아가 자체적인 클라우드 인프라 구축을 위해 최근 데이터센터를 소유한 최소 한 곳과 공간 임대에 논의한 것으로 알려졌다. 그간 엔비디아는 구글, 마이크로소프트, 오라클이 운영하는 퍼블릭 클라우드 인프라를 통해 자사 서비스인 ‘DGX클라우드 서비스’를 제공해 왔는데, 이젠 자체 데이터센터를 통해 소프트웨어 서비스를 고객들에게 제공한다는 구상이다.

DGX클라우드는 기업들이 AI 모델을 보다 손쉽게 개발할 수 있도록 지원할 뿐만 아니라, 비즈니스에 맞게 최적화해 사용할 수 있도록 엔비디아 메가트론 530B, 피플넷 비전 모델 등 사전 훈련(pre-trained) 모델들을 제공하는 서비스다. DGX클라우드의 각 인스턴스는 노드당 총 8개의 엔비디아 ‘H100’ GPU, 또는 ‘A100’ GPU로 구성된다. 여러 인스턴스가 하나의 대규모 GPU 역할을 하는 만큼 고성능 컴퓨팅 자원이 요구되는 대규모언어모델(LLM) 훈련에도 최적화돼 있다.

전문가들은 엔비디아가 자체 인프라를 통해 DGX클라우드 서비스를 제공하게 될 시, 기존 클라우드 업계에 적잖은 파장을 일으킬 것으로 보고 있다. 자체 데이터센터를 통하면 엔비디아가 더 이상 기존 클라우드 업체들에 비용을 지불하지 않아도 되는 것은 물론, 당장 구하기 힘든 H100 GPU 등 최신 칩을 자체 데이터센터에 우선 배포할 수 있기 때문에 이들보다 경쟁 우위에 설 수 있다는 분석이다.

엔비디아, AWS 제치고 ‘클라우드 2.0’ 시대 여나

이처럼 엔비디아가 기존 GPU 등 하드웨어 부문에서 클라우드 서비스로 사업의 영역을 확대하려는 움직임이 포착되는 가운데, 전문가들 사이에선 그간 사실상 클라우드 업계를 평정했던 AWS의 ‘클라우드 1.0’ 시대가 저물고, 신흥 강자인 엔비디아가 주도하는 ‘클라우드 2.0’ 시대가 올 것이라는 전망도 나온다. 15년 전 클라우드 시장에 초기 진입한 AWS는 비교적 최근까지 웹사이트, 앱, 비즈니스 소프트웨어 서비스 등 IT 전반의 영역에서 압도적인 시장 점유율을 과시했으나, 최근 챗GPT로 대표되는 생성형 AI 시대가 열리면서 ‘클라우드 지배자’의 입지가 엔비디아로 점차 기울고 있다는 것이다.

엔비디아는 기존 AI 알고리즘에 사용되던 하드웨어 구조를 전반적으로 개선한 반도체를 선보이며 관련 업계에 큰 반향을 일으켰다. AI 알고리즘의 경우 일반적으로 강도 높은 연산을 필요로 하는데, 이때 계산 효율성을 크게 끌어올리는 수단으로 GPU를 사용한다. GPU는 병렬 연산을 수행할 수 있는 그래픽 프로세서로, 기존 사용됐던 분야인 이미지 처리 작업과 신경망(Neural Network) 계산의 유사성에 주목돼 AI 분야에서 광범위하게 활용된다.

이런 가운데 엔비디아는 AI 성능 극대화를 위해 대량의 데이터에서 패턴을 인식하는 병렬 에키텍처 기반의 특수 AI 추론용 GPU를 개발하는 동시에, 레이아웃에선 고속 메모리를 직접 통합해 더 빠른 산술 연산을 꾀하면서 이른바 ‘AI 칩’을 탄생시켰다는 설명이다.

글로벌 시장에서 AI 칩을 선도한다는 건 클라우드 업계에선 특히 더 중요한 의미를 갖는다. 엔비디아의 경우 AI 칩을 자체 클라우드 서비스를 위해 값싸게 조달하면서도 서비스 품질을 끌어올릴 수 있는 반면, AWS 측에선 이를 따라잡기 위해 경쟁사인 엔비디아에 비싼 프리미엄을 지불하고 GPU를 들여와야 하기 때문이다. 다시 말해 엔비디아는 자체적인 AI 칩을 통해 클라우드 시장에서도 가격 경쟁률 측면에서 우위를 가져갈 수 있다는 의미다.

또한 엔비디아는 딥러닝 연구자들이 자사 AI 칩을 효과적으로 활용할 수 있도록 돕는 GPU 개발 툴인 ‘CUDA’를 보유하고 있다. 지난 2007년 출시된 CUDA는 사용자로 하여금 GPU의 자원을 쉽게 활용할 수 있도록 가상 명령어셋과 병렬 처리 요소들을 사용할 수 있게 돕는데, 사실상 엔비디아 생태계의 핵심으로 불린다. 업계에 알려진 바에 따르면 현재 CUDA를 사용하는 AI 개발자는 4백만 명이 넘는다.

이에 질세라 AWS 측에서도 CUDA를 견제하기 위해 2019년 GPU 개발 플랫폼인 뉴런(Neuron)을 출시했으나, 시장에선 압도적으로 CUDA의 손을 들어주는 것으로 보인다. CUDA의 경우 ‘딥러닝 열풍’이 제대로 터지기 훨씬 이전 시점인 2009년부터 빠른 선구안을 취해 업계 개발자들을 해당 플랫폼에 락인(lock-in)시켰기 때문이다. 또한 발 빠르게 개발자들을 확보한 덕분에 CUDA 위에서 실행할 수 있는 라이브러리와 사전 구축된 딥러닝 모델도 뉴런 대비 풍성하다는 평이 업계에선 지배적이다.

즉 엔비디아는 AI 클라우드 플랫폼 측면에서 AWS가 섣불리 넘볼 수 없는 경제적 해자를 이미 구축한 셈이다. 이와 관련해 AI 스타트업 OctoML의 루이스 세제 CEO도 “이미 AI 개발자 커뮤니티 등에서도 거의 대부분 정보들이 CUDA 기준으로 쓰여 있다”며 “엔비디아는 여타 플랫폼 업체도 따라올 수 없는 수준의 소프트웨어 성숙도를 갖추고 있다”고 밝혔다. AWS가 클라우드 1.0 시대를 이끌었다면, 엔비디아는 AI 클라우드 플랫폼을 위시한 클라우드 2.0을 주도할 것이라는 전망이 나오는 이유다.

젠슨 황 엔비디아 CEO/사진=셔터스톡

대응에 나선 AWS

엔비디아가 뒤를 바짝 쫓으며 AWS의 글로벌 클라우드 시장 1위 지위를 위협하고 있는 가운데, AWS도 지속적인 대응을 이어나가고 있는 모습이다. 아마존은 지난 9월 앤스로픽에 약 40억 달러(약 5조4,00억원) 규모를 투자키로 밝혔다. 앤스로픽은 창업자 전원이 챗GPT를 개발한 OpenAI 출신들로 구성돼 있는데, 아마존은 투자 당시 이들 인력을 활용해 ‘생성형 AI 붐’을 일으켰던 챗GPT를 뛰어넘을 차기 LLM을 개발할 계획이라고 밝혔다. 아울러 지난 6월에는 AMD의 AI 반도체인 MI300을 채택할 가능성을 시사하기도 했다.

업계에선 AWS의 이번 투자를 통해 앤스로픽과 선순환 구조를 구축할 수 있을 것으로 보고 있다. 앤스로픽은 LLM 개발을 위해 AWS의 거대 인프라를 활용하는 한편, AWS는 앤스로픽의 고급 인력을 활용해 자사 관련 소프트웨어를 발전시켜 엔비디아와의 클라우드 서비스 경쟁에서 엣지를 확보할 것이라는 설명이다.

앞서 살펴봤듯 그간 AWS는 엔비디아의 AI 반도체에 의존하면서 클라우드 부문에서도 가격 경쟁력에서 뒤처질 가능성이 높았던 것은 물론, AI 반도체 수급 병목 현상에 따라 서비스에 차질을 빚을 우려도 적잖았다. 이런 가운데 엔비디아의 주요 경쟁사인 AMD의 제품을 활용함으로써 관련 잠재적 리스크를 줄이려는 게 AWS의 의도인 것으로 파악된다.

Similar Posts