IT·테크

엔비디아, GTC 2026에서 AI 제국 로드맵을 펼치다

임새봄

IT·테크 담당 편집기자

·수정 12분 전·3·739단어
엔비디아GTC2026VeraRubin
공유:

엔비디아, GTC 2026에서 'AI 제국' 로드맵을 펼치다

엔비디아(Nvidia)가 2026년 3월 16일 개막한 GTC 2026에서 차세대 Vera Rubin 아키텍처와 AI 에이전트 플랫폼을 공개했다. FY2026(2026년 1월 마감) 연간 매출은 2,159억 달러로 전년 대비 65% 성장했다. 시가총액은 약 4.8조 달러에 달한다.

GPU 회사가 아니라 AI 인프라 전체를 지배하는 플랫폼 기업으로의 전환이 한층 뚜렷해졌다.

Vera Rubin, Blackwell 이후의 다음 수는?

GTC 2026의 핵심은 Vera Rubin 아키텍처다. 7개 칩, 5개 랙스케일 시스템, 1개 슈퍼컴퓨터로 구성된 풀스택 플랫폼이다. 에이전틱 AI(Agentic AI) 인프라 — 자율적으로 판단하고 행동하는 AI 에이전트 — 를 위해 설계됐다.

더 흥미로운 것은 차차세대 Feynman 아키텍처의 공개다. Rosa CPU, 차세대 LP40 LPU, BlueField-5 네트워킹 칩, Kyber 연결 기술까지 공개하면서, 엔비디아가 최소 2~3세대 앞의 로드맵을 이미 확보하고 있음을 보여줬다.

DGX Station GB300도 주목할 만하다. 책상 옆에 놓을 수 있는 데스크사이드 슈퍼컴퓨터로, 748GB 코히런트 메모리와 FP4 20 페타플롭스 성능을 갖추고 있다. 1조 파라미터 모델까지 단일 시스템에서 돌릴 수 있다.

젠슨 황 CEO는 Blackwell과 Vera Rubin을 통한 2025~2027년 누적 매출이 최소 1조 달러에 달할 것이라고 전망했다.

CUDA 해자는 여전한가, 균열이 보이나?

CUDA 생태계는 여전히 엔비디아의 가장 강력한 경쟁 우위다. 400만 명 이상의 개발자, 3,000개 이상의 최적화 애플리케이션, 모든 주요 AI 프레임워크 통합 — 20년간 축적된 생태계를 단기간에 대체하기는 어렵다.

하지만 균열이 보이기 시작했다.

엔비디아의 데이터센터 GPU 시장 점유율은 2024년 약 90%에서 2026년 약 86%로 하락했고, 2026년 말에는 75%까지 떨어질 것이라는 전망이 나온다. AMD의 MI355X는 벤치마크 기준 B200 대비 추론 성능이 30% 빠르고, 달러당 토큰 처리량이 40% 우수하다는 평가를 받고 있다. AMD ROCm 7도 이전 버전 대비 추론 성능이 3.5배 향상됐다.

구글 TPU는 2025년 250만 유닛을 출하했고, 아마존 Trainium2는 50만 개 칩 규모의 시설을 구축했다. OpenAI의 Triton 컴파일러, MLIR 등 하드웨어 비종속 소프트웨어 스택도 발전하면서, CUDA 종속에서 벗어나려는 움직임이 가속화되고 있다.

엔비디아의 대응은 공격적이다. 260억 달러 규모의 오픈소스 AI 투자를 단행하며, CUDA 옆에 새로운 생태계 해자를 구축하고 있다. 200억 달러에 인수한 추론 전문 기업 Groq의 첫 칩 'Groq 3 LPU'도 2026년 3분기 출하 예정이다.

DGX 클라우드 전략은 왜 바뀌었나?

흥미로운 변화가 하나 있다. 엔비디아가 외부 고객 대상 퍼블릭 DGX Cloud 서비스 확대를 사실상 중단했다. 대신 내부 AI 모델 개발과 칩 설계 지원 인프라로 전환하는 쪽을 택했다.

GPU를 직접 팔아서 돈을 버는 것이 클라우드 서비스로 임대하는 것보다 마진이 훨씬 높다는 판단이 작용한 것으로 보인다. H100 GPU의 매출총이익률은 88%에 달한다. 제조원가 3,320달러에 판매가 28,000달러다. 클라우드 서비스를 운영하면서 인프라 관리 비용을 떠안기보다, AWS·애저·구글 클라우드에 GPU를 대량 공급하는 모델이 더 효율적이라는 결론이다.

대신 소프트웨어 플랫폼은 강화하고 있다. NIM(Nvidia Inference Microservice)으로 기업들이 엔비디아 플랫폼 위에서 AI를 배포하게 하고, NemoClaw/OpenClaw로 AI 에이전트 시장을 공략한다. Nemotron Coalition은 6개 프론티어 모델 패밀리(언어/추론, 월드/비전, 로보틱스, 자율주행, 바이오, 기후)를 출범시켰다.

중국 수출, H20에서 H200으로 어떻게 바뀌었나?

중국 시장은 복잡한 전개를 겪고 있다. 트럼프 행정부가 2025년 4월 H20 칩 수출을 금지하면서 FY2026 1분기에 45억 달러의 일회성 비용이 발생했다. 이후 중국이 자체 AI 칩 개발 경쟁을 벌이자, 미국이 제한을 일부 완화해 수출을 재개하는 흐름이 이어졌다.

중국 당국은 H20 칩에 미국으로의 데이터 유출이 가능한 백도어가 존재할 수 있다며 정부·국가안보 영역 사용을 금지했다. 엔비디아는 주요 협력사에 H20 칩 생산 중단을 요청한 상태다.

GTC 2026에서 젠슨 황은 "많은 중국 고객에 H200 칩을 라이선스했다"며 H200 수출 재개를 선언했다. 화웨이 어센드 칩이 중국 내수 시장을 빠르게 잠식하는 상황에서, 완전히 빈손으로 남겨두기보다 일부 고성능 칩 수출로 시장 존재감을 유지하려는 전략이다.

SK하이닉스·삼성, HBM4 전쟁의 승자는?

엔비디아의 확장은 한국 반도체 산업과 직결된다. SK하이닉스와 삼성전자 모두 2026년 2월 HBM4 양산을 시작했다. 엔비디아 차세대 Rubin 가속기 출시 일정에 맞춘 전략적 결정이다.

HBM 시장 점유율은 빠르게 변하고 있다. 2025년 기준 SK하이닉스 62%, 마이크론 21%, 삼성 17%였으나, 삼성이 3분기에 35%까지 급등했다. GTC 2026 현장에서 삼성과 SK하이닉스가 HBM 주도권 쟁탈전을 벌이는 모습이 포착됐다.

젠슨 황이 GTC에서 "생큐 삼성(Thank you Samsung)"이라고 발언하며 HBM뿐 아니라 파운드리까지 AI 동맹을 전면 확대하겠다는 뜻을 내비친 것도 주목할 만하다. SK하이닉스는 2026년 설비투자를 30조 원대 중반으로 잡았고, 용인 클러스터에 600조 원 규모 초대형 투자를 진행 중이다.

HBM4 공급 물량의 90% 이상을 삼성과 SK하이닉스가 담당할 전망이다. 양사 합산 2026년 영업이익은 200조 원 이상이 될 것으로 추정된다. SK하이닉스의 2024년 영업이익이 약 23조 원을 기록한 데는 HBM 특수가 결정적이었다.

AI 투자 사이클, 지속 가능한가?

가장 근본적인 리스크는 AI 인프라 투자의 지속 가능성이다. 마이크로소프트, 구글, 아마존, 메타 등 빅테크 기업들이 AI에 연간 수천억 달러를 쏟아붓고 있다. 마이크로소프트만 해도 2025 회계연도 AI 관련 자본 지출을 약 500억 달러로 책정했다.

하지만 투자 대비 수익이 입증되지 않으면 지출을 줄일 가능성이 있다. 이미 일부 애널리스트는 "AI 인프라 투자의 ROI(투자수익률)가 불투명하다"는 지적을 내놓고 있다. FY2026 4분기 매출은 681억 달러로 전년 동기 대비 약 78% 증가했지만, 성장률 둔화가 시작되면 시장 반응은 냉정해질 수 있다.

엔비디아 생태계 안에서 한국 메모리 반도체의 위상은 그 어느 때보다 높다. 하지만 엔비디아가 플랫폼 기업으로 진화할수록, 단순 부품 공급을 넘어 파트너십의 깊이가 경쟁력을 결정하게 된다.

관련 기사