coredot.today
NVIDIA GTC 2026 완전 해부: 젠슨 황이 그린 AI의 다음 10년
블로그로 돌아가기
NVIDIAGTC 2026Vera RubinBlackwell UltraGroq LPU로보틱스Physical AIDGX Spark

NVIDIA GTC 2026 완전 해부: 젠슨 황이 그린 AI의 다음 10년

7개의 칩, 5개의 랙, 1대의 슈퍼컴퓨터. 2026년 3월, 젠슨 황은 '1조 달러의 수주'를 선언하며 AI 컴퓨팅의 새 시대를 열었다. Vera Rubin부터 우주 컴퓨팅까지 — GTC 2026 키노트의 모든 것을 해부한다.

코어닷투데이2026-03-2545

들어가며: 가죽 재킷의 남자, 1조 달러를 말하다

2026년 3월 16일, 산호세 컨벤션센터. 가죽 재킷을 입은 남자가 무대에 올랐다. NVIDIA CEO 젠슨 황. 그는 올해도 역시 숫자로 시작했다.

"지난 몇 년간 컴퓨팅 수요가 100만 배 증가했습니다."

그리고 이 숫자를 던졌다: Blackwell과 Vera Rubin에 대한 누적 구매 주문이 2027년까지 1조 달러에 달할 것이라고. 1년 전 그가 예고한 5,000억 달러의 정확히 두 배다.

이 글은 3시간에 가까운 GTC 2026 키노트에서 쏟아진 발표들을 체계적으로 정리하고, 왜 이런 것들이 나왔는지, 어떤 맥락에서 이해해야 하는지를 풀어본다. 칩부터 로봇, 게임 그래픽부터 우주 컴퓨팅까지 — NVIDIA가 그린 AI의 다음 10년을 해부한다.


1장: GPU 전쟁의 역사 — 왜 NVIDIA가 여기까지 왔는가

GTC 2026의 발표들을 이해하려면, 먼저 NVIDIA가 어떻게 "AI 시대의 인텔"이 되었는지를 알아야 한다.

게임 회사에서 AI 인프라 기업으로

1999: GeForce 256
세계 최초의 "GPU" 브랜딩. 게임 그래픽 전용
2006: CUDA 출시
GPU를 범용 병렬 계산에 개방. 젠슨 황의 가장 중요한 결정
2012: AlexNet의 승리
NVIDIA GPU로 학습한 딥러닝이 이미지 인식 대회 압도. AI 붐 시작
2017~2022: V100 → A100 → H100
데이터센터 GPU가 게임 GPU보다 중요해짐. AI 학습 인프라의 표준
2024: Blackwell (B200)
AI 추론 최적화. "학습" 시대에서 "추론" 시대로 전환
2026: Vera Rubin + Groq 3
7개 칩, 5개 랙 — "AI 팩토리" 시대 본격 개막

핵심 전환점은 2006년 CUDA의 출시다. 당시 게임 회사로만 보였던 NVIDIA가 GPU를 과학 계산, 시뮬레이션, 머신러닝에 개방한 것이다. 이 결정이 없었다면 2012년 AlexNet도, 2017년 트랜스포머도, 2022년 ChatGPT도 없었을 것이다.

그리고 2024~2026년, 또 한 번의 전환이 일어났다. AI의 핵심 워크로드가 학습(training)에서 추론(inference)으로 이동한 것이다. 모델을 만드는 것보다 만든 모델을 수십억 명이 동시에 사용하는 것이 더 큰 컴퓨팅 수요가 된 것이다.

젠슨 황은 이렇게 선언했다: "우리는 추론의 왕이다(We're the inference king)."

GTC 2026의 모든 발표는 이 맥락에서 이해해야 한다.


2장: Vera Rubin — AI 슈퍼컴퓨터의 새 기준

이름의 의미

베라 루빈(Vera Rubin, 1928-2016) 은 미국의 천문학자로, 암흑 물질(dark matter) 의 존재를 관측적으로 입증한 인물이다. 은하의 회전 속도가 보이는 물질만으로는 설명 불가능하다는 것을 발견했고, 이는 우주 질량의 85%가 보이지 않는 물질이라는 혁명적 결론으로 이어졌다.

NVIDIA가 차세대 플랫폼에 그의 이름을 붙인 것은 상징적이다 — AI 모델이 학습하는 데이터의 패턴, 보이지 않는 구조를 찾아내는 것과 루빈이 보이지 않는 물질의 존재를 밝혀낸 것이 닮아 있다.

7개의 칩, 5개의 랙, 1대의 슈퍼컴퓨터

Vera Rubin은 단일 칩이 아니다. 7개의 전문화된 칩이 하나의 시스템으로 작동하는 랙 스케일 아키텍처다.

Vera Rubin 플랫폼 — 7개의 칩
Rubin GPU 3,360억 트랜지스터 50 PFLOPS 추론 / 35 PFLOPS 학습. 288GB HBM4. Blackwell 대비 추론 5배, 학습 3.5배
Vera CPU 88 Olympus 코어 Arm v9.2. 1.5TB LPDDR5X. Grace 대비 메모리 대역폭 2.4배, 용량 3배
NVLink 6 스위치 260 TB/s per NVL72 GPU당 3.6 TB/s. SHARP 네트워크 내 연산으로 all-reduce 트래픽 50% 감소
ConnectX-9 SuperNIC 800 Gb/s GPU당 1.6 Tb/s. 800 Gb/s 인라인 암호화
BlueField-4 DPU 64코어 Grace CPU 내장 128GB 메모리. KV 캐시 관리(ICMS). BlueField-3 대비 네트워크 2배, 스토리지 2배
Spectrum-6 스위치 102.4 Tb/s 실리콘 포토닉스 내장. 전력 효율 5배, 가동 시간 5배 향상
Groq 3 LPU 200억 달러 인수의 결실 128GB 온칩 SRAM. 추론 디코드 특화. Blackwell 대비 와트당 토큰 생성 35배

숫자로 보는 세대 간 도약

50 PFLOPS Rubin GPU 추론 성능 NVFP4 기준
288 GB HBM4 메모리 GPU당
22 TB/s 메모리 대역폭 Blackwell의 2.8배
10배 추론 토큰 비용 절감 vs. Blackwell

왜 7개 칩인가? — "AI 팩토리"라는 개념

과거의 GPU는 하나의 칩이었다. 좋은 GPU를 사서 서버에 꽂으면 끝이었다. 하지만 2026년의 AI 워크로드는 단일 칩으로 감당할 수 없다.

GPT-4급 모델을 추론하는 과정을 생각해 보자:

  1. 사용자의 질문이 들어온다 → 네트워크(ConnectX-9)
  2. 질문이 토큰으로 변환되고, KV 캐시에서 이전 맥락을 불러온다 → DPU(BlueField-4)의 ICMS
  3. 모델의 전문가(expert)들이 분산 처리된다 → NVLink 6로 GPU 간 통신
  4. 프리필(prompt 처리)과 디코드(토큰 생성)가 분리된다 → Rubin GPU + Groq 3 LPU
  5. CPU가 전체 오케스트레이션을 담당한다 → Vera CPU
  6. 랙 간 통신이 필요하면 → Spectrum-6 이더넷

비유: 자동차를 만들 때, 과거에는 엔진(GPU) 하나만 좋으면 됐다. 하지만 현대의 전기차는 배터리, 모터, BMS, 충전 시스템, 자율주행 컴퓨터가 하나의 통합 시스템으로 작동한다. Vera Rubin은 AI의 "전기차 플랫폼"이다.

Groq 3 LPU — 200억 달러의 도박이 만든 7번째 칩

GTC 2026에서 가장 의외의 발표. NVIDIA가 2025년 12월에 200억 달러에 인수한 Groq의 기술이 벌써 칩으로 나왔다.

Groq의 LPU(Language Processing Unit)는 기존 GPU와 근본적으로 다르다:

GPU (Rubin)LPU (Groq 3)
메모리288GB HBM4 (외장)128GB SRAM (온칩)
강점학습 + 프리필디코드(토큰 생성)
설계 철학범용 병렬 처리추론 디코드 특화
핵심 메트릭FLOPS와트당 토큰 수

GPU가 "모든 것을 잘하는 만능 선수"라면, LPU는 "한 가지를 극도로 빠르게 하는 전문가"다. NVIDIA는 이 둘을 같은 랙에 넣어 협업하게 만들었다 — Rubin GPU가 프리필(입력 처리)을 담당하고, Groq 3 LPU가 디코드(출력 생성)를 담당한다.

결과: Blackwell 단독 대비 와트당 토큰 생성 35배 향상. 추론 비용이 사실상 한 자릿수로 떨어진다.


3장: Blackwell Ultra (GB300) — 지금 당장 쓸 수 있는 것

Vera Rubin이 2026년 하반기 출하를 목표로 하는 반면, Blackwell Ultra(GB300)는 지금 바로 쓸 수 있다.

208억 트랜지스터 GPU당
15 PFLOPS FP4 성능 Dense
288 GB HBM3e 12단 스택
~30만 달러 DGX B300 단가

Blackwell Ultra의 핵심 혁신은 NVFP4 정밀도다. FP8 대비 메모리 사용량을 약 1.8배 줄이면서도 FP8에 가까운 정확도를 유지한다. 이것이 왜 중요한가?

AI 모델의 추론 비용에서 가장 큰 부분은 메모리다. 모델의 가중치(weight)를 GPU 메모리에 올려야 하기 때문이다. 정밀도를 FP8 → FP4로 낮추면 같은 메모리에 거의 2배 큰 모델을 올릴 수 있다. 즉, 같은 하드웨어로 더 강력한 모델을 더 싸게 돌릴 수 있다.

GB200 대비 주요 향상:

  • GPT-4급 학습 처리량: 35% 향상
  • LLM 추론 토큰 생성: 45~50% 향상
  • 같은 랙(NVL72)에 1.5배 더 많은 AI 성능

4장: DGX Station GB300과 DGX Spark — AI가 책상 위로 내려온다

GTC 2026에서 가장 실생활에 가까운 발표는 데스크톱 AI 슈퍼컴퓨터였다.

DGX Station GB300: 책상 위의 슈퍼컴퓨터

DGX Station GB300 핵심 스펙
CPU: 72코어 Grace
GPU: Blackwell Ultra (20,480 CUDA 코어)
메모리: 748GB 통합 (496GB LPDDR5X + 252GB HBM3e)
AI 성능: 최대 20 PFLOPS (FP4)
모델 지원: 1조 파라미터까지
전력: 1,600W
출하: 2026년 3월
파트너: ASUS, Dell, GIGABYTE, MSI, Supermicro

1조 파라미터 모델을 책상 위에서 돌린다. 불과 2년 전만 해도 데이터센터 한 랙이 필요했던 작업이다.

첫 수령자 중 한 명은 안드레이 카르파시(Andrej Karpathy) — 전 OpenAI/Tesla AI 디렉터로, 3월 6일에 이미 받았다.

DGX Spark: 개발자용 AI PC

과거 Project DIGITS로 알려졌던 제품의 정식 출시.

1 PFLOPS AI 성능 (FP4) GB10 Superchip
128 GB 통합 메모리 시스템
~$2,999 시작 가격 개발자용
15×15×5cm 크기 손바닥 위 슈퍼컴퓨터

200B 파라미터 모델을 로컬에서 실행할 수 있고, 최대 4대까지 클러스터링도 가능하다. Acer, ASUS, Dell, GIGABYTE, HP, Lenovo, MSI에서 판매한다.

왜 이것이 중요한가: AI 민주화의 실질적 도구

클라우드 GPU 비용은 여전히 비싸다. H100 하나를 한 시간 쓰는 데 35달러, 한 달이면 수천 달러다. DGX Spark가 $2,999이라면, 클라우드 비용 23개월치로 영구적으로 소유할 수 있는 AI 인프라를 얻는 셈이다.

이것은 특히 스타트업, 대학 연구실, 개인 개발자에게 의미가 크다. 프라이버시가 중요한 데이터(의료, 법률, 금융)를 클라우드에 올리지 않고도 로컬에서 강력한 AI를 돌릴 수 있다.


5장: 에이전트 AI — "모든 회사에 OpenClaw 전략이 필요하다"

GTC 2026에서 젠슨 황이 가장 강조한 메시지 중 하나:

"세계의 모든 기업은 OpenClaw 전략을 가져야 합니다."

NemoClaw와 OpenShell — 에이전트에 갑옷을 입히다

AI 에이전트가 코드를 실행하고, 파일을 수정하고, API를 호출하는 시대. 가장 큰 문제는 보안이다. 에이전트가 잘못된 명령을 실행하거나, 민감한 데이터에 접근하면?

NVIDIA의 답:

  • NemoClaw: 엔터프라이즈급 AI 에이전트 스택
  • OpenShell Runtime: 에이전트를 격리된 샌드박스에서 실행
  • Privacy Router: 로컬 + 클라우드 모델 하이브리드 접근, 프라이버시 제어
  • 네트워크 가드레일: 정책 기반 접근 제어
hljs language-bash
openshell sandbox create --remote spark --from openclaw

한 줄이면 안전한 에이전트 환경이 만들어진다.

Nemotron 3 — NVIDIA의 자체 AI 모델 가족

NVIDIA는 더 이상 "칩만 파는 회사"가 아니다. 자체 모델도 만든다.

모델용도
Nemotron 3 Ultra프론티어급 추론. Blackwell에서 NVFP4로 5배 처리량
Nemotron 3 Omni오디오 + 비전 + 언어 멀티모달
Nemotron 3 VoiceChat실시간 동시 듣기/응답 (ASR + LLM + TTS 통합)

도입 기업: CodeRabbit, CrowdStrike, Cursor, Factory, ServiceNow, Perplexity, Automation Anywhere.

Nemotron 연합 — 6개 파운데이션 모델 가족

NVIDIA는 단일 언어 모델이 아니라, 6개 도메인별 파운데이션 모델 가족을 운영한다:

Nemotron 연합 — 6대 모델 가족
Nemotron 언어/추론 범용 언어 이해, 에이전트 AI
Cosmos 세계/비전 물리 세계 이해, 합성 데이터 생성
Isaac GR00T 로보틱스 인간형 로봇, 매니퓰레이션
Alpamayo 자율주행 추론 기반 VLA, 체인 오브 소트 의사결정
BioNeMo 생물학/화학 단백질 구조 예측, 신약 발견
Earth-2 기상/기후 기후 시뮬레이션, 날씨 예측

이것은 NVIDIA의 전략적 전환을 보여준다. "칩을 팔아라" → "플랫폼을 팔아라" → "AI 팩토리 전체를 팔아라." 칩, 네트워크, 소프트웨어, 모델까지 수직 통합하는 것이다.


6장: Dynamo 1.0 — AI 팩토리의 운영체제

칩이 하드웨어라면, Dynamo는 그 위에서 돌아가는 운영체제다.

NVIDIA Dynamo 1.0
정체: AI 팩토리를 위한 분산 추론 운영체제 (오픈소스)
출시: 2026년 3월 16일
전신: Triton Inference Server

핵심 기능: 비분리 서빙(Disaggregated Serving)
추론 과정의 프리필(입력 처리)과 제너레이션(출력 생성)을 서로 다른 GPU에서 분리 실행한다. 프리필은 계산 집약적이고, 제너레이션은 메모리 집약적이다 — 같은 GPU에서 하면 한쪽이 항상 놀게 된다.

성능:
— DeepSeek-R1 on GB200 NVL72: GPU당 30배 더 많은 토큰
— GB300 NVL72 + Dynamo: MoE 처리량 Hopper 대비 50배

비유: 식당에서 주방장 한 명이 주문 받기, 재료 손질, 요리, 플레이팅을 다 하면 비효율적이다. Dynamo는 주문 접수 팀, 재료 준비 팀, 조리 팀, 서빙 팀으로 분업시키는 주방 관리 시스템이다.

도입 기업: ByteDance, CoreWeave, DigitalOcean, Meituan, Pinterest, SoftBank, Tencent Cloud, Together AI, Vultr 등.


7장: Physical AI — 로봇이 현실로 나온다

GTC 2026에서 가장 눈으로 보기 인상적인 세션은 로보틱스였다.

디즈니의 올라프: 100% AI로 움직이는 캐릭터 로봇

디즈니 올라프 로봇 — 숫자로 보기
크기: 높이 89cm, 무게 15kg
학습: 가상 올라프 10만 개를 2일 만에 학습 (RTX 4090 1대)
시뮬레이터: 디즈니 자체 Kamino 시뮬레이터
특징: 자유 보행, 관객 인식, 감정 표현
데뷔: 2026년 3월 29일, 디즈니랜드 파리 "World of Frozen"

RTX 4090 한 대로 2일 만에 학습한 로봇이 디즈니랜드에서 자유롭게 걸어다닌다. 이것이 Physical AI의 현재 수준이다.

Isaac GR00T — 인간형 로봇의 두뇌

  • GR00T N1.7: 오픈 추론 VLA(Vision-Language-Action) 모델. 상업적 라이선스 가능
  • GR00T N2 (프리뷰): 세계 행동 모델(World Action Model). 새로운 태스크 성공률이 기존 최고 VLA 대비 2배. MolmoSpaces와 RoboArena에서 1위. 2026년 말 출시

Newton 물리 엔진 1.0

NVIDIA, Google DeepMind, 디즈니 리서치가 공동 개발하고 Linux Foundation이 관리하는 오픈소스 물리 엔진.

매니퓰레이션 태스크 속도 비교
MuJoCo (기존)
Newton 1.0 475×

기존 로봇 시뮬레이션 표준인 MuJoCo 대비 475배 빠르다. NVIDIA Warp + OpenUSD 기반.

로보틱스 파트너 생태계

산업 로봇 4대 기업인 FANUC, ABB, YASKAWA, KUKA(전 세계 200만 대 이상)가 모두 NVIDIA 플랫폼을 채택했다. 여기에 Boston Dynamics, Figure, Agility, 1X, AGIBOT, Foxconn, Universal Robots까지.

Hugging Face는 Isaac/GR00T를 LeRobot 프레임워크에 통합했다 — NVIDIA 로보틱스 개발자 200만 명과 Hugging Face AI 빌더 1,300만 명이 연결된다.

젠슨 황의 선언:

"Physical AI가 도래했다 — 모든 산업체가 로보틱스 기업이 될 것이다."


8장: 자율주행 — Uber와의 역사적 파트너십

10만 대, 28개 도시, 4개 대륙

100,000 목표 차량 수 Uber 로보택시
28개 도시 4개 대륙, 2028년까지
2,000+ FP4 TFLOPS 차량당 컴퓨트
1,700시간 멀티모달 데이터셋 25개국

NVIDIA와 Uber의 로보택시 파트너십:

  • DRIVE AGX Hyperion 10 + DRIVE AGX Thor SoC(Blackwell 기반)
  • 카메라 14개, 레이더 9개, 라이다 1개, 초음파 센서 12개
  • LA와 SF에서 2027년 상반기 시작
  • Alpamayo 1.5: 체인 오브 소트 방식의 추론 기반 자율주행 의사결정 VLA

추가 AV 파트너: BYD, 현대/기아, 닛산, 지리(Geely), 이스즈, 스텔란티스, 루시드, 메르세데스-벤츠.

NVIDIA Halos — AI 안전 인증 프로그램

NVIDIA가 직접 만든 물리적 AI 안전 인증 시스템. ANSI 인가, ISO/IEC 17020 검사 기관. TUV SUD에서 ASIL D 인증. 창립 멤버: Bosch, Nuro, Wayve.

이것은 NVIDIA가 단순히 칩을 파는 것에서 안전 표준까지 정의하는 단계로 진입했음을 의미한다.


9장: DLSS 5 — "그래픽의 GPT 모멘트"

게이머들도 빈손으로 돌아가지 않았다.

DLSS 5 — AI 뉴럴 렌더링
핵심: 실시간 AI 기반 포토리얼 렌더링. 장면의 의미(캐릭터, 머리카락, 천, 피부, 환경광)를 이해하고 렌더링
성능: 4K 해상도, 16ms 게임 프레임 내 실시간 처리
출시: 2026년 가을 (RTX 50 시리즈)

확정 타이틀 (16개 이상):
Starfield, Assassin's Creed Shadows, Resident Evil Requiem, Oblivion Remastered, AION 2, Hogwarts Legacy, Delta Force, Phantom Blade Zero, NARAKA: BLADEPOINT 등

개발 파트너: Bethesda, CAPCOM, NetEase, NCSOFT, Tencent, Ubisoft, Warner Bros. Games

젠슨 황은 이를 "그래픽의 GPT 모멘트" 라 불렀다. 기존 DLSS가 해상도 업스케일링에 집중했다면, DLSS 5는 장면 자체를 AI가 이해하고 다시 그리는 수준이다.

다만 커뮤니티 반응은 엇갈렸다 — 라이브스트림에서 82,000건 이상의 부정적 반응이 나왔다. 기술 자체의 인상적임과 별개로, 실제 게임에서의 아티팩트나 지연 우려가 있다.


10장: 미래 로드맵 — 2027년, 2028년

젠슨 황은 3년치 로드맵까지 공개했다.

2026 H1: Blackwell Ultra (GB300)
출하 중. 15 PFLOPS. NVFP4
2026 H2: Vera Rubin
7개 칩, 5개 랙. 50 PFLOPS. HBM4
2027 H2: Vera Rubin Ultra
4개 컴퓨트 칩렛. 1TB HBM4E. Kyber 아키텍처 144 GPU. 15 exaFLOPS
2028: Feynman
리처드 파인만의 이름. TSMC 1.6nm. 3D 다이 스태킹. NVLink-8. 코패키지드 옵틱스

Feynman(2028) 이 특히 주목할 만하다:

  • TSMC A16 1.6nm — NVIDIA 최초의 2nm 이하 칩
  • 3D 다이 스태킹 — NVIDIA 최초의 적층 GPU 다이
  • 코패키지드 실리콘 포토닉스 — 전기 신호 대신 빛으로 칩 간 통신
  • Rosa CPU (로잘린드 프랭클린의 이름)
  • LP40 (차세대 LPU), BlueField-5, CX10

매년 새 세대 — 이것이 젠슨 황이 말하는 "무어의 법칙은 끝났지만, NVIDIA의 법칙은 시작됐다" 의 의미다.


11장: 우주와 산업의 엣지 — AI의 프론티어

우주 컴퓨팅: Space-1

"우주 컴퓨팅, 마지막 프론티어가 도래했습니다." — 젠슨 황

Space-1 Vera Rubin 모듈
성능: H100 대비 우주 기반 추론 25배
기반: IGX Thor + Jetson Orin
전력: 태양광
제약: SWaP (크기, 무게, 전력) 최적화

파트너: Aetherflux, Axiom Space, Kepler Communications, Planet Labs, Sophia Space, Starcloud

위성에서 촬영한 이미지를 지구로 전송하고 → 데이터센터에서 분석하고 → 다시 위성으로 결과를 보내는 대신, 위성 자체에서 AI 추론을 실행한다. 실시간 재난 감지, 기상 분석, 농업 모니터링이 가능해진다.

IGX Thor: 산업 현장의 AI

공장, 병원, 철도에서 작동하는 산업용 엣지 AI 컴퓨터.

  • 최대 5,581 FP4 TFLOPS
  • IGX Orin 대비 8배 높은 AI 성능
  • ISO 26262 ASIL D/SC3 기능 안전 인증
  • 도입처: Caterpillar, Hitachi Rail, J&J, Medtronic, CERN, Planet Labs

12장: 클라우드 파트너십과 AI 팩토리

DSX — AI 팩토리의 청사진

NVIDIA는 AI 데이터센터 자체를 제품화했다.

DSX 구성요소역할
DSX Max-Q동적 전력 프로비저닝. 고정 전력 데이터센터에 30% 더 많은 인프라
DSX Flex그리드 유연 운영. 유휴 전력 100GW 활용
DSX AirAI 팩토리의 디지털 트윈 시뮬레이션. 짓기 전에 소프트웨어로 테스트
DSX Exchange컴퓨트, 네트워크, 에너지, 냉각의 통합 관리

AI 팩토리를 건설하기 전에 가상으로 먼저 지어보고, 최적화하고, 그 다음에 물리적으로 짓는다. 이것이 Omniverse DSX Blueprint의 핵심이다.

주요 클라우드 파트너

  • AWS: 2026년부터 100만 개 이상의 NVIDIA GPU 배치. Blackwell, Rubin, Groq 3 LPU 포함
  • Microsoft Azure: 수십만 대의 액체 냉각 Grace Blackwell GPU. Vera Rubin NVL72 최초 지원
  • Oracle: AI Database 26ai에 NVIDIA cuVS 벡터 검색 통합

13장: 큰 그림 — NVIDIA가 진짜 하려는 것

GTC 2026의 발표들을 개별적으로 보면 "더 빠른 칩, 더 많은 메모리, 더 좋은 로봇"의 나열로 보인다. 하지만 전체를 조망하면 하나의 전략적 비전이 보인다.

NVIDIA의 풀 스택 전략

실리콘 계층
Rubin GPU + Vera CPU + Groq LPU + NVLink + ConnectX + BlueField + Spectrum
시스템 계층
NVL72 랙, DGX Station, DGX Spark, IGX Thor, Space-1
소프트웨어 계층
CUDA, Dynamo, NIM, Omniverse, Isaac Sim, Newton
모델 계층
Nemotron, Cosmos, GR00T, Alpamayo, BioNeMo, Earth-2
플랫폼 계층
NemoClaw, OpenShell, Halos, DSX, OSMO

NVIDIA는 더 이상 "GPU 제조사"가 아니다. 실리콘부터 AI 모델, 안전 인증, 데이터센터 설계까지 — AI 가치 사슬의 모든 층을 소유하려 한다.

이것은 1990~2000년대의 인텔 전략과 놀랍도록 닮아 있다. 인텔은 CPU만 파는 것이 아니라, 칩셋, 메인보드 설계, 컴파일러(ICC), 수학 라이브러리(MKL), 그리고 "Intel Inside" 마케팅까지 통합했다. NVIDIA는 같은 것을 AI 시대에 하고 있다. 차이가 있다면, NVIDIA의 스택이 훨씬 더 깊고 넓다는 것이다.

경쟁의 지형

NVIDIA의 지배력은 확고하지만, 도전자들도 있다:

경쟁자접근법강점
AMD (MI400)GPU + ROCm 소프트웨어가격 경쟁력, 메모리 용량
Google (TPU v6)자체 ASIC + JAX 생태계클라우드 통합, 학습 효율
자체 칩 (AWS Trainium, MS Maia)클라우드 종속 ASIC자사 서비스 최적화
스타트업 (Cerebras, SambaNova, Etched)특화 아키텍처특정 워크로드 최적화

하지만 NVIDIA의 CUDA 생태계 — 수백만 개발자, 수만 개의 라이브러리, 20년의 소프트웨어 축적 — 이 만든 해자(moat)는 여전히 깊다. GTC 2026에서 보여준 것처럼, NVIDIA는 이 해자를 칩에서 전체 플랫폼으로 확장하고 있다.


마치며: 젠슨 황이 남긴 8가지 메시지

GTC 2026 키노트에서 젠슨 황이 던진 핵심 메시지를 정리하면:

  1. "컴퓨팅 수요가 100만 배 증가했다" — AI가 만든 수요는 역사상 어떤 기술 수요보다 크다
  2. "우리는 추론의 왕이다" — 학습에서 추론으로의 패러다임 전환을 NVIDIA가 주도한다
  3. "모든 기업에 OpenClaw 전략이 필요하다" — AI 에이전트가 선택이 아닌 필수가 된다
  4. "Physical AI가 도래했다" — 디지털 AI에서 물리적 AI로의 확장이 시작됐다
  5. "우주 컴퓨팅, 마지막 프론티어가 도래했다" — AI의 영역이 지구를 넘어선다
  6. "DLSS 5는 그래픽의 GPT 모멘트" — 게임 렌더링도 AI가 근본적으로 바꾼다
  7. "7개 칩, 5개 랙, 1대의 슈퍼컴퓨터" — 단일 칩 시대의 끝, 시스템 시대의 시작
  8. 1조 달러 수주 전망 — AI 인프라 투자는 아직 초기 단계다

GTC는 매년 열리지만, 2026년의 GTC는 특별하다. NVIDIA가 더 이상 "더 빠른 칩"을 파는 것이 아니라, "AI 문명의 인프라"를 구축하고 있다는 것을 가장 명확히 보여준 순간이기 때문이다.

2024년에 젠슨 황은 "가속 컴퓨팅의 티핑 포인트"를 말했다. 2025년에는 "에이전트 AI의 시대"를 선언했다. 2026년에 그가 보여준 것은 — 칩부터 우주까지, 게임부터 의료까지, 데스크톱부터 데이터센터까지 — AI가 닿는 모든 곳에 NVIDIA가 있겠다는 야심이다.

다음 GTC에서 젠슨 황은 또 무엇을 들고 나올까. 그의 가죽 재킷 주머니에는 늘 예상 못한 것이 들어 있으니까.


이 글은 2026년 3월 16일 GTC 키노트 및 NVIDIA 공식 뉴스룸, 개발자 블로그, 기술 미디어의 보도를 기반으로 작성되었습니다.