DGX Station GB300, 직접 따져봤습니다 — 748GB의 현실

Published on

in

DGX Station GB300, 직접 따져봤습니다 — 748GB의 현실

2026.03.20 기준 / GTC 2026 발표 기준

DGX Station GB300, 직접 따져봤습니다 — 748GB의 현실

2026년 3월 16일, 엔비디아는 GTC 키노트에서 DGX Station GB300의 공급 시작을 선언했습니다. “책상 위의 AI 슈퍼컴퓨터”라는 수식어와 함께 748GB 통합 메모리, 20페타플롭스 연산 성능, 1조 파라미터 모델 로컬 구동이라는 숫자들이 쏟아졌습니다. 그런데 그 숫자 뒤에 있는 현실은 조금 다릅니다.

748GB
통합 코히어런트 메모리
20 PFLOPS
FP4 기준 AI 연산
6개사
공급 파트너 (ASUS·Dell·HP 등)
수억 원
예상 가격대 (미공개)

GTC 2026에서 무슨 일이 있었나

2026년 3월 16일부터 19일까지 미국 캘리포니아 산호세 SAP 센터에서 열린 GTC 2026에는 190개국 3만 명이 현장 참석했습니다. 젠슨 황 CEO는 키노트 중반에 DGX Station을 언급하면서 단순한 하드웨어 발표가 아니라, AI 에이전트 시대의 로컬 인프라라는 맥락에서 소개했습니다. (출처: NVIDIA 공식 블로그 Korea, 2026.03.16)

핵심은 이겁니다. 그동안 DGX Station은 발표만 됐고 실제로 팔리지는 않았습니다. 2025년 GTC 2025에서 처음 공개됐을 때 출시 예상은 ‘2025년 하반기’였습니다. 실제로 데스크톱 케이스에 GB300 칩과 메인보드를 집어넣는 작업이 생각보다 어려웠다고 엔비디아가 기자 브리핑에서 밝혔습니다. (출처: PCMag, 2026.03.17) 그게 GTC 2026에서야 공급 시작을 알린 배경입니다.

현재 ASUS, Dell, HP, Gigabyte, MSI, Supermicro 6개 회사가 각자의 이름을 붙인 DGX Station 모델의 주문을 받기 시작했습니다. 각 모델명은 다르지만 안에 들어가는 GB300 Grace Blackwell Ultra 슈퍼칩은 동일합니다.

▲ 목차로 돌아가기

748GB라고 다 같은 메모리가 아닙니다

DGX Station GB300의 가장 눈길을 끄는 수치는 단연 748GB의 통합 코히어런트 메모리입니다. 그런데 이 748GB는 단일 종류의 메모리가 아닙니다. 공식 스펙을 보면 GPU 쪽에 최대 288GB HBM3e(8TB/s), CPU 쪽에 최대 496GB LPDDR5X(396GB/s)로 나뉩니다. (출처: NVIDIA DGX Station 공식 사양 페이지)

💡 공식 스펙과 실제 대역폭을 같이 놓고 보니 이런 차이가 보였습니다.

HBM3e(GPU 메모리)는 초당 8TB를 처리하지만, LPDDR5X(CPU 메모리)는 396GB/s입니다. 속도 차이가 20배 이상입니다. 748GB 전체에 동일한 대역폭이 적용된다고 가정하면 완전히 잘못된 계산이 나옵니다. 대형 LLM이 CPU 메모리 쪽까지 걸쳐 있으면, HBM3e 부분의 속도 이점이 절반 이상 희석됩니다.

이와 비교할 때 Mac Studio M3 Ultra의 192GB 통합 메모리는 종류 구분 없이 동일한 대역폭이 적용됩니다. 절대 용량은 DGX Station이 압도적으로 크지만, 메모리 대역폭 효율 측면에서는 단순 비교가 불가합니다. 1조 파라미터 모델을 돌리려면 DGX Station이 맞지만, 700억 파라미터 모델의 추론 속도만 본다면 DGX Station이 무조건 빠르다는 보장은 없습니다.

항목 DGX Station GB300 DGX Spark (GB10) Mac Studio M3 Ultra
통합 메모리 748GB 128GB 최대 192GB
GPU 메모리 종류 HBM3e (288GB) LPDDR5X LPDDR5X 통합
AI 연산 성능 (FP4) 20 PFLOPS 1 PFLOPS 약 0.1~0.15 PFLOPS
예상 가격 수억 원 (미공개) 약 4,000달러 약 3,500~5,000달러
지원 OS NVIDIA DGX Base OS DGX Base OS macOS

출처: NVIDIA 공식 스펙 페이지(2026.03), AI타임스(2026.03.16), PCMag(2026.03.17) / Mac Studio 수치는 추정

▲ 목차로 돌아가기

DGX Spark와 무엇이 다를까 — 4,000달러와의 간극

DGX Station을 이해하려면 먼저 DGX Spark와 비교해야 합니다. DGX Spark는 2025년 10월 출시된 미니 PC 형태의 AI 슈퍼컴퓨터로 가격은 약 4,000달러(약 580만 원)입니다. GB10 Grace Blackwell 슈퍼칩과 128GB 통합 메모리를 탑재해 최대 200억 파라미터 모델을 로컬에서 구동합니다. (출처: NVIDIA 공식 발표, Ars Technica, 2025.10)

DGX Station은 이 DGX Spark의 “형님 버전“입니다. 칩은 GB10에서 GB300으로 커졌고, 메모리는 128GB에서 748GB로 늘었습니다. 그리고 가격은 아직 공식 발표가 없지만, Reddit LocalLLaMA 커뮤니티에서는 50,000달러 이상 혹은 수십만 달러까지 갈 수 있다는 의견이 나옵니다. AI타임스는 업계 예상치로 10만 달러(약 1억 4,600만 원) 수준을 언급했습니다. (출처: AI타임스, 2025.03.20 / Reddit r/LocalLLaMA, 2025.03.27)

두 제품이 공통으로 사용하는 것이 있습니다. 바로 소프트웨어 스택입니다. NemoClaw, OpenClaw 에이전트 플랫폼, NVIDIA AI Enterprise, CUDA-X AI 라이브러리 — 이 모든 게 동일하게 작동합니다. DGX Spark에서 개발하고 테스트한 AI 에이전트 코드를 DGX Station으로 이전할 때 코드 수정이 거의 필요 없습니다. 이 점이 엔비디아가 설계한 생태계의 핵심 포인트입니다.

💡 DGX Spark와 DGX Station의 가격 격차는 10배 이상이지만, 소프트웨어 스택은 동일합니다.

엔비디아의 전략을 거꾸로 읽으면 이렇습니다. DGX Spark로 개발하고, 필요해지면 DGX Station으로 확장하고, 그다음엔 GB300 NVL72 클라우드 혹은 데이터센터로 이전한다. 단계별 업그레이드 경로를 하드웨어와 소프트웨어 양쪽에서 막아놓은 구조입니다.

▲ 목차로 돌아가기

NemoClaw: 소프트웨어가 하드웨어보다 중요한 이유

GTC 2026에서 DGX Station과 함께 발표된 소프트웨어가 NemoClaw입니다. NemoClaw는 NVIDIA의 Nemotron AI 모델과 OpenShell 런타임을 하나로 묶은 오픈소스 스택입니다. 핵심은 단일 명령어 하나로 전체 스택을 오픈클로(OpenClaw)에 설치할 수 있다는 점입니다. (출처: AI타임스, 2026.03.16)

OpenShell이 특히 중요합니다. 정책 기반 보안, 네트워크 샌드박스, 개인정보 보호 라우팅을 적용해 AI 에이전트가 에어갭 환경에서도 동작하도록 합니다. 쉽게 말하면, 외부 인터넷에 연결되지 않는 폐쇄망에서도 DGX Station 위에서 AI 에이전트를 안전하게 구동할 수 있습니다.

PCMag 보도에 따르면 OpenClaw 자체는 이미 좋지 않은 사례가 있었습니다. 메타 보안 연구진이 OpenClaw AI 에이전트가 실수로 이메일을 삭제한 사례를 확인했다고 밝혔습니다. NemoClaw의 OpenShell이 이 문제를 줄이기 위해 설계됐지만, 완전한 해결책인지는 아직 실제 운영 데이터가 없습니다. 공식 문서에서도 별도의 실측 수치를 제공하지 않고 있습니다. (출처: PCMag, 2026.03.17)

NemoClaw가 포함하는 주요 구성 요소

Nemotron 모델
엔비디아 자체 LLM 패밀리
OpenShell 런타임
정책 기반 보안 샌드박스
NVIDIA Agent Toolkit
에이전트 빌드 프레임워크
OpenClaw 연동
단일 명령어 설치

▲ 목차로 돌아가기

“개인용”이지만 개인은 살 수 없는 장비

젠슨 황 CEO는 키노트에서 DGX Station을 “개인 AI 슈퍼컴퓨터”라고 불렀습니다. 크리에이티브 전문가용 워크스테이션 이후 개인 컴퓨팅에서 가장 중요한 혁신이라는 수식어도 붙였습니다. 그런데 초기 고객 명단을 보면 스노플레이크, 마이크로소프트, 코넬대학교, 전력연구소, 메디비스입니다. 개인 개발자가 아닙니다. (출처: AI타임스, 2026.03.16)

가격이 공개되지 않았지만, 업계 예상치는 10만 달러(약 1억 4,600만 원) 이상입니다. Reddit LocalLLaMA 커뮤니티에서는 5만 달러 이상 가능성을 언급한 이후 50만 달러 이상이라는 의견도 나왔습니다. 비교하자면, GB300이 들어가는 데이터센터용 GB300 NVL72 시스템은 단일 랙만 해도 수백만 달러 수준입니다. 그 칩을 데스크톱에 넣었으니 가격이 내려가긴 하겠지만, 일반 개발자가 사기엔 여전히 현실적이지 않습니다.

💡 “개인용”이라는 표현을 마케팅 언어가 아니라 기술 범주로 읽어야 합니다.

DGX Station이 “개인용”인 이유는 한 명이 혼자 쓸 수 있다는 의미가 아닙니다. 데이터센터 랙 단위 시스템이 아니라 단일 박스 단위라는 뜻입니다. 실제 타겟은 팀 단위 AI 연구실, 기업 내부 AI 인프라, 규제 산업(의료·금융)의 에어갭 환경입니다. 전력 소비도 DGX Station 수준의 장비는 일반 사무실 전력 구성으로는 운용이 어렵습니다.

그럼에도 불구하고 이 장비가 의미 있는 이유가 있습니다. 기존에 1조 파라미터급 모델을 로컬에서 돌리려면 수천만 달러짜리 데이터센터 장비가 필요했습니다. DGX Station은 그 장벽을 여전히 높지만 크게 낮췄습니다. 방향은 맞습니다. 가격만 문제입니다.

▲ 목차로 돌아가기

로컬 AI 시대, 파인만 아키텍처까지 이어지는 로드맵

GTC 2026에서 DGX Station과 함께 공개된 더 큰 그림이 있습니다. 현재 DGX Station에 들어간 GB300은 Blackwell Ultra 아키텍처입니다. 젠슨 황은 같은 키노트에서 그 다음 세대인 Vera Rubin 플랫폼, 그리고 그다음의 Feynman(파인만) 아키텍처까지 로드맵을 공개했습니다. (출처: NVIDIA Korea 공식 블로그, 2026.03.16)

Vera Rubin은 에이전틱 AI를 위한 풀스택 플랫폼으로, 7개의 새로운 칩과 5개의 랙 스케일 시스템으로 구성됩니다. 여기에는 새로운 Vera CPU와 BlueField-4 STX 스토리지 아키텍처가 포함됩니다. Feynman 세대에는 Rosalind Franklin의 이름을 딴 Rosa CPU가 새로 등장합니다. LP40 LPU와 BlueField-5, ConnectX-10을 NVIDIA Kyber로 연결하는 구조입니다.

로드맵의 방향은 명확합니다. 매 세대마다 추론 효율(토큰당 비용)을 낮추고, 에이전트가 더 오래 더 복잡한 작업을 수행할 수 있게 인프라를 확장하는 것입니다. 젠슨 황은 키노트에서 “소프트웨어와 실리콘을 동시에 설계하는 긴밀한 공동 설계(Extreme Co-Design)가 토큰당 비용을 세계 최저로 만든다”고 말했습니다. 이 전략이 GB300 DGX Station에도 그대로 적용됩니다.

엔비디아 칩 아키텍처 로드맵 (2024~2027+)

세대 아키텍처 주요 칩 시기
현재 Blackwell Ultra GB300 2025~2026
차세대 Vera Rubin Vera CPU + Rubin GPU 2026~2027
차차세대 Feynman Rosa CPU + LP40 LPU 2027+

출처: NVIDIA GTC 2026 키노트 발표 (2026.03.16, NVIDIA Korea 공식 블로그)

한 가지 솔직한 지적을 하자면, 지금 DGX Station GB300을 구매하는 기업은 Vera Rubin 세대가 나오면 이미 구형 장비를 갖게 됩니다. 엔비디아의 1~2년 주기 신아키텍처 발표 패턴이 이 장비에도 그대로 적용됩니다. 장기 투자 관점에서 정말 이 장비가 필요한 워크로드인지 먼저 따지는 게 맞습니다.

▲ 목차로 돌아가기

Q&A — 자주 묻는 5가지

Q1. DGX Station GB300은 언제부터 구매할 수 있나요?

2026년 3월 GTC 발표 이후 ASUS, Dell, HP, Gigabyte, MSI, Supermicro 6개사가 주문 접수를 시작했습니다. 엔비디아는 기자 브리핑에서 “수 주 내 출하 시작”이라고 밝혔습니다. 다만 가격은 공개하지 않았고, 관심 있는 고객은 각 제조사 폼을 통해 문의해야 합니다. (출처: PCMag, 2026.03.17)

Q2. 748GB 메모리로 어떤 크기의 AI 모델을 돌릴 수 있나요?

엔비디아 공식 발표에 따르면 1조(1 Trillion) 파라미터 모델을 로컬에서 구동할 수 있습니다. 실제로 일반적인 FP16 정밀도 기준 1조 파라미터 모델은 약 2TB의 메모리가 필요합니다. DGX Station은 FP4 혹은 FP8 양자화를 통해 이를 748GB 안에 담을 수 있습니다. 정밀도 손실이 발생하며, 이는 작업 유형에 따라 성능에 영향을 줄 수 있습니다.

Q3. NemoClaw를 DGX Spark에서도 쓸 수 있나요?

네, 맞습니다. NemoClaw는 DGX Spark, DGX Station뿐 아니라 NVIDIA GPU가 탑재된 노트북에서도 작동합니다. 엔비디아가 명시적으로 이를 밝혔습니다. (출처: PCMag, 2026.03.17) 4,000달러짜리 DGX Spark에서 NemoClaw를 먼저 테스트해보고, 더 큰 워크로드가 필요하면 DGX Station으로 올라가는 경로가 현실적입니다.

Q4. DGX Station에서 어떤 운영체제가 돌아가나요?

NVIDIA DGX Base OS가 기본입니다. Ubuntu Linux 기반으로, NVIDIA 가속 컴퓨팅에 최적화된 드라이버, 진단 도구, 모니터링 소프트웨어가 포함돼 있습니다. Windows나 macOS는 지원되지 않습니다. 일반 데스크톱 작업용이 아니라 AI 개발·추론 전용 플랫폼이라는 점을 명확히 인식해야 합니다. (출처: NVIDIA 공식 스펙 페이지)

Q5. DGX Station이 나왔는데 이제 클라우드 AI는 필요 없어지나요?

그렇지 않습니다. DGX Station은 에어갭 환경, 보안이 필수인 규제 산업, 반복적인 파인튜닝 작업에서 강점을 보입니다. 반면 클라우드는 탄력적 확장과 초대형 훈련 워크로드에서 여전히 비용 효율적입니다. 엔비디아 본인도 DGX Station에서 개발한 코드를 DGX Cloud로 확장하는 경로를 공식 워크플로우로 제시하고 있습니다. 대체가 아니라 역할 분담입니다.

▲ 목차로 돌아가기

마치며

DGX Station GB300은 분명히 인상적인 장비입니다. 748GB 통합 메모리, 20페타플롭스 연산, 1조 파라미터 모델의 로컬 구동. 숫자만 보면 압도됩니다. 그런데 실제로 이 장비가 필요한 사람이 누구인지를 따지면 이야기가 달라집니다.

외부 클라우드로 내보낼 수 없는 민감한 데이터를 다루면서, 1조 파라미터에 가까운 모델이 필요하고, 에이전트가 24시간 자율적으로 돌아야 하는 환경. 이 조건을 모두 만족하는 조직이라면 DGX Station은 합리적인 선택지입니다. 하지만 그 조건에 해당하지 않는다면, 4,000달러짜리 DGX Spark에서 시작하거나 클라우드 API로 충분합니다.

개인적으로 GTC 2026에서 가장 주목할 만한 발표는 하드웨어 스펙이 아니라 NemoClaw와 OpenShell이라고 봅니다. 하드웨어는 비싸고 바뀌지만, 소프트웨어 스택의 방향성은 DGX Spark부터 DGX Station까지 일관되게 이어집니다. 그 스택이 익숙해지면, 장비가 무엇이든 적용할 수 있게 됩니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. NVIDIA DGX Station 공식 제품 페이지 —
    https://www.nvidia.com/ko-kr/products/workstations/dgx-station/
  2. NVIDIA Korea 공식 블로그 — GTC 2026 키노트 정리 (2026.03.16) —
    https://blogs.nvidia.co.kr/blog/gtc-2026-news-keynote/
  3. PCMag — “Nvidia Opens Orders for DGX Station, Introduces NemoClaw at GTC” (2026.03.17) —
    https://www.pcmag.com/news/nvidia-opens-dgx-station-orders-introduces-nemoclaw-gtc
  4. AI타임스 — “엔비디아, 에이전트 시대 개인용 인프라 ‘DGX 스테이션’ 공개” (2026.03.16) —
    https://www.aitimes.com/news/articleView.html?idxno=207970
  5. NVIDIA Korea 블로그 — DGX Spark & DGX Station 발표 원문 (2025.03.19) —
    https://blogs.nvidia.co.kr/blog/nvidia-announces-dgx-spark-and-dgx-station-personal-ai-computers/

본 포스팅은 2026년 3월 20일 기준으로 작성됐습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 가격을 포함한 제품 세부 사양은 NVIDIA 공식 채널 및 각 파트너사를 통해 최신 정보를 확인해 주세요.


댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기