NVLink Fusion, 개방 같지만 속은 이렇습니다

Published on

in

NVLink Fusion, 개방 같지만 속은 이렇습니다

2026.03.17 기준 / GTC 2026 발표 당일

NVLink Fusion, 개방 같지만
속은 이렇습니다

NVIDIA GTC 2026 핵심 발표 — 경쟁사 칩도 쓸 수 있다는데, 실제로는 뭐가 달라질까요

NVLink 6 대역폭 3.6TB/s
72개 ASIC 동시 연결
AWS Trainium4 채택 확정
스펙 비공개 (독점 IP)

NVLink Fusion이 뭔데 이렇게 화제가 됐을까요

NVLink Fusion은 2026년 3월 16일, NVIDIA GTC 2026 기조연설에서 젠슨 황 CEO가 직접 언급한 기술입니다. 핵심은 간단합니다. 기존에는 NVLink — NVIDIA의 GPU 간 초고속 연결 기술 — 를 오직 NVIDIA GPU와 CPU끼리만 쓸 수 있었습니다. 그런데 이제 AWS, 퀄컴, 후지쯔처럼 자체 칩을 만드는 회사들도 NVLink에 연결할 수 있게 됐다는 겁니다. (출처: NVIDIA 공식 블로그, 2026.03.17 기준)

결론부터 말씀드리면, NVLink Fusion은 NVIDIA가 경쟁사에게 문을 “열어준” 게 맞습니다. 그런데 그 문 안쪽으로 들어가면 나오기가 더 어려운 구조입니다. 이게 오늘 포스팅에서 가장 집중하고 싶은 부분입니다.

💡 공식 발표문과 전직 NVIDIA 임원 인터뷰 자료를 함께 놓고 보니, 발표 당일엔 잘 보이지 않던 구조적 차이가 보였습니다.

▲ 목차로 돌아가기

GTC 2026 당일 발표된 핵심 수치들

GTC 2026 기조연설은 2026년 3월 16일 산호세 SAP센터에서 진행됐고, 190개국에서 3만 명이 참석했습니다. NVLink Fusion과 관련해 공개된 수치를 정리하면 이렇습니다.

항목 NVLink Fusion (6세대) PCIe Gen5 대비
ASIC당 대역폭 3.6 TB/s 14배 빠름
동시 연결 ASIC 수 최대 72개 (올-투-올)
도메인 전체 대역폭 260 TB/s NVL72 기준
AI 추론 성능 NVL8 대비 13배↑ GB200 NVL72 vs NVL8 기준

출처: NVIDIA 공식 개발자 블로그 (developer.nvidia.com, 2025.12.02)

ASIC당 3.6TB/s라는 수치가 가진 의미를 한 문장으로 풀면 이렇습니다. 72개의 이질적인 칩을 하나의 GPU처럼 움직이게 만들 수 있다는 뜻이고, 이는 대형 추론 모델(Reasoning Model)에서 지연 없이 수백억 파라미터를 처리할 수 있는 물리적 기반이 됩니다.

기존 5세대 NVLink는 1.8TB/s였는데, 6세대 NVLink Fusion에서 2배로 늘었습니다. (출처: NVIDIA 공식 블로그 KB, 2025.12.02) 이 도약이 AWS Trainium4가 NVLink Fusion을 선택한 결정적 이유이기도 합니다.

▲ 목차로 돌아가기

AWS가 자기 칩 쓰면서 왜 엔비디아를 더 많이 쓰게 됐을까요

이 부분이 사실 가장 흥미롭습니다. AWS는 Trainium이라는 자체 AI 가속기를 만들어 왔습니다. 아마존이 직접 설계한 칩으로 NVIDIA 의존도를 낮추겠다는 전략이었죠. 실제로 Trainium3 UltraServer는 144개 칩을 연결하면 FP8 기준 363~1,452 petaFLOPS를 처리합니다. (출처: The Register, 2025.12.02)

💡 AWS re:Invent 2025에서 발표된 내용을 보면, Trainium4는 Trainium3보다 FP8 기준 3배, FP4 기준 6배 성능이 높습니다. 그런데 이를 실현하려면 NVLink 6와 NVIDIA MGX 랙 아키텍처를 써야 합니다. (출처: The Register, 2025.12.02) — 이는 AWS가 자체 칩을 더 빠르게 만들수록, NVIDIA 랙 생태계에 더 깊이 들어가는 구조입니다.

구체적으로 보면 이렇습니다. AWS는 Trainium4에 NVLink Fusion 칩렛을 내장해 NVLink 스위치에 연결합니다. 그 스위치는 NVIDIA 것입니다. 랙 설계(NVIDIA MGX)도 NVIDIA 사양을 따릅니다. 냉각, 전원, 섀시 구조 역시 NVIDIA OCP MGX 아키텍처 기반입니다. (출처: NVIDIA developer.nvidia.com, 2025.12.02)

결과적으로 AWS는 자기 브랜드의 칩을 쓰면서도, 그 칩이 가장 잘 돌아가려면 NVIDIA 랙 사양을 따라야 하는 상황에 놓였습니다. 탈 NVIDIA를 위해 만든 칩이, NVIDIA 생태계의 일부가 된 셈입니다. AWS 입장에선 성능을 위한 합리적 선택이었겠지만, 이 구조가 굳어지면 다음 세대 칩을 설계할 때도 NVLink와의 호환성을 고려해야 합니다.

▲ 목차로 돌아가기

개방한다고 했는데, 스펙은 공개 안 합니다

NVLink Fusion의 발표 방식을 보면 “개방”이라는 단어가 자주 나옵니다. 실제로 미디어텍, 마벨, 퀄컴, 후지쯔 같은 다양한 파트너가 자기 칩을 NVLink에 연결할 수 있게 됐으니 맞는 말이긴 합니다. 그런데 여기서 중요한 사실이 하나 있습니다.

⚠️ 스펙이 공개되지 않습니다

전직 NVIDIA 고위 임원 인터뷰에 따르면, NVLink Fusion은 특정 파트너에게만 소프트 IP(soft IP)를 제공하며 스펙 자체는 비공개입니다. 파트너가 자기 칩에 NVLink Fusion을 붙이려면 NVIDIA의 C2C(칩 투 칩) 연결 방식까지 써야 합니다. 이 C2C IP는 NVIDIA가 독점하고 있습니다. (출처: UncoverAlpha, 전직 NVIDIA 임원 인터뷰, 2025.08)

쉽게 말하면 이렇습니다. “우리 고속도로에 연결해도 돼요” — 라고 했는데, 연결하려면 반드시 NVIDIA의 특수 커넥터를 써야 하고, 그 커넥터 설계는 비공개라는 구조입니다. 외부에서 독자적으로 호환 제품을 만들 수 없습니다.

반면 경쟁 표준인 UALink는 2025년 4월에 1.0 스펙을 공개 발표했고, 최대 1,024개 가속기를 연결할 수 있는 공개 표준입니다. AMD, Amazon(AWS), Google, Intel, Meta, Microsoft가 컨소시엄에 참여해 있습니다. 이 두 방식의 구조적 차이가 클라이언트(특히 대형 하이퍼스케일러)에게 어떤 의미인지 다음 섹션에서 이어 설명하겠습니다.

▲ 목차로 돌아가기

UALink Consortium을 노린 타이밍이었습니다

NVLink Fusion의 처음 발표일은 2025년 5월 19일, COMPUTEX 2025입니다. 기억해야 할 시점이 있습니다. UALink Consortium이 1.0 스펙을 공식 발표한 날이 2025년 4월 8일입니다. NVLink Fusion 발표는 그로부터 정확히 41일 뒤입니다.

💡 이 타이밍을 UALink Consortium 멤버 명단과 같이 보면 흥미롭습니다. UALink 스위치 공급의 핵심 역할을 맡은 Astera Labs가 NVLink Fusion의 첫 채택 파트너 명단에 동시에 올라 있습니다. (출처: NVIDIA 공식 블로그 / sdxcentral.com, 2025.11.17) Broadcom이 컨소시엄을 이탈하면서 UALink 스위치 공급 경로가 Astera Labs에 집중된 상황에서, NVIDIA가 Astera Labs를 NVLink Fusion 파트너로 끌어들인 구도입니다.

이것이 실제로 UALink 진영을 약화시키는 직접적 수단이 될지는 확인이 필요합니다. 다만 Astera Labs가 양쪽 모두에서 스위치를 공급해야 하는 상황 — 이것이 UALink 컨소시엄 쪽에서도 우려하는 지점임은 업계 내부에서 공공연히 언급되고 있습니다.

GTC 2026에서는 여기서 한발 더 나아가, Vera Rubin NVLink 스위치 트레이(6세대, 400G 커스텀 SerDes)가 NVLink Fusion의 핵심 인프라로 채택됐습니다. 이 스위치를 교체하려면 전체 랙 아키텍처를 다시 설계해야 합니다. 생태계 전환 비용이 세대가 지날수록 더 커지는 구조입니다.

▲ 목차로 돌아가기

그렇다면 NVLink Fusion을 쓰면 안 되는 걸까요

솔직히 말하면, 지금 시점에서 대형 AI 인프라를 구축해야 하는 기업 입장에서 NVLink Fusion을 무시하기는 어렵습니다. 이유는 명확합니다. PCIe Gen5보다 14배 빠른 연결, 72개 ASIC 올-투-올 연결, AI 추론 성능 기존 대비 최대 13배 — 이 수치를 UALink 1.0은 아직 대체할 수 없습니다. (UALink 스위치는 2027년 이후 공급 예정 — 출처: UncoverAlpha, 2025.08)

AWS Trainium4가 NVLink Fusion을 선택한 것도 바로 이 때문입니다. 자체 칩의 성능을 극대화하기 위해 가장 빠른 연결 기술을 선택했고, 그게 지금 현재는 NVLink Fusion입니다. 기대했던 것과 달리 완전 독립적인 인프라는 아니지만, 성능 목표를 달성하는 데는 현실적인 선택입니다.

이 부분이 핵심입니다

NVLink Fusion은 “개방”이 아니라 “조건부 통합”입니다. 파트너는 자기 칩을 쓸 수 있지만, 그 칩이 최고 성능을 내려면 NVIDIA 스위치, NVIDIA 랙, NVIDIA 소프트웨어(Mission Control) 위에서 돌아야 합니다. 단기적으론 성능 이득, 장기적으론 전환 비용 증가 — 이 두 가지를 같이 계산해야 합니다.

실제로 AWS는 Trainium3 기반 인스턴스를 운영하면서도, 같은 시기에 NVIDIA GB300 NVL72 기반 인스턴스를 “고객이 원하니까” 동시에 제공하고 있습니다. (출처: The Register, 2025.12.02) 고객 중 상당수가 NVIDIA 생태계를 벗어나지 않으려 하기 때문입니다. 이 현실이 NVLink Fusion의 영향력을 더 강하게 만드는 배경입니다.

주관적으로 보면, NVLink Fusion은 NVIDIA 입장에서 가장 영리한 한 수입니다. 경쟁사가 자기 칩을 만들어도 결국 NVIDIA 인프라를 써야 최고 성능이 나오는 구조를 만들었습니다. 이 전략이 계속 통할지는 UALink가 얼마나 빨리 성숙하느냐에 달려 있습니다.

▲ 목차로 돌아가기

자주 묻는 질문 (Q&A)

Q1. NVLink Fusion은 언제부터 쓸 수 있나요?

현재(2026.03.17 기준) 미디어텍, 마벨, 알칩, 아스테라 랩스, 시놉시스, 케이던스를 통해 이미 상용 서비스 중입니다. AWS Trainium4와의 통합은 Trainium4 출시 시점에 맞춰 제공됩니다. (출처: NVIDIA 공식 블로그)

Q2. 개인 개발자나 중소기업도 쓸 수 있나요?

NVLink Fusion은 하이퍼스케일러와 맞춤형 ASIC 설계사를 대상으로 하는 인프라 기술입니다. 개인 개발자나 중소기업이 직접 접근하는 기술이 아니며, AWS·구글 클라우드 등을 통한 간접 사용이 현실적인 방식입니다.

Q3. UALink와 NVLink Fusion, 어느 쪽이 더 낫나요?

현재(2026년 3월 기준) 성능만 보면 NVLink Fusion이 압도적입니다. 다만 UALink는 공개 표준이라 공급업체 간 경쟁이 가능합니다. UALink 스위치가 2027년 이후 공급되면 경쟁 구도가 달라질 수 있습니다. 지금 단계에서 어느 쪽이 낫다고 단정하기 어렵습니다.

Q4. 퀄컴과 후지쯔 CPU를 연결한다는 게 어떤 의미인가요?

NVLink Fusion을 통해 퀄컴의 맞춤형 CPU, 후지쯔의 2나노미터 ARM 기반 CPU(FUJITSU-MONAKA)를 NVIDIA GPU와 동일한 NVLink 패브릭에 연결할 수 있습니다. 이로써 x86 CPU 없이도 고성능 AI 팩토리 구성이 가능해집니다. (출처: NVIDIA 공식 블로그, 2026.03.17)

Q5. GTC 2026에서 발표된 Vera Rubin과 NVLink Fusion은 어떤 관계인가요?

Vera Rubin은 NVIDIA의 차세대 GPU 플랫폼(Blackwell Ultra 후속)이고, NVLink Fusion은 이 플랫폼의 스케일업 인터커넥트 인프라입니다. Vera Rubin NVLink Switch 트레이가 NVLink Fusion의 핵심 스위치 장비로 사용됩니다. Vera Rubin은 Blackwell Ultra 대비 추론 성능 5배, 추론 토큰 비용 10배 절감을 목표로 합니다. (출처: Oplexa, GTC 2026 키노트 분석, 2026.03.16)

▲ 목차로 돌아가기

마치며

NVLink Fusion을 한 줄로 정리하면 이렇습니다. “NVIDIA의 생태계를 경쟁사 칩에게도 열었지만, 그 문을 통과하는 순간 NVIDIA 세계 안에 있게 되는 기술”입니다.

AWS Trainium4의 사례가 이를 잘 보여줍니다. 자체 칩을 만들어 탈 NVIDIA를 추구했는데, 그 칩이 최고 성능을 내려면 결국 NVIDIA 스위치, NVIDIA 랙, NVIDIA 소프트웨어를 써야 합니다. 성능 이득을 택하면서 동시에 더 깊은 종속으로 들어간 것입니다.

이것이 나쁜 선택이냐 하면, 꼭 그렇지는 않습니다. 지금 이 시점에서 AI 추론 인프라를 가장 빠르게 구축하는 방법은 NVLink Fusion이 맞습니다. 막상 써보면 성능 지표에서 현재 대안이 없습니다. 다만 장기 전략 관점에서 전환 비용이 세대마다 커진다는 점, 스펙 비공개로 인해 NVIDIA 이외의 선택지가 구조적으로 제한된다는 점은 계속 지켜봐야 할 부분입니다.

UALink Consortium이 2027년 이후에 실질적인 경쟁력을 갖추게 된다면, 그때 이 구도가 어떻게 바뀌는지가 다음 관전 포인트입니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. NVIDIA 공식 블로그 — 맞춤형 AI 인프라 위한 새로운 NVIDIA NVLink Fusion 출시
    https://blogs.nvidia.co.kr/blog/nvidia-nvlink-fusion-semi-custom-ai-infrastructure-partner-ecosystem/
  2. NVIDIA Developer Blog — AWS Integrates AI Infrastructure with NVIDIA NVLink Fusion for Trainium4 Deployment
    https://developer.nvidia.com/blog/aws-integrates-ai-infrastructure-with-nvidia-nvlink-fusion-for-trainium4-deployment/
  3. The Register — Amazon to fuse Nvidia’s NVLink into Trainium4 accelerators (2025.12.02)
    https://www.theregister.com/2025/12/02/amazon_nvidia_trainium/
  4. UncoverAlpha — AI Compute: Nvidia’s Grip and AMD’s Chance (전직 NVIDIA 임원 인터뷰 포함, 2025.08)
    https://www.uncoveralpha.com/p/ai-compute-nvidias-grip-and-amds
  5. Oplexa — Jensen Huang GTC 2026 Keynote: Everything NVIDIA Announced (2026.03.16)
    https://oplexa.com/jensen-huang-gtc-2026-keynote-nvidia-announcements/
  6. NVIDIA 공식 제품 페이지 — NVLink Fusion
    https://www.nvidia.com/ko-kr/data-center/nvlink-fusion/


⚠️ 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 본 포스팅은 2026년 03월 17일 기준으로 작성되었으며, NVIDIA GTC 2026 발표 당일 공개 자료 및 공식 문서를 바탕으로 했습니다. IT/AI 서비스 특성상 업데이트로 내용이 달라질 수 있으니 주요 의사결정 전 반드시 공식 채널을 직접 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기