CXL AI 데이터센터: “GPU 늘리면 된다” 믿으면 메모리 월에 막혀 돈 낭비하는 이유

Published on

in

CXL AI 데이터센터: “GPU 늘리면 된다” 믿으면 메모리 월에 막혀 돈 낭비하는 이유

CXL AI 데이터센터: “GPU 늘리면 된다” 믿으면
메모리 월에 막혀 돈 낭비하는 이유

2026년 MWC에서 SKT와 파네시아가 공개한 CXL 기반 AI 데이터센터 구조 혁신의 핵심을 해설합니다.
GPU를 아무리 쌓아도 ‘메모리 병목’이 해결되지 않으면 비용만 폭증합니다.

📅 2026.03.16 최신
⚡ MWC 2026 발표
🔗 CXL 완전 해설
🏭 SKT × 파네시아 MOU

AI 데이터센터의 불편한 진실: GPU가 남아돌아도 느린 이유

현재 전 세계 AI 데이터센터(AIDC)에서 가장 뜨거운 화두는 GPU 증설이 아니라 연결 구조의 비효율입니다. 대부분의 기업이 AI 모델 성능을 높이려면 GPU를 더 사야 한다고 생각하지만, 실제 현장에서는 GPU가 유휴 상태로 방치되는 시간이 전체의 30~40%에 달하는 경우도 있습니다.

그 이유는 간단합니다. 현재 AI 데이터센터의 서버 구조는 CPU·GPU·메모리가 서버 단위로 물리적으로 고정돼 있기 때문입니다. 한 서버에서 메모리가 부족하면 같은 랙(Rack) 안의 다른 서버에 여유 메모리가 있어도 공유가 불가능합니다. 결과적으로 메모리가 모자라면 메모리만 추가하는 것이 아니라, 불필요한 GPU까지 묶음으로 구매해야 하는 비효율이 반복됩니다.

이 구조적 한계는 AI 모델 규모가 커질수록 더욱 심각해집니다. 대규모 언어모델(LLM)이나 멀티모달 AI는 학습·추론 과정에서 수백 기가바이트에서 수 테라바이트에 달하는 메모리를 순간적으로 요구합니다. 이 수요를 서버 단위의 고정 구조로 감당하려면 천문학적 비용이 따라옵니다.

핵심 포인트: 2026년 AI 인프라 경쟁의 진짜 병목은 GPU 연산 속도가 아니라 메모리와 데이터 이동의 속도 불균형, 즉 ‘메모리 월(Memory Wall)’입니다. CXL AI 데이터센터는 이 문제를 구조 자체를 바꿔 해결하려는 시도입니다.

▲ 목차로 돌아가기

메모리 월(Memory Wall)이란 무엇인가?

‘메모리 월’은 CPU나 GPU가 아무리 빨라져도, 데이터를 공급하는 메모리의 속도와 용량이 따라오지 못해 전체 시스템 성능이 병목에 걸리는 현상을 말합니다. 이 개념은 1990년대부터 컴퓨터 과학계에서 논의됐지만, AI 시대에 들어서 그 심각성이 폭발적으로 커졌습니다.

왜 AI 시대에 더 심각해졌나?

기존 컴퓨팅 작업은 연산 자체가 주된 부담이었습니다. 하지만 AI 학습과 추론은 성격이 다릅니다. GPU는 초당 수천 조 번의 연산을 처리할 수 있지만, 그 연산을 위해 메모리에서 데이터를 불러오는 속도가 이를 받쳐주지 못하면 GPU는 그냥 대기 상태에 빠집니다. 쉽게 말해 엔진은 F1급인데 주유 파이프가 경유차 수준인 셈입니다.

특히 트랜스포머(Transformer) 기반 대형 AI 모델은 어텐션(Attention) 메커니즘 특성상 모델 파라미터 전체를 반복해서 메모리에서 읽어야 합니다. 70B(700억 파라미터) 모델 하나를 추론하는 데 필요한 메모리는 최소 140GB를 넘어서고, 이 데이터를 GPU가 기다리는 동안 연산 효율은 급격히 떨어집니다.

기존 해결책의 한계

지금까지 업계는 메모리 월 문제를 두 가지 방법으로 해결해왔습니다. 첫째는 HBM(High Bandwidth Memory)처럼 GPU 바로 옆에 초고속 메모리를 붙이는 방식이고, 둘째는 GPU를 NVLink 등으로 묶어 분산 처리하는 방식입니다. 하지만 HBM은 GPU당 탑재 가능한 용량에 물리적 한계가 있고, 분산 처리는 노드 간 통신 오버헤드가 발생합니다. 이 두 방법 모두 비용이 기하급수적으로 증가하는 문제를 해결하지 못했습니다.

개인적 견해: 메모리 월은 사실 AI 인프라 업계에서 수년 전부터 인지된 문제였습니다. 그러나 GPU 수요가 폭발하는 시기에는 이 문제가 ‘더 많은 GPU를 사면 된다’는 단순한 논리에 묻혀버렸습니다. 2026년은 GPU 증설만으로는 한계에 봉착했다는 인식이 업계 전반에 확산되는 전환점입니다.

▲ 목차로 돌아가기

CXL(Compute eXpress Link) 완전 해설

CXL(컴퓨트 익스프레스 링크)은 CPU·GPU·메모리·가속기 등 서로 다른 컴퓨팅 자원을 하나의 일관된 고속 통신 프로토콜로 연결하는 차세대 인터커넥트 표준입니다. 인텔이 2019년에 처음 제안했으며, 현재는 삼성전자, 엔비디아, AMD, 구글, 알리바바 등이 참여하는 CXL 컨소시엄이 표준을 관리하고 있습니다.

CXL의 핵심 개념: 서버 벽을 허물다

기존 서버는 CPU, GPU, 메모리가 하나의 서버 박스 안에 갇혀 있습니다. CXL을 적용하면 이 경계가 사라집니다. 랙(Rack) 단위에서 모든 CPU, GPU, 메모리를 하나의 자원 풀(Pool)로 묶고, 각 연산 작업이 필요한 만큼만 자원을 빌려 쓸 수 있습니다. 마치 클라우드의 가상화 개념을 물리적 하드웨어 레벨에서 구현한 것과 같습니다.

CXL 버전별 발전 과정

버전 기반 규격 핵심 기능 주요 특징
CXL 1.0/1.1 PCIe 5.0 CPU↔가속기 연결 기본 I/O 캐시 일관성
CXL 2.0 PCIe 5.0 메모리 풀링 지원 스위치 기반 멀티 호스트 연결
CXL 3.0 PCIe 6.0 패브릭 네트워킹 대역폭 2배, 장치 간 직접 통신
CXL 3.1 PCIe 6.0 향상된 메모리 공유 엔비디아 베라 CPU 지원 예정
CXL 3.2 PCIe 7.0 랙 규모 메모리 풀 파네시아 패브릭 스위치 적용

CXL이 메모리 월을 해결하는 방식

1

메모리 풀링(Memory Pooling): 랙 내 여러 서버의 메모리를 하나의 거대한 메모리 공간으로 통합합니다. 특정 AI 작업에 메모리가 부족하면, 다른 서버의 남는 메모리를 실시간으로 할당해 사용합니다.

2

캐시 일관성(Cache Coherency): CPU와 GPU가 같은 메모리 공간을 공유하면서도 데이터 충돌 없이 일관성을 유지합니다. 소프트웨어 개입 없이 하드웨어 레벨에서 처리되어 오버헤드가 최소화됩니다.

3

직접 연결(Direct Access): 기존 이더넷이나 인피니밴드 네트워크를 경유하는 대신, CXL 링크를 통해 메모리에 직접 접근합니다. 데이터 복사 과정이 사라지고 지연 시간이 대폭 감소합니다.

▲ 목차로 돌아가기

SKT × 파네시아 MOU: 구조를 바꾸면 무엇이 달라지나

2026년 3월 4일, MWC 2026이 열린 스페인 바르셀로나에서 SK텔레콤과 국내 스타트업 파네시아(Panmnesia)가 ‘CXL 기반 차세대 AI 데이터센터 구조’ 공동 개발을 위한 업무협약(MOU)을 체결했습니다. 이것이 단순한 기업 간 협약 이상의 의미를 갖는 이유는, CXL AI 데이터센터라는 개념이 글로벌 수준의 상용화 단계에 진입하고 있다는 신호이기 때문입니다.

파네시아는 어떤 회사인가?

파네시아는 CXL 관련 글로벌 최고 수준의 기술력을 보유한 국내 팹리스(반도체 설계 전문) 스타트업입니다. 핵심 제품은 두 가지입니다. 첫째, 패브릭 링크 스위치는 다수의 CPU·GPU·메모리를 중앙에서 연결하여 데이터 흐름을 통합 관리하는 장치입니다. 둘째, 링크 컨트롤러는 각 장치에 내장되어 CXL 프로토콜로 통신할 수 있게 만드는 반도체입니다. 파네시아는 2025년 11월 PCIe 6.4·CXL 3.2를 지원하는 패브릭 스위치 샘플까지 공개하면서 기술적 선도성을 입증했습니다.

SKT와 파네시아가 만들려는 AI DC의 구조

기존 AI 데이터센터에서 GPU 협업 연산은 이더넷 네트워크를 거쳐 이뤄졌습니다. 이 과정에서 데이터를 복사하고 소프트웨어가 개입하는 지연이 발생했습니다. 양사는 이 경로를 CXL 기반 패브릭 스위치로 대체합니다. 복잡한 소프트웨어 없이 메모리 접근 동작만으로 데이터를 고속 전송하는 구조입니다.

구체적인 로드맵은 다음과 같습니다. 2026년 하반기까지 실제 AI 모델을 구동하며 GPU·메모리 활용률, 지연시간, 처리량을 종합 검증합니다. 이후 연말에 차세대 AI DC 구조를 공식 발표하고, 2027년부터 대형 AI 데이터센터를 대상으로 상용화에 나설 계획입니다.

정석근 SKT AI CIC장의 발언: “AI DC 경쟁력은 GPU 성능 경쟁을 넘어 메모리와 데이터 흐름까지 포함한 시스템 최적화에 달려 있다. 이번 협력은 ‘메모리 월’을 완화해 AI DC 성능과 경제성을 함께 끌어올릴 것이다.”

▲ 목차로 돌아가기

구글·엔비디아도 뛰어든 CXL 생태계 현황

CXL AI 데이터센터는 더 이상 연구소 수준의 개념이 아닙니다. 2026년 현재, 글로벌 빅테크들이 실전 배치에 나서면서 CXL은 AI 인프라의 핵심 표준으로 자리를 잡아가고 있습니다.

구글의 실전 배치

디인포메이션 보도에 따르면 구글은 자사 데이터센터에 CXL 컨트롤러를 실제 배치하기 시작했습니다. 서버 CPU와 대규모 외부 메모리 풀 간 트래픽을 CXL로 조정하는 방식입니다. 구글이 움직이기 시작했다는 사실은 업계 전반에 CXL 도입을 가속시키는 신호로 해석됩니다. 이미 비슷한 행보를 보이는 클라우드 업체들이 나타나고 있습니다.

엔비디아의 전략적 행보

엔비디아는 2026년 하반기 출시 예정인 차세대 CPU ‘베라(Vera)’에서 CXL 3.1을 공식 지원할 예정입니다. 엔비디아가 CXL을 자사 제품에 통합한다는 사실은, AI 가속기 시장의 절대 강자가 이 기술의 미래를 공식적으로 인정한 것과 같습니다. 업계 전문가들은 엔비디아의 베라 CPU가 CXL의 가장 큰 규모 실전 테스트가 될 것이라고 평가합니다.

삼성전자와 SK하이닉스의 대응

국내 메모리 반도체 양대 산맥도 CXL에 적극적으로 대응하고 있습니다. 삼성전자는 이미 레드햇이 인증한 CXL 인프라를 구축했으며, CXL 기반 메모리 모듈 개발에 박차를 가하고 있습니다. SK하이닉스는 CXL 2.0 기반 D램 솔루션인 CMM-DDR5 96GB 제품의 고객 인증을 완료했습니다. 한국이 메모리 반도체 강국이라는 점에서 CXL 생태계에서도 유리한 위치를 점할 가능성이 높습니다.

▲ 목차로 돌아가기

CXL vs HBM: 경쟁인가, 협력인가

CXL이 주목받으면서 “HBM이 대체되는 것 아니냐”는 질문이 많아졌습니다. 결론부터 말씀드리면, CXL과 HBM은 경쟁 기술이 아니라 상호 보완적인 기술입니다. 역할이 근본적으로 다릅니다.

HBM의 역할과 한계

HBM(High Bandwidth Memory)은 GPU 다이 바로 위에 적층되어 초고속 대역폭을 제공하는 메모리입니다. GPU의 연산 속도를 실시간으로 따라가야 하는 가장 ‘가까운’ 메모리로, 현재 엔비디아 H100/H200 등에 필수 탑재됩니다. 단점은 물리적 공간 한계로 인해 GPU당 탑재 가능한 용량이 제한적(현재 최대 288GB 수준)이라는 점입니다.

CXL이 채우는 공간

CXL은 HBM이 채우지 못하는 ‘더 넓은 메모리 공간’을 담당합니다. AI 모델이 작업하는 전체 데이터셋과 중간 결과물을 저장하는 대용량 메모리 계층에서 CXL은 서버 간 경계를 허물어 필요한 만큼 확장 가능하게 만듭니다. 이상적인 구조는 HBM이 초고속 연산을 처리하고, CXL로 연결된 대용량 메모리 풀이 데이터를 공급하는 계층형 메모리 아키텍처입니다.

비교 항목 HBM CXL 메모리
위치 GPU 다이 적층 서버 간 연결(랙 단위)
속도 초고속(TB/s 수준) 고속(수십~수백 GB/s)
용량 소용량(최대 288GB) 대용량(TB 단위 확장 가능)
비용 매우 고가 상대적으로 저렴
역할 초고속 연산 버퍼 대용량 메모리 풀 공급
관계 상호 보완(계층형 구조)

▲ 목차로 돌아가기

2026년 CXL AI 데이터센터의 시사점과 전망

CXL AI 데이터센터의 등장은 단순히 하나의 기술 표준이 바뀌는 것이 아닙니다. AI 인프라 산업 전체의 경쟁 방식을 바꾸는 패러다임 전환입니다. 이 변화가 가져올 시사점을 몇 가지 관점에서 정리해보겠습니다.

① AI 인프라 비용 구조의 변화

현재 AI 데이터센터 구축 비용의 70% 이상을 GPU가 차지합니다. CXL 기반 구조가 확산되면 기존 GPU를 더 효율적으로 활용할 수 있어, 같은 성능을 더 낮은 비용으로 달성하는 것이 가능해집니다. GPU를 무작정 늘리는 ‘하드웨어 군비 경쟁’에서 ‘소프트웨어 + 인터커넥트 최적화’ 경쟁으로 전략의 축이 이동합니다.

② 한국 메모리 반도체 산업의 기회

CXL은 D램과 연산 장치를 연결하는 기술인 만큼, 메모리 강국인 한국에는 분명한 기회입니다. 삼성전자와 SK하이닉스가 CXL 지원 메모리 모듈을 적극적으로 개발하고 있고, 파네시아처럼 CXL 인터커넥트 반도체를 설계하는 국내 스타트업도 글로벌 주목을 받고 있습니다. SKT와 파네시아의 협약이 단순한 국내 통신사와 스타트업의 협력을 넘어 글로벌 AI DC 표준 경쟁에서 한국의 입지를 높이는 전략적 행보로 읽히는 이유입니다.

③ CXL 확산의 현실적 장벽

낙관적인 전망만 늘어놓는 것은 정직하지 않습니다. CXL은 여전히 몇 가지 현실적 장벽이 있습니다. 우선 기존 서버 인프라와의 호환성 문제가 있습니다. CPU, GPU, 메모리, 네트워크 장비가 모두 같은 CXL 버전을 지원해야 하는데, 이를 한꺼번에 교체하려면 상당한 투자가 필요합니다. 또한 CXL을 이더넷 대비 빠른 대역폭으로 구현하기 위한 지연(Latency) 문제도 아직 완전히 해결된 것은 아닙니다. 구글조차 완전히 안착시키지 못한 기술이라는 점을 감안하면, 2026~2027년은 본격 확산의 초입 단계로 보는 것이 현실적입니다.

전망 요약: CXL AI 데이터센터는 2027~2028년부터 하이퍼스케일 데이터센터를 중심으로 본격 채택될 가능성이 높습니다. SKT·파네시아의 연말 결과 발표와 엔비디아 베라 CPU 출시(2026년 하반기)가 이 전환점을 가늠하는 핵심 이정표가 될 것입니다.

▲ 목차로 돌아가기

❓ 자주 묻는 질문 (Q&A)

CXL은 일반 소비자용 PC에도 적용되나요?
CXL은 현재 서버·데이터센터용 기술로 설계되어 있으며, 일반 소비자용 PC에 적용되기까지는 상당한 시간이 필요합니다. 다만 인텔과 AMD가 서버용 CPU에 CXL을 통합하면서 기술 성숙도가 높아지면, 장기적으로는 하이엔드 워크스테이션이나 AI PC에도 유사한 방식의 메모리 확장 기술이 도입될 가능성은 있습니다. 현재 단계에서는 기업용 AI 인프라에 집중된 기술입니다.
파네시아는 어떤 기업이며, 투자 가치가 있나요?
파네시아는 CXL 패브릭 스위치와 링크 컨트롤러 반도체를 설계하는 국내 팹리스 스타트업으로, SKT·오픈칩 등 글로벌 파트너십을 확보하며 기술력을 인정받고 있습니다. 2025년에는 한국에너지대상 국무총리 표창을 수상하기도 했습니다. 단, 비상장 스타트업이므로 직접 주식 투자는 불가능하며, 관련 상장 기업(CXL 수혜주 등)에 관심이 있다면 별도의 투자 분석이 필요합니다. 본 포스팅은 투자 권유가 아님을 밝힙니다.
CXL과 NVLink는 어떻게 다른가요?
NVLink는 엔비디아가 독자적으로 개발한 GPU 간 고속 연결 기술로, 엔비디아 제품 간에만 사용 가능한 독점 표준입니다. 반면 CXL은 인텔, AMD, 삼성, 엔비디아 등이 함께 만드는 개방형 공개 표준으로, 서로 다른 제조사의 CPU·GPU·메모리를 모두 연결할 수 있습니다. NVLink는 GPU 클러스터 내 초고속 연결에 특화되어 있고, CXL은 서버 간 메모리 공유와 자원 풀링에 더 초점이 맞춰져 있어 상호 보완 관계로 볼 수 있습니다.
SKT가 통신사임에도 AI 데이터센터에 투자하는 이유는 무엇인가요?
SKT는 MWC 2026에서 “더 이상 통신사가 아닌 AI 컴퍼니”로의 전환을 선언했습니다. 5G 네트워크가 안정기에 접어들면서 통신 사업 자체의 성장성이 한계에 달했기 때문입니다. SKT는 5G 인프라로 확보한 현금 흐름을 AI 데이터센터, 글로벌 AI 파트너십, AI 모델 개발에 재투자하는 ‘AI 피라미드 전략’을 추진 중입니다. CXL AI 데이터센터 투자는 이 전략에서 AI 인프라 경쟁력을 확보하는 핵심 축에 해당합니다.
CXL이 본격 상용화되면 GPU 제조사에 어떤 영향을 주나요?
단기적으로는 GPU 수요에 큰 변화가 없겠지만, 중장기적으로는 GPU 구매 패턴이 바뀔 수 있습니다. CXL 기반 AI DC가 확산되면 같은 성능을 내기 위해 필요한 GPU의 절대 수량이 줄어들 수 있기 때문입니다. 그러나 엔비디아는 자사 베라 CPU에 CXL 3.1을 지원하면서 CXL 생태계에 적극 편입하고 있습니다. 즉, GPU 시장을 잠식당하는 것이 아니라 CXL 인터커넥트 생태계 안에서 자사 제품의 가치를 높이는 전략을 택하고 있는 것입니다.

▲ 목차로 돌아가기

✍️ 마치며 — CXL AI 데이터센터, 구조가 성능을 이긴다

2026년 현재, AI 인프라 경쟁의 축이 조용히 이동하고 있습니다. GPU를 얼마나 많이 쌓느냐의 경쟁에서, 자원을 얼마나 효율적으로 연결하고 활용하느냐의 경쟁으로 말이죠. CXL AI 데이터센터는 그 이동의 방향을 가장 선명하게 보여주는 기술입니다.

SKT와 파네시아의 MOU는 단순한 보도자료 한 줄이 아닙니다. 국내 통신 1위 기업이 글로벌 CXL 스타트업과 손잡고 AI DC 구조 표준을 직접 만들겠다고 나선 것은, 한국이 AI 인프라 경쟁에서 단순 소비자가 아니라 표준 설계자로 나서겠다는 선언입니다.

물론 CXL AI 데이터센터가 당장 세상을 바꾸지는 않습니다. 아직 생태계 표준화가 진행 중이고, 기존 인프라와의 호환성 문제도 남아 있습니다. 그러나 구글이 실전 배치를 시작했고, 엔비디아가 자사 CPU에 CXL을 품었으며, 한국 기업들이 선도 기업들과 어깨를 나란히 하고 있다는 사실은 분명합니다. 2026년 연말, SKT·파네시아가 공개할 차세대 AI DC 구조 결과물이 이 변화의 실질적인 신호탄이 될 것입니다.

“GPU를 늘리기 전에, 구조를 바꿀 수 있는지 먼저 물어봐야 하는 시대”가 왔습니다.

▲ 목차로 돌아가기

본 포스팅은 공개된 언론 보도 및 공식 보도자료를 바탕으로 작성된 정보 제공 목적의 콘텐츠입니다.
특정 기업의 주식 투자 또는 사업 결정을 권유하는 내용이 아니며, 기술 동향 및 수치는 변경될 수 있습니다.
투자 또는 사업상 의사결정은 반드시 전문가 상담을 통해 진행하시기 바랍니다.
© 2026 All rights reserved.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기