📡 2026.03.11 기준 최신 정보
딥시크 R2, 결국 안 나온 진짜 이유 —
V4로 이름 바꿔 더 세게 온다
1년 넘게 출시설만 무성했던 딥시크 R2의 실체가 드러났습니다. 2026년 3월 3일, 중국 최대 정치행사 양회 개막일에 V4라는 이름으로 공개된 이 모델은 챗GPT 대비 50분의 1 수준의 이용료를 예고하고 있습니다.
파라미터 1조 개 규모
화웨이 칩 자립 선언
멀티모달 지원
딥시크 R2, 왜 1년이 지나도 안 나왔나
2025년 1월, 딥시크가 R1을 선보이며 전 세계를 충격에 빠뜨렸습니다. 미국 AI 칩 수출 규제를 뚫고 챗GPT와 맞먹는 성능을 훨씬 낮은 비용으로 구현했다는 사실은 엔비디아 주가를 하루에 17% 끌어내릴 만큼 파괴력이 컸습니다. 그 직후부터 후속 모델 ‘딥시크 R2‘에 대한 기대감이 급격히 쌓이기 시작했습니다.
그러나 2025년 4월부터 중국 매체들을 통해 돌기 시작한 R2 출시설은 한 번도 현실이 되지 못했습니다. ‘5월 출시설’, ‘8월 출시설’, ‘춘제 출시설’이 연달아 나왔지만, 정작 딥시크의 공식 발표는 없었습니다. 한국에서도 관련 뉴스가 수차례 보도됐지만 매번 ‘연기’로 끝났습니다.
출시가 지연된 핵심 이유는 화웨이 AI 칩 ‘어센드(Ascend)’의 성능 한계였습니다. 중국 정부는 미국 제재에 맞서 딥시크에 엔비디아 칩 대신 자국산 칩을 쓰도록 사실상 강제했습니다. 그런데 화웨이 어센드로 모델을 훈련시켜 보니 원하는 품질이 나오지 않았습니다. 파이낸셜타임스는 2025년 8월, “딥시크가 화웨이 칩을 이용한 훈련에서 어려움을 겪어 R2 출시를 연기했다”고 보도했습니다.
💡 인사이트: 딥시크 R2 출시 지연은 단순한 기술 문제가 아니라, 중국 ‘기술 자립’ 정책과 기업 현실 사이의 충돌을 보여줍니다. 정부 지시를 따르면서도 성능을 유지하려는 딜레마가 1년 이상 모델 출시를 막았습니다.
R2 대신 V4? 이름이 바뀐 진짜 사연
2026년에 접어들면서 ‘R2’ 출시설 대신 ‘V4’ 출시설이 등장했습니다. 이 두 모델이 사실상 같은 개발 계획의 연장선인지, 아니면 별개의 모델인지를 놓고 업계에서 논란이 이어졌습니다. 결론부터 말하면, 딥시크 R2는 추론 특화 모델의 후속작이고, V4는 범용(General Purpose) 차세대 모델로, 개발 방향이 달라진 것입니다.
R1이 추론(Reasoning)에 특화된 모델이었다면, V4는 R 계열이 아닌 V 계열로 명명된 만큼 텍스트, 이미지, 영상 등을 모두 처리하는 멀티모달 범용 모델입니다. 즉 딥시크는 R2를 내놓는 대신, 추론 능력에 멀티모달과 코딩 특화 기능을 더한 더 야심찬 모델로 방향을 틀었습니다. 로이터통신에 따르면 딥시크는 결국 2026년 3월 3일, 중국 최대 정치행사 양회 개막일에 맞춰 V4를 공개했습니다.
공개 날짜마저 치밀하게 계산됐습니다. 딥시크는 앞서 R1도 트럼프 대통령 취임식 당일(2025년 1월 20일)에 공개했습니다. V3는 2024년 크리스마스에 출시했습니다. 이번 V4도 양회라는 중국 최대 정치 행사에 맞춰 ‘기술 굴기’의 상징으로 활용했다는 점이 흥미롭습니다.
📌 정리: 딥시크 R2를 기다렸다면, V4가 그 기대를 흡수한 모델입니다. 다만 추론 전용이 아닌 멀티모달 범용 모델로 진화했다는 점에서 훨씬 더 큰 도전장을 내밀었다고 볼 수 있습니다.
딥시크 V4의 핵심 기술: mHC와 엔그램
딥시크는 V4 출시에 앞서 2026년 초부터 두 가지 핵심 기술 논문을 연달아 공개했습니다. 창업자 량원펑이 공동 저자로 직접 이름을 올린 이 논문들은 고성능 GPU 없이도 대형 AI 모델을 훈련하고 구동할 수 있는 새로운 방법론을 제시합니다.
① mHC — 좋은 칩 없이도 안정적으로 훈련한다
mHC(매니폴드 제약 초연결, Manifold-constrained Hyperconnectivity)는 AI 신경망 레이어 간의 연결 방식을 병렬 ‘초연결’ 구조로 바꾸면서도, 연산이 폭발적으로 복잡해지지 않도록 수학적 ‘제약’을 걸어두는 기술입니다. 2024년 바이트댄스가 제안한 초연결 아키텍처를 발전시킨 것으로, 화웨이 어센드처럼 엔비디아만큼 강력하지 않은 칩에서도 AI 훈련 불안정성을 줄이고 연산 효율을 높이는 데 최적화되어 있습니다.
② 엔그램(Engram) — 고정 지식은 메모리로, 추론은 별도로
엔그램은 AI가 매번 복잡한 연산을 통해 꺼내야 했던 ‘고정적인 지식'(예: 수도는 서울이다, 물은 H₂O다)을 DRAM에 직접 저장하고 꺼내는 방식으로 분리합니다. 동적인 추론 작업과 정적인 지식 검색을 나눔으로써, 전체 연산 부담을 획기적으로 줄입니다. 이 덕분에 상대적으로 낮은 사양의 GPU로도 훨씬 큰 모델을 구동할 수 있게 됩니다.
| 기술 | 핵심 역할 | 효과 |
|---|---|---|
| mHC | 병렬 초연결 + 수학적 제약 | 저사양 칩에서도 안정적 훈련 |
| 엔그램 | 정적 지식 ↔ 동적 추론 분리 | 연산 부담 감소, 비용 절감 |
| MoE | 필요한 전문가만 활성화 | 대형 모델 운용 비용 최소화 |
챗GPT의 50분의 1 — AI 가격 전쟁의 새 폭탄
딥시크 R2 출시 지연 동안 업계가 가장 주목했던 것은 ‘성능’이 아니라 ‘가격’이었습니다. 미국 AI 분석회사 웨이브스피드AI 등의 분석에 따르면, V4의 예상 이용료는 100만 토큰당 출력 기준 약 0.25달러(한화 약 369원)입니다. 이는 단순한 숫자가 아닙니다.
📊 주요 AI 모델 이용료 비교 (100만 토큰 출력 기준)
• 딥시크 V4(예상) — $0.25 (약 369원)
• 딥시크 V3.2(현재) — $0.42 (약 621원)
• GPT-5.2 — $14 (약 20,700원)
• 구글 제미나이 3.1 — $12 (약 17,740원)
• Claude Opus 4.5 — $15 (약 22,185원)
100만 토큰은 약 75만 단어, 즉 책 수백 권에 해당하는 분량입니다. GPT-5.2 대비 약 56배 저렴하고, 현재 딥시크 V3.2보다도 40% 이상 낮습니다. 이 가격이 현실화된다면 기업들이 AI를 도입하는 데 드는 비용 장벽은 사실상 무너집니다. 스타트업이나 중소기업도 대규모 AI 활용이 가능해지는 구조가 만들어집니다.
물론 이 수치는 아직 예상치입니다. 하지만 딥시크가 R1 때도 공개 전 예상을 뛰어넘는 가성비를 입증했다는 점에서, 시장은 이미 이 가격을 기준선으로 재편을 준비하고 있습니다. 필자 관점에서 이 흐름은 단순한 ‘저가 경쟁’이 아닙니다. AI 서비스 자체가 전기나 수도처럼 ‘기본 인프라’가 되는 흐름의 가속화입니다.
화웨이 칩 자립 선언과 탈엔비디아의 의미
딥시크 V4에서 가장 주목할 대목 중 하나는 엔비디아·AMD 등 미국 칩 업체에 사전 접근권을 주지 않았다는 점입니다. 일반적으로 AI 기업들은 신모델 출시 전 주요 칩 제조사와 협력해 최적화 작업을 합니다. 그런데 딥시크는 이번에 미국 업체를 배제하고 화웨이·캠브리콘 등 중국 업체와만 사전 최적화를 진행했습니다.
이것이 기술적 선택인지, 정치적 선택인지를 놓고 해석이 엇갈립니다. 미 행정부 고위 관계자는 2026년 2월, “V4 훈련에 엔비디아의 최신 칩 블랙웰이 활용됐다”고 주장했습니다. 딥시크가 훈련은 여전히 엔비디아 칩으로 하되, 추론(인퍼런스)은 중국산 칩으로 분업하는 이른바 ‘분업 전략‘을 택했다는 관측도 나옵니다.
그럼에도 불구하고 이번 V4 공개는 중국 AI 산업이 최소한 ‘중국산 칩 위에서도 구동 가능한 수준’까지는 도달했다는 것을 증명하는 이정표입니다. mHC와 엔그램 같은 소프트웨어 혁신이 하드웨어 열세를 상당 부분 상쇄한다는 논리가 이제 논문이 아닌 실제 제품으로 입증되는 셈입니다. 앤트로픽이 “딥시크 등 중국 AI 업체 3곳이 클로드 모델 정보를 불법 추출했다”고 주장한 것도, 역설적으로 중국 AI의 추격 속도가 얼마나 빠른지를 보여주는 방증이기도 합니다.
한국에 미치는 영향: 기회와 위협이 동시에
딥시크 R2(V4)의 등장은 한국에 복합적인 신호를 던집니다. 우선 기회의 측면에서, 엔그램 기술이 DRAM에 정적 지식을 저장하는 구조를 채택함으로써 HBM(고대역폭메모리)뿐 아니라 DDR5, SSD 수요를 동시에 자극할 수 있다는 분석이 나옵니다. 삼성전자와 SK하이닉스 입장에서는 AI 서버 메모리 수요가 고사양 HBM을 넘어 범용 메모리로 확산되는 시나리오가 만들어질 수 있습니다.
반면 위협도 분명합니다. 딥시크는 여전히 개인정보 유출 리스크를 안고 있습니다. 개인정보보호위원회는 2025년 2월 딥시크 앱 신규 설치를 잠정 중단시켰고, 2026년 2월에는 딥시크가 한국 이용자 개인정보 처리방침을 대대적으로 손질했음에도 여전히 중국 정부로의 데이터 전송 우려가 남아 있습니다. 또한 딥시크 V4가 GPT-5.2의 50분의 1 가격으로 시장에 진입한다면, 국내 AI 스타트업과 서비스 기업의 경쟁 지형이 순식간에 뒤바뀔 수 있습니다.
⚡ 필자 의견: 한국 기업과 개인이 딥시크 V4를 활용할 때 가장 중요한 것은 ‘무엇을 입력하느냐’입니다. 민감한 개인정보, 영업 기밀, 사내 문서는 절대 중국 AI 서비스에 입력하지 말 것을 권장합니다. 저렴한 비용은 매력적이지만, 정보 보안 비용까지 포함해 계산하면 이야기가 달라질 수 있습니다.
❓ Q&A — 딥시크 R2/V4 핵심 궁금증 5가지
Q1. 딥시크 R2와 V4는 같은 모델인가요?
완전히 같지는 않습니다. R2는 R1의 후속 추론 특화 모델로 예상됐으나 결국 공개되지 않았습니다. V4는 V3 계열의 범용 모델로, 추론뿐 아니라 이미지·영상·코딩을 아우르는 멀티모달 모델입니다. 딥시크가 R2 대신 V4로 방향을 전환했다고 보는 것이 정확합니다. 다만 일부 기술 요소는 공유되었을 가능성이 있습니다.
Q2. 딥시크 V4는 지금 바로 사용할 수 있나요?
2026년 3월 3일 일부 공개(업계 대상 테스트)가 시작됐습니다. 2026년 3월 11일 현재, 일반 대중을 위한 정식 공개 여부는 아직 확정 발표가 없습니다. 딥시크 공식 사이트(deepseek.com)에서 최신 업데이트를 확인하시기 바랍니다.
Q3. 딥시크 V4의 가격은 정확히 얼마인가요?
웨이브스피드AI 등의 분석에 따르면 100만 토큰당 출력 기준 약 $0.25(한화 약 369원)로 예상됩니다. 이는 현재 GPT-5.2의 약 $14와 비교해 56배 저렴한 수준입니다. 단, 정식 API 요금은 공개 시점에 공식 발표를 확인해야 합니다.
Q4. 한국에서 딥시크를 써도 안전한가요?
개인정보보호위원회는 2025년 2월 딥시크 앱 신규 설치를 잠정 중단한 바 있으며, 이후 딥시크는 한국 이용자 개인정보 처리방침을 개정했습니다. 그러나 중국 서버로의 데이터 전송 가능성은 여전히 존재합니다. 일반적인 질문이나 공개 정보 활용은 무방하지만, 개인정보·영업 기밀·사내 문서 입력은 반드시 자제해야 합니다.
Q5. 엔그램과 mHC 기술은 어떻게 활용하면 좋나요?
엔그램과 mHC는 딥시크가 내부적으로 V4에 적용한 기술이기 때문에, 일반 사용자가 직접 설정하거나 활용하는 개념은 아닙니다. 다만 이 기술들 덕분에 V4가 낮은 비용으로 높은 성능을 낸다는 의미이므로, 사용자는 결과적으로 ‘저렴하게 고성능 AI를 쓸 수 있게 된다’는 혜택을 누리게 됩니다.
✍️ 마치며 — 이 흐름을 어떻게 읽어야 할까
딥시크 R2는 결국 안 나왔습니다. 하지만 그 과정에서 더 크고, 더 저렴하고, 더 다양한 기능을 갖춘 V4가 등장했습니다. 1년 넘는 출시 지연이 사실은 더 야심찬 모델을 준비하는 시간이었던 셈입니다. 중국 정부의 기술 자립 압박 속에서도 딥시크는 mHC·엔그램이라는 소프트웨어 혁신으로 하드웨어 열세를 만회하는 길을 택했습니다.
AI 산업에서 ‘가격 파괴’는 항상 새로운 시장을 만들어왔습니다. GPT가 등장해 AI 접근성을 높였고, 딥시크 R1이 비용 효율의 기준을 바꿨으며, 이제 V4가 100만 토큰당 $0.25라는 새 바닥을 깔려 하고 있습니다. 이 흐름에서 한국이 해야 할 일은 분명합니다. 저렴해진 AI를 활용해 서비스 경쟁력을 높이되, 데이터 주권과 보안 리스크를 냉정하게 따지는 균형 감각이 필요합니다.
딥시크 R2를 1년 동안 기다렸던 이들에게 드리는 한마디: V4는 기다린 만큼의 값을 할 수도 있습니다. 하지만 어떤 데이터를 넣느냐가 그 어느 때보다 중요한 시대입니다.
본 포스팅의 정보는 2026년 3월 11일 기준으로 작성되었으며, 딥시크 V4의 공식 출시 일정 및 가격은 향후 변경될 수 있습니다. 개인정보 보안 관련 사항은 반드시 개인정보보호위원회(pipc.go.kr) 최신 안내를 참고하시기 바랍니다.


댓글 남기기