A.X K1 v1.0 기준
IT/AI
SKT A.X K1, 519B인데 실제 연산은 33B입니다
SKT AI 네이티브 전략의 핵심은 숫자가 아닙니다. MWC 2026에서 SKT가 선언한 ‘AI 네이티브’ 전환, A.X K1의 519B 파라미터, 그리고 1조 파라미터 업그레이드 계획. 하지만 공식 기술 문서를 보면 519B라는 숫자와 실제 쓰이는 연산량 사이에 뚜렷한 간극이 있습니다. 딥시크 유사성 논란까지 얽힌 진짜 이야기를 공식 자료로 짚어봤습니다.
SKT AI 네이티브 선언, 뭐가 달라졌나
2026년 3월 1일, SKT 정재헌 CEO는 스페인 바르셀로나 MWC26 현장에서 ‘AI 네이티브’ 전환을 공식 선언했습니다. 단순히 “AI를 더 잘 쓰겠다”는 수준이 아니라, 영업전산·회선관리·과금시스템 등 통신의 근간이 되는 전산 체계 전체를 AI 최적화 설계로 교체하겠다는 내용입니다. (출처: SKT 공식 보도자료, 2026.03.01)
이 전략에는 세 가지 축이 있습니다. 첫째는 통신 인프라 자체를 AI 기반으로 재설계하는 것, 둘째는 국내 최대 규모의 AI 데이터센터(AIDC) 구축, 셋째는 자체 파운데이션 모델 A.X K1을 1조 파라미터급으로 고도화하는 것입니다. “AI DC는 대한민국의 심장, 초거대 LLM은 두뇌”라는 정 CEO의 발언이 이 전략의 방향을 한 문장으로 요약합니다. (출처: SKT 공식 보도자료, 2026.03.01)
주목할 부분은 이 선언이 MWC라는 글로벌 무대에서 나왔다는 점입니다. SKT는 바르셀로나 피라 그란 비아 3홀에 약 992㎡(300평) 규모의 전시관을 마련하고 A.X K1 현장 시연까지 진행했습니다. ‘한국 통신사’라는 틀이 아니라 ‘글로벌 AI 인프라 기업’이라는 포지션을 선택한 것입니다.
💡 공식 발표문과 실제 투자 흐름을 나란히 놓고 보니, 이번 선언은 단순 비전 공표가 아니라 전산 시스템 교체·AIDC 구축·모델 고도화를 동시에 집행하겠다는 실행 계획에 가깝습니다.
519B의 진실 — 실제 연산은 33B
5,190억 개 파라미터. 외신들이 “아시아 최대 규모 통신사 자체 AI”라고 보도할 때 전면에 내세운 숫자입니다. 그런데 SKT 공식 기술 보고서와 팀 인터뷰를 보면, 추론 한 번에 실제로 활성화되는 파라미터는 33B(330억 개)입니다. (출처: SKT T스토리 공식 인터뷰, 2026.02.20)
📊 519B vs 33B, 무슨 차이인가
| 구분 | 전체 파라미터 | 활성 파라미터 |
|---|---|---|
| A.X K1 (SKT) | 519B | 33B |
| 일반 Dense 모델 33B | 33B | 33B |
활성 파라미터 기준으로는 33B Dense 모델과 연산 비용이 동일합니다. 단, 519B 전체에 담긴 지식 용량은 33B 모델과 비교할 수 없습니다.
A.X K1이 채택한 구조가 MoE(Mixture of Experts, 전문가 혼합)입니다. 전체 파라미터를 여러 ‘전문가 네트워크’로 나누고, 입력이 들어오면 그 중 가장 적합한 일부만 선택해 활성화하는 방식입니다. 519B를 통째로 가동하는 게 아니라, 매 추론마다 33B 분량만 실제 연산에 쓰입니다. (출처: SKT OFM팀 공식 인터뷰, sktelecom.com T스토리, 2026.02.20)
SKT OFM팀 양현호 님은 “519B 전체 파라미터에 활성 파라미터 33B를 쓰는 구조가 최적”이라고 공식 인터뷰에서 직접 밝혔습니다. 결론적으로 추론 비용과 속도는 33B 모델 수준으로 유지하면서, 519B에 담긴 방대한 지식을 끌어다 쓰는 구조입니다. 비용과 성능 두 마리 토끼를 잡는 설계이지만, “519B 모델”이라는 표현만 보고 연산 규모를 그대로 상상하면 실제와 다릅니다.
같은 이유에서 토큰 효율성도 높게 나옵니다. W&B(Weights&Biases)의 독자 AI 1차 평가 분석에서 A.X K1이 5개 모델 가운데 토큰 효율성 1위를 기록한 이유가 바로 이 구조 덕분입니다. 519B라는 규모를 유지하면서도 추론 한 번에 쓰는 연산이 작으니, 같은 정확도를 더 낮은 비용으로 달성하게 되는 겁니다. (출처: W&B 공식 평가 보도, zdnet.co.kr, 2026.01.28)
딥시크 유사성 논란, SKT의 공식 해명
A.X K1이 공개된 직후, 업계 일각에서 “딥시크 V3와 아키텍처 세부 설정값이 유사하다”는 주장이 나왔습니다. MLA(Multi-head Latent Attention)와 MoE 세부 수치가 딥시크와 겹친다는 지적이었습니다. 국가 AI 프로젝트의 독자성 논란으로 번졌고, 일부 언론은 ‘중국 모델 베끼기’ 의혹으로 보도했습니다. (출처: 연합뉴스, 2026.01.08)
SKT의 공식 입장은 명확합니다. “유사성 지적은 인퍼런스 코드에만 국한된 것이며, 프롬 스크래치 원칙을 훼손하지 않는다”는 내용입니다. 인퍼런스 코드는 외부에서 모델을 실행할 때 편의를 위해 제공하는 코드로, 학습 코드와는 별개입니다. AI 업계에서도 인퍼런스 코드 유사성을 ‘프롬 스크래치 위반’으로 보지 않는다고 선을 그었습니다. (출처: 연합뉴스, 2026.01.08)
💡 학습 코드(가중치 초기화·학습 방식)와 인퍼런스 코드(실행 편의 코드)는 다른 층위입니다. 전자가 독자성의 핵심이고, 논란이 된 부분은 후자였습니다.
이 논란이 A.X K1에만 국한되지 않는다는 점도 알아둘 필요가 있습니다. 업스테이지는 중국 지푸AI 모델의 인퍼런스 코드 스타일을 참조했다는 의혹을 받았고, 네이버클라우드도 멀티모달 인코더·가중치를 알리바바 큐웬 2.5 모델에서 차용했다는 논란이 나왔습니다. (출처: 연합뉴스, 2026.01.08) 소버린 AI의 ‘독자성’이 어느 수준까지를 의미하는지에 대한 기준 자체가 아직 명확히 공개되지 않은 상태입니다.
포티투마루 이승현 부사장은 페이스북에 “딥시크의 MLA와 젬마의 듀얼 놈 등을 차용했지만, 양적 확장을 통해 최적화했다”며 “프롬 스크래치 이상의 가치를 보여줬다”고 평가했습니다. 기술을 참조하는 것과 베끼는 것은 다르며, A.X K1은 그 선 안에 있다는 업계 전반의 시각이 공개적으로 나온 셈입니다.
벤치마크 성적표 — 종합 1위는 따로 있었다
SKT AI 네이티브 전략을 뒷받침하는 핵심 수치가 A.X K1의 성능 지표입니다. W&B 분석 결과 수학적 추론 0.96, 코딩 능력 0.48로 두 부문 모두 1위, 토큰 효율성까지 더해 3관왕을 기록했습니다. (출처: W&B 공식 분석, zdnet.co.kr, 2026.01.28)
📊 독자 AI 파운데이션 모델 1차 평가 성적 비교 (2026.01 기준)
| 모델 | 파라미터 | 한국어 지식(KMMLU-PRO) | 종합 순위(W&B) |
|---|---|---|---|
| LG K-엑사원 | 약 70B | — | 1위 (0.676) |
| SKT A.X K1 | 519B (활성 33B) | 68.1 (1위) | 2위 (0.649) |
| 업스테이지 솔라 100B | 약 100B | — | 3위 |
출처: W&B 공식 분석(zdnet.co.kr 2026.01.28), 머니투데이 기술보고서 분석(2026.01.13) / 일부 수치는 팀별 공개 범위가 달라 직접 비교 시 유의 필요
종합 성능 1위는 LG K-엑사원(0.676)이었고, A.X K1은 2위(0.649)였습니다. 519B라는 규모가 자동으로 1위를 보장하지는 않습니다. 업스테이지의 솔라 100B는 A.X K1의 파라미터 5분의 1 수준이지만 성능에서 뒤처지지 않는 결과를 냈습니다.
단, A.X K1이 압도적 우위를 보인 영역이 있습니다. 한국 문화·언어 이해 능력을 평가하는 CLIcK에서 84.9점, 변호사·의사·회계사 등 14개 국가 전문자격시험 기반 KMMLU-PRO에서 68.1점으로 5개 모델 중 최고점을 받았습니다. (출처: 머니투데이 기술보고서 분석, 2026.01.13) 범용 성능보다 한국어 전문 지식에서 차별점이 두드러지는 모델입니다.
벤치마크 오염을 거부한 이유
A.X K1 개발 과정에서 SKT OFM팀이 끝까지 지킨 원칙이 있습니다. ‘벤치마크 오염(Benchmark Contamination)을 시키지 않겠다’는 것입니다. 벤치마크 오염이란 평가에 쓰이는 문제들을 학습 데이터에 집어넣어 점수를 높이는 방식입니다. 답지를 미리 외우게 하는 것과 같습니다. (출처: SKT T스토리 공식 인터뷰, 2026.02.20)
팀 내부에서 이 원칙을 고수한 결과는 명확합니다. 점수는 더 빠르게 올릴 수 없었지만, 모델의 실제 일반화 능력은 그대로 남았습니다. 공식 인터뷰에서 천성준 TPM은 “벤치마크는 수능 문제 풀이와 비슷하다. 업계에서는 문제집이 공유되는데, 이걸 학습 데이터에 넣으면 점수는 쉽게 오르지만 모델의 본질을 평가할 수 없게 된다. 답지를 보지 않고 공정하게 경쟁하자는 원칙을 끝까지 지켰다”고 밝혔습니다. (출처: SKT T스토리 공식 인터뷰, 2026.02.20)
💡 벤치마크 오염을 피했다는 말은, 동일한 환경에서 오염된 모델과 비교하면 점수가 낮게 나올 수 있다는 뜻이기도 합니다. 오염 없이 2위를 기록했다면, 실제 현장 성능 관점에서는 다른 해석이 가능합니다.
국가 AI 프로젝트 심사 과정에서 ‘프롬 스크래치 여부, 벤치마크 오염 여부’를 공개 검증하는 기준이 명확히 제시되어야 한다는 지적이 전문가 사이에서 나오고 있습니다. 각 팀이 서로 다른 기준의 벤치마크를 내세우는 상황에서 객관적 비교가 어렵다는 한계는 이번 1차 평가에서도 여전히 남은 숙제입니다. (출처: 유니콘팩토리, 2026.01.13)
1조 파라미터, 그 다음 단계
MWC 2026에서 SKT가 밝힌 다음 목표는 A.X K1(519B)을 1000B(1조 파라미터) 이상으로 고도화하는 것입니다. 2026년 하반기부터는 텍스트에 머물지 않고 음성과 영상까지 처리하는 멀티모달 모델로 확장할 예정입니다. (출처: SKT 공식 보도자료, 2026.03.01) 모델 이름은 공식 발표된 바 없으며, 정석근 AI CIC장이 “K2, K3로 계속 발전시켜 나가겠다”고 언급한 내용이 공개된 방향입니다. (출처: 뉴스CJ, 2026.01.08)
인프라 측면에서는 국내 전역에 1GW 이상의 하이퍼스케일 AI 데이터센터를 구축하겠다는 계획입니다. 오픈AI와 협력해 서남권에 별도 AI DC를 짓고, SK하이닉스·SK에코플랜트·SK이노베이션과 함께 냉각·서버·에너지 전체 밸류체인을 수직 통합하는 구조입니다. (출처: SKT 공식 보도자료, 2026.03.01)
💡 1GW 규모는 현재 국내 가동 중인 데이터센터 전체 용량 대비 수배에 달하는 수준입니다. 전력 확보와 냉각 효율이 실질적 병목이 될 수 있습니다.
조직 내부적으로는 이미 2,000개 이상의 AI 에이전트가 마케팅·법무·PR 부서 실무에 투입되고 있습니다. (출처: SKT 공식 보도자료, 2026.03.01) ‘AI 플레이그라운드’라는 사내 코드리스 에이전트 빌더를 통해 비개발자도 직접 에이전트를 만들어 쓸 수 있는 체계로 운영됩니다. 전 임직원이 하나씩 AI 에이전트를 보유하는 ‘1인 1AI’ 체계가 올해 목표입니다.
과학기술정보통신부는 2027년 상반기까지 최종 2팀을 선발해 세계 10위권 소버린 AI를 구축하고 오픈소스로 공개하는 것을 목표로 하고 있습니다. (출처: 머니투데이, 2026.01.13) SKT는 2단계에 진출한 상태이며, 이후 한국어·영어 외 추가 언어 지원과 에이전트 능력 강화가 주요 개발 방향입니다.
자주 나오는 질문 5가지
Q1. SKT AI 네이티브 전략이 기존 ‘AI 회사로 가겠다’는 선언과 다른 점이 있나요?
가장 큰 차이는 통신 인프라 전산 시스템 자체를 교체한다는 구체적 실행 계획이 포함됐다는 점입니다. 영업전산, 회선관리, 과금시스템을 AI 최적화 설계로 전면 개편하고, 자율 운영 네트워크를 도입하는 일정과 투자 계획이 같이 발표됐습니다. (출처: SKT 공식 보도자료, 2026.03.01)
Q2. A.X K1은 지금 일반인이 써볼 수 있나요?
현재 MWC26 현장 시연과 독자 AI 파운데이션 모델 평가 단계이며, 에이닷(A.) 서비스와 그룹사 확산을 통해 순차 적용될 예정입니다. 일반 API 공개 일정은 공식 발표된 바 없습니다.
Q3. 519B인데 활성 파라미터가 33B라면, 실제 연산 비용은 33B 모델과 같은 건가요?
추론 시 활성화되는 연산량 기준으로는 유사합니다. 단, MoE 구조 특성상 라우팅 연산이 추가로 발생하고, 519B 전체 모델을 메모리에 올려야 하므로 메모리 요구량은 33B Dense 모델보다 훨씬 높습니다. 연산 비용과 메모리 비용을 구분해서 봐야 합니다. (출처: SKT T스토리 공식 인터뷰, 2026.02.20)
Q4. 딥시크 유사성 논란이 해소된 건가요?
SKT는 ‘인퍼런스 코드에 국한된 것이며 학습 코드는 독자적’이라고 공식 입장을 냈습니다. 이에 대해 업계에서도 프롬 스크래치 위반이 아니라는 평가가 나왔습니다. 다만, ‘소버린 AI’의 독자성 기준을 어디까지 봐야 하는지에 대한 명확한 정부 가이드라인은 아직 공개되지 않은 상태입니다. (출처: 연합뉴스, 2026.01.08)
Q5. 1조 파라미터 업그레이드는 언제 이루어지나요?
MWC 2026(2026.03.01) 기준 발표에 따르면 2026년 내 1000B(1조 파라미터) 이상으로 고도화하고, 하반기부터 멀티모달(음성·영상) 처리를 지원하는 방향입니다. 구체적 공개 일정은 별도로 발표된 내용이 없습니다. (출처: SKT 공식 보도자료, 2026.03.01)
마치며 — 숫자보다 구조를 봐야 하는 이유
SKT AI 네이티브 전략은 분명히 규모 있는 베팅입니다. 519B 모델, 1GW 데이터센터, 1조 파라미터 업그레이드. 숫자만 따라가면 압도적입니다. 하지만 막상 기술 구조를 들여다보면 이야기가 달라집니다.
519B는 총 파라미터이고 실제 추론마다 쓰이는 연산은 33B입니다. 종합 성능 1위는 LG K-엑사원이었고 A.X K1은 2위였습니다. 딥시크 유사성 논란은 학습 코드가 아닌 인퍼런스 코드에 국한됐다는 공식 해명이 나왔지만, ‘소버린 AI’의 독자성 기준 자체가 아직 공식 가이드라인으로 정리되지 않은 상태입니다.
그러면서도 A.X K1이 증명한 것이 있습니다. 벤치마크 오염 없이, GPU 지원도 받지 않고, 처음부터 설계한 519B MoE 모델을 한국어 전문 지식 1위로 완성했다는 사실입니다. 마케팅 숫자가 아니라, 설계 원칙이 남긴 결과물입니다.
1조 파라미터가 나왔을 때도 같은 시각으로 봐야 합니다. 활성 파라미터는 몇인지, 오염 없는 벤치마크 기준 성능은 어느 수준인지. 숫자가 커질수록 그 안의 구조를 직접 확인하는 게 더 중요해집니다.
📎 본 포스팅 참고 자료
- SKT 공식 보도자료 — MWC26 AI 네이티브 전략 발표 (2026.03.01) · PRNewswire 원문
- SKT T스토리 공식 인터뷰 — OFM팀 A.X K1 개발기 (2026.02.20) · SKT 공식 사이트
- W&B 분석 / ZDNet Korea — A.X K1 수학·코딩·토큰 효율 3관왕 (2026.01.28) · zdnet.co.kr
- 연합뉴스 — A.X K1 딥시크 유사성 논란 및 SKT 공식 해명 (2026.01.08) · yna.co.kr
- 머니투데이 / 유니콘팩토리 — 독자 AI 5개 모델 벤치마크 성적 비교 (2026.01.13) · unicornfactory.co.kr
본 포스팅은 2026년 3월 21일 기준 공개된 자료를 바탕으로 작성됐습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. A.X K1 모델의 성능 수치, 파라미터 구조, 출시 일정은 SKT 공식 발표 기준이며 이후 업데이트로 달라질 수 있습니다.


댓글 남기기