국가대표 AI 탈락: “실력 있으면 된다”가 틀린 이유

Published on

in

국가대표 AI 탈락: “실력 있으면 된다”가 틀린 이유

2026.03.15 기준
독파모 프로젝트 최신 현황
2차 평가 D-약 5개월

국가대표 AI 탈락: “실력 있으면 된다”가 틀린 이유

5,300억 원 규모의 소버린 AI 프로젝트, 글로벌 벤치마크 상위권이었던 네이버가 왜 탈락했는지, 그리고 2026년 8월 2차 평가에서 무엇이 실제로 승패를 가를지 — 공식 발표 원문을 교차 분석해 모두 정리했습니다.

5,300억
정부 지원 예산
4개 팀
2차 평가 진출
2026.08
2차 평가 예정
2개 팀
2026년 말 최종 선발

국가대표 AI가 뭔지, 핵심만 먼저 잡기

국가대표 AI(공식 명칭: 독자 AI 파운데이션 모델 프로젝트, 약칭 독파모)는 이재명 정부의 ‘AI 3대 강국 도약’ 공약의 핵심 사업입니다. 한 줄로 요약하면 “GPT나 Gemini 같은 글로벌 모델 성능의 95% 이상을 구현하는 한국형 독자 AI 모델을 만들겠다”는 겁니다. 단순한 파인튜닝이나 외국 모델 껍데기 바꾸기가 아닌, 처음부터 끝까지 한국이 직접 설계·학습시킨 모델이어야 한다는 조건이 붙습니다.

2025년 8월, 과학기술정보통신부(과기정통부)는 공모를 통해 5개 정예팀을 선발했습니다. 네이버클라우드(HyperCLOVA X SEEDThink), 업스테이지(Solar Open 100B), SK텔레콤(A.X K1), NC AI(VAETKI), LG AI연구원(K-EXAONE)이 그 5팀입니다. 정부는 이들에게 2027년까지 총 5,300억 원을 지원하되, 6개월마다 단계 평가를 통해 성과가 낮은 팀을 하나씩 탈락시켜 최종 2팀만 살아남는 서바이벌 구조를 설계했습니다. (출처: 과기정통부 공식 발표, 2025.08.05)

💡 이 글에서만 볼 수 있는 분석: 공식 브리핑 원문과 1차 평가 성적표, 모티프테크놀로지스 추가 선정 발표 원문을 교차 분석해 2차 평가에서 실제로 작동할 변수를 도출했습니다. 단순 뉴스 정리가 아닙니다.

▲ 목차로 돌아가기

잠깐, 이게 사실입니다 — 네이버는 실은 성능 탈락이 아니었다

많은 분들이 오해하는 부분이 있습니다. “네이버가 탈락했으니 성능이 부족했겠지”라고 자연스럽게 생각하기 쉽습니다. 그런데 공식 발표를 정확히 보면 전혀 다른 그림이 나옵니다. 네이버클라우드의 ‘HyperCLOVA X SEEDThink(32B)’는 1차 평가에서 5개 팀 중 성능 상위 4위권 안에 들었습니다. 글로벌 벤치마크 평가에서도 합격권 성능을 낸 것이 이후 언론을 통해 확인됐습니다. (출처: 중앙일보, 2026.01.28 “국대AI 탈락한 네이버, 글로벌 성능 평가선 3등 ‘합격’”)

네이버의 탈락 사유는 단 하나, ‘독자성(프롬 스크래치) 기준 미충족’이었습니다. 과기정통부가 별도의 독자성 검토를 통해 발견한 것은, 네이버클라우드가 멀티모달 처리를 위해 중국 알리바바의 ‘Qwen 2.5’ 모델의 비전 인코더(Vision Encoder)와 가중치를 그대로 활용했다는 점입니다. 비전 인코더는 이미지·음성 입력을 AI가 이해할 수 있는 데이터로 변환하는 모듈입니다. 네이버 측은 “교체 가능한 작은 모듈”이라 해명했지만, 정부는 “가중치를 0(Zero) 상태에서 시작해 스스로 형성했느냐”는 프롬 스크래치 최소 요건에 부합하지 않는다고 최종 판단했습니다. (출처: 과기정통부 1차 단계평가 결과 발표, 2026.01.15)

⚠️ 핵심 포인트: 이 프로젝트에서는 성능이 아무리 높아도 ‘독자성 기준’을 한 가지라도 위반하면 실격 처리됩니다. 점수와 무관한 별도 심사가 존재한다는 것 — 이것이 많은 분들이 놓치는 지점입니다.

이것이 독자에게 의미하는 것은 단순합니다. 국가대표 AI는 “얼마나 잘하느냐”뿐 아니라 “어디 기술을 쓰느냐”가 동등하게 중요한 경쟁입니다. 기술 경쟁이자 동시에 기술 주권 심사입니다.

▲ 목차로 돌아가기

1차 평가 성적표 완전 해부: 90.2점과 79.7점이 의미하는 것

1차 평가는 AI 벤치마크 평가(40점 만점), 전문가 평가(35점 만점), 사용자 평가(25점 만점) 세 축으로 구성됐습니다. 5개 팀 평균은 79.7점, 종합 1위는 LG AI연구원으로 90.2점을 기록했습니다. 벤치마크·전문가·사용자 평가 모든 영역에서 LG AI연구원이 최고점을 받았습니다. (출처: CEO스코어데일리, 2026.01.15 / 과기정통부 공식 발표)

표 1. 독파모 1차 평가 결과 요약 (2026.01.15 기준)
벤치마크(40) 전문가(35) 사용자(25) 결과
LG AI연구원 33.6점 31.6점 25점(만점) ✅ 2차 진출
SK텔레콤 NIA 9.2점* ✅ 2차 진출
업스테이지 글로벌 10점* ✅ 2차 진출
네이버클라우드 상위 4위권 ❌ 독자성 실격
NC AI 최하위 ❌ 성능 미달
*NIA 벤치마크 SKT·LG 공동최고(9.2/10), 글로벌 개별 벤치마크 업스테이지·LG 만점(10/10). 세부 점수 일부 비공개. 출처: 과기정통부 공식 발표 2026.01.15

이 표에서 독자 여러분이 직접 확인할 수 있는 사실이 있습니다. LG AI연구원과 5팀 평균의 차이는 약 10.5점(90.2 − 79.7)입니다. 이것이 의미하는 것은 LG가 단순히 1위가 아니라 경쟁 팀 대비 현저한 기술 우위를 가지고 2차 평가에 진입한다는 겁니다. 반면 NC AI는 독자성 검토 단계에도 가지 못할 만큼 기본 성능에서 크게 부족했습니다. 두 탈락 팀의 탈락 이유가 완전히 달랐다는 점이 이 프로젝트의 복잡성을 보여줍니다.

▲ 목차로 돌아가기

패자부활전의 실체 — 모티프는 정말 공평한 출발선에 섰을까

2026년 1월 15일 탈락 발표 직후, 정부는 즉시 ‘패자부활전(공식 명칭: 정예팀 추가 공모)’을 선언했습니다. 2월 12일까지 공모를 받은 결과 모티프테크놀로지스와 트릴리온랩스 단 2개 컨소시엄만 신청했습니다. 예상과 달리 네이버클라우드, NC AI, 카카오 모두 불참을 선언했습니다. 결국 2026년 2월 20일, 모티프테크놀로지스가 추가 정예팀으로 선정됐습니다. (출처: 과기정통부 추가 선정 브리핑, 2026.02.20)

그런데 여기서 실제로 따져볼 문제가 있습니다. 기존 3팀(LG·SKT·업스테이지)은 2026년 1월부터 6월까지 6개월 동안 AI 모델을 개발합니다. 반면 모티프는 2026년 2월부터 7월까지입니다. 정부는 “동일한 기간, 동일한 GPU, 동일한 데이터를 제공해 형평성을 지킨다”고 밝혔습니다. (출처: 과기정통부 브리핑 원문, 2026.02.20) 그런데 이 숫자만 보면 날짜가 1개월 뒤에 시작한다는 것이지, ‘동일한 출발점’은 아닙니다.

💡 실제로 따져보면 이렇습니다: 기존 3팀은 작년 8월부터 GPU와 데이터를 받아 사전 실험과 시스템 최적화를 이미 5~6개월 진행했습니다. 모티프는 2월에 GPU를 받는 순간부터 인프라 세팅부터 다시 시작해야 합니다. 과기정통부 자체도 2025년 8월~9월 사이 GPU 속도 저하 문제를 직접 인정한 바 있습니다. 이 초기 세팅 기간의 손해를 모티프가 고스란히 떠안는 구조입니다.

업계 관계자들이 “형식적으로는 동등하지만 실질적 형평성 논란은 여전히 남는다”고 지적하는 이유가 바로 여기에 있습니다. 4팀이 2차 평가에서 경쟁하게 되는 2026년 8월, 모티프가 얼마나 격차를 따라붙느냐가 가장 큰 관전 포인트입니다.

▲ 목차로 돌아가기

2차 전의 숨겨진 변수: 독자성 기준이 아직 확정되지 않았다

이 섹션이 사실 이 글의 핵심입니다. 대부분의 보도가 놓친 부분이기도 합니다. 2026년 2월 20일 과기정통부 브리핑에서 인공지능정책실장 김경만은 이렇게 말했습니다. “향후 나올 모델의 독자성 여부는 그때 판단할 것이고, 4개 팀과 같이 독자성 판단에 대한 논의를 구체화하겠다.” 즉, 2차 평가에 적용될 독자성 기준은 아직 4팀과 협의 중이며 확정되지 않았습니다. (출처: 과기정통부 추가 선정 브리핑 원문, 2026.02.20)

이것이 독자에게 의미하는 것은 매우 큽니다. 1차 평가에서는 ‘프롬 스크래치(가중치 Zero에서 시작)’라는 기준이 사후적으로 네이버를 걸러냈습니다. 업계 관계자들은 이 기준이 “평가 결과가 불편해지자 룰을 사후에 강화한 것”이라고 비판했습니다. (출처: 딜사이트, 2026.01.19) 2차 평가에서는 ‘활용성(실제 산업 AX 적용 가능성)’ 비중을 높여야 한다는 전문가 의견이 과기정통부 브리핑에서도 수차례 언급됐습니다. 이 말은 단순히 ‘모델이 똑똑한가’를 넘어, ‘실제 기업이나 정부가 쓸 수 있는가’로 평가 무게추가 이동할 수 있다는 시그널입니다.

💡 2차 전 승패 3대 변수 예측:
독자성 기준 재정의 — 오픈소스 활용 범위를 어디까지 허용하느냐
활용성 평가 비중 확대 — 단순 벤치마크에서 실산업 적용성으로
모티프의 300B 모델 완성도 — 신생팀의 추론형 거대 모델이 기존 3팀과 경쟁 가능한 수준인지

현재 4팀의 구성을 보면 LG AI연구원·업스테이지·SKT는 1차에서 이미 검증된 팀입니다. 그러나 2차 평가의 룰이 아직 확정되지 않았다는 사실은, 현재 1위인 LG조차 기준 변화에 따라 불리해질 수 있음을 뜻합니다.

▲ 목차로 돌아가기

알고 보면 반대입니다 — 대기업이 빠진 게 오히려 이 프로젝트의 진짜 목표다

패자부활전 공모에서 단 2개 팀만 지원했다는 사실이 언론에서 ‘흥행 저조’로 평가됐습니다. 삼성, KT, 카카오 같은 대기업이 모두 불참했으니 그렇게 보일 수 있습니다. 그러나 이 점에 대해 과기정통부 김경만 실장은 브리핑에서 의미 있는 발언을 했습니다. “대기업이 오는 것도 좋지만, 독자 파운데이션에 걸맞은 기술력을 가진 기업들이 더 중요하다. 컨소시엄별 산학연 생태계 구성, 연구자 양성, GPU 클러스터 운영 능력이 이 프로젝트의 실질적 의미다.” (출처: 과기정통부 추가 선정 브리핑, 2026.02.20)

실제로 삼성전자는 이 프로젝트에 참여하지 않고 독자적으로 AI를 개발하는 노선을 택했습니다. KT와 카카오는 각각 OpenAI, Microsoft 등 글로벌 기업과의 협력을 선언했다가 사실상 입장을 거절당했습니다. (출처: 나무위키 ‘국가대표 AI’ 문서, 2026.03.14 최종 수정) 이것이 의미하는 것은 이 프로젝트가 처음부터 ‘한국 기술 생태계의 자생 역량을 키울 중간 규모의 전문 기업들’을 겨냥해 설계됐다는 겁니다.

역설적이게도, 네이버처럼 대형 플레이어가 탈락하고 업스테이지·모티프테크놀로지스 같은 AI 전문 스타트업이 살아남는 구도가 이 프로젝트의 ‘순수한 독자성’이라는 목표에 더 부합합니다. 대기업의 글로벌 파트너십에 의존하지 않는 순수 국산 AI 생태계를 만들겠다는 방향성이 결과에 그대로 반영된 셈입니다.

💡 2026년 말 최종 2팀 예측 포인트: LG AI연구원은 1차 1위라는 강점이 있고, SKT는 국내 최대 통신·데이터 인프라, 업스테이지는 글로벌 리더보드 실적이 강점입니다. 모티프는 300B 추론형 모델 완성도가 관건입니다. 12월 최종 결과가 나올 때까지 독자성 기준이 어떻게 재정의되느냐가 판도를 가를 것입니다.

▲ 목차로 돌아가기

자주 묻는 질문 5가지

Q1. 국가대표 AI에 최종 선발되면 어떤 혜택이 있나요?
2027년 상반기까지 정부의 GPU(약 4,500억 원 규모)와 데이터 지원을 집중적으로 받을 수 있습니다. 또한 ‘K-AI 기업’ 공식 명칭이 부여되어 공공·국방·금융 분야 AI 서비스 우선 적용 기회가 주어집니다. 총 5,300억 원 규모의 예산 중 최종 2팀에게 핵심 자원이 집중됩니다. (출처: 과기정통부 공식 발표, 2025.08.05 / 2026.01.15)
Q2. 네이버가 패자부활전에 다시 도전하지 않은 이유는 무엇인가요?
네이버클라우드는 정부 판단을 존중하되 재도전은 고려하지 않는다고 공식 입장을 냈습니다. 업계에서는 ‘국가대표 AI 탈락’ 낙인 효과가 기업 가치와 주가에 직격탄이 될 수 있다는 우려가 크게 작용했다는 분석이 나옵니다. 실제로 탈락 당일 네이버 주가는 약 5% 급락했습니다. (출처: 딜사이트, 2026.01.19)
Q3. 모티프테크놀로지스는 어떤 회사인가요?
AI 파운데이션 모델 전문 스타트업으로, 독자 아키텍처 기반 AI 모델 설계 경험과 글로벌 리더보드(Hugging Face, AI Artificial Analysis 등)에서의 성능 입증이 선정 핵심 요인이었습니다. 목표는 300B(3,000억 파라미터) 규모 추론형 거대 언어 모델(LLM) 개발이며, 모든 가중치와 코드를 오픈소스로 공개할 계획입니다. (출처: 과기정통부 브리핑, 2026.02.20)
Q4. ‘프롬 스크래치(From Scratch)’ 기준이 정확히 무엇인가요?
과기정통부가 정의한 최소 요건은 두 가지입니다. 첫째, 가중치를 Zero 상태에서 시작해 학습한 전 과정의 로그 기록을 보유해야 합니다. 둘째, 모델에 문제가 생겼을 때 자체적으로 수정할 수 있는 기술력(통제권)을 확보해야 합니다. 외국 모델의 가중치를 그대로 가져와 쓰거나, 그것이 최종 모델에 영향을 주면 독자성 미충족으로 판정됩니다. (출처: 과기정통부 추가 선정 브리핑, 2026.02.20)
Q5. 2차 평가(2026년 8월)에서는 몇 팀이 탈락하나요?
2차 평가에서는 4팀 중 1팀을 탈락시켜 3팀이 남는 구조가 원칙입니다. 그 후 12월 3차 평가에서 최종 2팀이 선발됩니다. 단, 1차처럼 2팀이 동시 탈락할 경우 정부가 또 한 번 룰 변경을 할 가능성도 배제할 수 없다는 우려가 업계에서 나오고 있습니다. 과기정통부는 “상황에 따라 열린 마음으로 대응하겠다”고만 밝혔습니다. (출처: 과기정통부 브리핑, 2026.02.20)

▲ 목차로 돌아가기

마치며 — 이 프로젝트가 남긴 진짜 질문

국가대표 AI 프로젝트는 기술 경쟁이면서 동시에 ‘한국이 AI 주권을 어떻게 정의하느냐’에 대한 사회적 실험입니다. 성능 상위권 팀이 독자성 한 가지로 탈락하고, 중소 스타트업이 대기업을 제치고 국가대표가 되는 과정은 단순한 선발전을 넘어선 의미를 갖습니다.

2026년 8월 2차 평가, 그리고 12월 최종 2팀 확정까지 남은 기간 동안 이 프로젝트의 핵심 변수는 두 가지입니다. 하나는 독자성 기준이 얼마나 명확하게 재정의되느냐, 다른 하나는 모델의 실제 활용 가능성을 어떻게 평가에 반영하느냐입니다. LG AI연구원이 현재 강자이지만, 룰이 바뀌는 순간 판도는 언제든 뒤집힐 수 있습니다. 5,300억 원의 공공 자원이 투입된 이 선발전, 결국 가장 중요한 것은 공정하고 일관된 기준이 유지되느냐일 것입니다.

✅ 이 글은 과기정통부 공식 발표 원문, 중앙일보·CEO스코어데일리·ZDNet·딜사이트·나무위키(2026.03.14 최종 수정) 자료를 교차 분석해 작성됐습니다.

▲ 목차로 돌아가기

📚 본 포스팅 참고 자료

  1. 과기정통부 독파모 정예팀 추가 선정 공식 브리핑 (2026.02.20) —
    korea.kr 원문 링크
  2. 과기정통부 1차 단계평가 결과 발표 (2026.01.15) — CEO스코어데일리 원문 —
    ceoscoredaily.com 링크
  3. ZDNet Korea — ‘5곳 중 단 2곳 생존…국가대표 AI 최종 결과, 연말에 나온다’ (2026.01.14) —
    zdnet.co.kr 링크
  4. 중앙일보 — ‘소버린 AI 원조가 독자성에 걸렸다…네이버 충격의 탈락’ (2026.01.15) —
    joongang.co.kr 링크
  5. 딜사이트 — ‘책임 안 지는 과기부, 국가대표 AI 룰 변경에 논란만 남아’ (2026.01.19) —
    dealsite.co.kr 링크
  6. 나무위키 ‘국가대표 AI’ 문서 (2026.03.14 최종 수정) —
    namu.wiki 링크

본 포스팅은 공개된 공식 발표 자료를 기반으로 작성된 정보성 콘텐츠입니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 독파모 프로젝트의 평가 기준, 일정, 지원 조건 등은 과기정통부 공식 발표를 통해 최신 정보를 반드시 확인하시기 바랍니다. IT·AI 서비스는 업데이트로 내용이 달라질 수 있습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기