엑사원 4.5 완전정복: 국산 AI가 드디어 ‘눈’을 뜬 진짜 의미
2026년 3월 1일, 스페인 바르셀로나 MWC 현장. LG AI연구원장의 한마디가 짧고 무거웠습니다.
“엑사원 4.5, 올 상반기 공개합니다. 동급 오픈 웨이트 모델 중 글로벌 최고 성능이 될 것입니다.”
이 선언이 단순한 신제품 발표가 아닌 이유가 있습니다. 한국 AI가 ‘읽는 것’을 넘어 ‘보는 것’을 시작하는 전환점이기 때문입니다.
👁️ 비전언어모델 VLM
🤖 케이팩스 두뇌 예정
🌐 글로벌 오픈웨이트 7위
🏗️ 파주 AIDC 200MW
엑사원이 걸어온 길 — 2022년부터 지금까지
엑사원(EXAONE)이라는 이름은 “EXpert AI for EveryONE”, 즉 모두를 위한 전문가 AI라는 뜻입니다. LG AI연구원이 2022년 12월 처음 세상에 내놓은 이후, 이 모델은 버전을 거듭할수록 단순히 성능을 올리는 것이 아니라 AI의 역할 자체를 재정의해왔습니다.
버전별 진화의 핵심 흐름
2023년 7월 등장한 엑사원 2.0은 텍스트만 처리하던 경계를 허물고 이미지와 언어를 함께 다루는 멀티모달 모델로 첫 발을 내딛었습니다. 2024년 8월 공개된 엑사원 3.0은 오픈소스로 가중치를 공개해 외부 개발자들이 직접 사용할 수 있는 문을 열었고, 구글 Gemma2, 메타 LLaMA-3.1 8B를 앞서는 벤치마크 성능으로 국제 무대에서도 주목받기 시작했습니다. 같은 해 12월 나온 엑사원 3.5는 2.4B·7.8B·32B 세 가지 크기로 분화하여 스마트폰 같은 소형 기기에서도 한국어를 능숙하게 처리할 수 있도록 설계됐습니다.
추론 능력의 탑재 — Deep과 4.0
2025년 3월 등장한 엑사원 Deep은 단순 응답을 넘어 스스로 생각하고 추론하는 능력을 탑재한 모델입니다. 같은 해 7월 출시된 엑사원 4.0은 추론 모드와 비추론 모드를 자유롭게 전환할 수 있는 하이브리드 구조로, MCP(Model Context Protocol)와 함수 호출(Function Calling)까지 지원하며 실제 업무 자동화에 한 걸음 더 다가갔습니다. 한국어·영어에 이어 스페인어까지 지원 언어를 넓힌 것도 이 시점입니다.
| 버전 | 출시 시점 | 핵심 특징 |
|---|---|---|
| 엑사원 1.0 | 2022.12 | 한국 최초 멀티모달 AI 모델 개발 |
| 엑사원 2.0 | 2023.07 | 이미지+언어 멀티모달 정식 확장 |
| 엑사원 3.0 | 2024.08 | 오픈소스 공개, 글로벌 벤치마크 상위권 |
| 엑사원 3.5 | 2024.12 | 2.4B/7.8B/32B 경량화, 온디바이스 지원 |
| 엑사원 Deep | 2025.03 | 자체 추론 능력 탑재 |
| 엑사원 4.0 | 2025.07 | 하이브리드 추론, MCP·함수 호출 지원 |
| K-엑사원 | 2025.12 | 국가대표 AI, 글로벌 오픈웨이트 7위 |
| 엑사원 4.5 | 2026 상반기(예정) | VLM, 동급 오픈웨이트 글로벌 최고 성능 목표 |
K-엑사원, 국가대표 AI 1위가 된 방법
2025년 12월 31일 공개된 K-엑사원은 정부의 독자 AI 파운데이션 모델 프로젝트 1차 평가에서 SK텔레콤, 업스테이지, 네이버 등 국내 5개 정예팀을 제치고 1위를 차지했습니다. 13개 벤치마크 테스트 중 10개에서 1위, 전체 평균 점수 72.03점을 기록했으며, 1차 목표 모델로 설정했던 알리바바의 ‘큐웬3(Qwen3) 235B’를 평균 점수에서 넘어섰습니다.
아키텍처의 비밀 — MoE 구조
K-엑사원은 2,360억 개의 전체 매개변수 중 실제로 활성화되는 영역은 230억 개인 MoE(Mixture of Experts) 아키텍처를 채택했습니다. 모든 매개변수를 동시에 켜는 대신, 상황에 맞는 전문가 모듈만 선택적으로 활성화하기 때문에 요구되는 메모리 용량은 적고 추론 속도는 경쟁 모델 대비 약 1.5배 빠릅니다. 성능은 높이면서 효율은 잡는 전형적인 한국 엔지니어링 방식입니다.
글로벌 무대에서의 위치
글로벌 AI 모델 성능 분석 기관 아티피셜 애널리시스(Artificial Analysis) 기준으로, K-엑사원은 오픈 웨이트 모델 순위에서 32점으로 세계 7위에 자리했습니다. 6위는 오픈AI(33점)였습니다. 단 1점 차이로 한국 모델이 오픈AI와 어깨를 나란히 한 순간입니다. 미국·중국 빅테크들이 장악하던 순위표에 ‘K’가 새겨진 것은 숫자 그 이상의 의미를 가집니다.
엑사원 4.5란 무엇인가 — VLM의 정체
엑사원 4.5는 단순한 버전 업그레이드가 아닙니다. 이 모델의 핵심 정체는 VLM(비전언어모델, Vision-Language Model)입니다. 텍스트만 처리하던 AI가 이미지와 시각 정보를 동시에 이해하고 분석할 수 있게 된다는 뜻입니다. 사람이 눈과 귀를 동시에 쓰듯, AI도 이제 여러 감각을 통합해 세상을 읽기 시작하는 것입니다.
VLM이 가능하게 하는 것들
VLM 기술이 탑재되면 AI는 이미지 속의 텍스트를 읽고 맥락을 분석하거나, 제조 현장에서 불량 부품을 시각적으로 식별하고, 의료 영상에서 이상 징후를 포착하는 작업을 수행할 수 있습니다. 기존에는 별도의 컴퓨터 비전 모델과 언어 모델을 따로 붙여 써야 했지만, VLM은 이 두 가지를 하나의 모델이 통합적으로 처리합니다. 처리 효율이 올라가고, 문맥 이해의 정확도도 높아집니다.
오픈 웨이트로 공개되는 이유
LG AI연구원은 엑사원 4.5를 완성 단계에서 오픈 웨이트(Open Weight) 방식으로 공개할 예정입니다. 오픈 웨이트란 모델의 내부 가중치를 외부에 공개해 개발자와 연구자들이 직접 내려받아 자신의 서비스에 적용할 수 있는 방식입니다. 완전 폐쇄형 모델과 달리, 생태계 자체를 키우겠다는 전략적 선택입니다. 특히 LG는 중국의 딥시크(DeepSeek) 표준에도 최적화하겠다고 밝혀 특정 진영에 종속되지 않는 개방성을 강조했습니다.
케이팩스(KAPEX)의 두뇌가 된다는 것의 의미
엑사원 4.5가 단순한 언어 모델 업그레이드에 그치지 않는 결정적인 이유가 있습니다. 바로 케이팩스(KAPEX)입니다. 케이팩스는 한국과학기술연구원(KIST)과 LG가 함께 개발 중인 한국형 휴머노이드 로봇입니다. KIST AI·로봇연구원의 원천 기술, LG전자의 제품화·양산 역량, LG AI연구원의 대형 AI 모델이 한데 모인 프로젝트입니다.
로봇이 AI를 필요로 하는 이유
로봇이 현실 공간에서 제대로 동작하려면 주변 환경을 시각적으로 인식하고, 음성 명령을 이해하고, 상황에 맞는 행동을 스스로 결정할 수 있어야 합니다. 여기서 VLM이 핵심 기술이 됩니다. 텍스트만 처리하는 AI는 카메라가 포착한 장면을 이해하지 못합니다. 반면 엑사원 4.5 같은 VLM은 눈앞에 놓인 물체를 식별하고, 그 맥락에서 어떤 행동이 적절한지를 언어 이해와 함께 판단할 수 있습니다.
피지컬 AI 시대의 문이 열린다
임우형 LG AI연구원 공동 연구원장은 MWC 2026 현장에서 “AX(AI 전환)의 단계를 넘어 현실의 물리적 공간인 실세계에서 실질적 가치를 창출하는 AI를 만드는 데 집중할 것”이라고 강조했습니다. 말로만 대화하는 AI가 아니라, 눈과 손을 가진 AI가 실제 공간에서 움직이는 세계가 한 발씩 가까워지고 있는 셈입니다. 엑사원 4.5는 그 첫 번째 실제 적용 사례가 될 가능성이 높습니다.
파주 AIDC — 인프라 없는 AI는 빈 껍데기다
AI 모델이 아무리 뛰어나도 그것을 실제로 구동하고 서비스로 연결하는 인프라가 없으면 무의미합니다. LG는 이 사실을 알고 있습니다. LG유플러스는 2027년 준공을 목표로 경기도 파주에 수도권 최대 규모의 AIDC(AI 데이터센터)를 짓고 있습니다.
200MW와 GPU 12만 장의 의미
파주 AIDC의 전력 규모는 200MW입니다. 이는 중소 도시 하나를 가동하는 수준의 전력입니다. GPU를 최대 12만 장까지 수용할 수 있으며, LG전자·LG에너지솔루션·LG CNS 등 LG 계열사의 핵심 역량이 총동원되는 ‘원팀 LG 전략의 실행지’가 됩니다. 이상엽 LG유플러스 CTO는 이 인프라를 기반으로 “시작부터 끝까지(End-to-End) 고객 맞춤형 서비스를 완결성 있게 제공”하겠다고 밝혔습니다.
퓨리오사AI NPU와의 시너지
주목할 점이 하나 더 있습니다. LG는 엑사원과 LG유플러스의 기업용 AI 플랫폼에 더해, 퓨리오사AI의 신경망처리장치(NPU)를 결합하겠다고 발표했습니다. 퓨리오사AI는 국내 AI 반도체 스타트업으로, K-AI와 K-반도체의 시너지를 실증하는 사례가 될 전망입니다. 엔비디아 GPU에 대한 의존도를 낮추면서 한국형 AI 생태계를 자급자족 구조로 만들겠다는 의도가 담겨 있습니다.
오픈 웨이트 전략과 글로벌 경쟁의 현실
엑사원이 오픈 웨이트 방식을 고수하는 것은 단순한 개방성 철학이 아닙니다. 이 전략의 배경에는 글로벌 AI 생태계 경쟁의 냉혹한 현실이 있습니다. 폐쇄형 모델은 서비스 사용자를 가두는 데는 유리하지만, 개발자 생태계를 키우는 데는 오래 걸립니다. 반면 오픈 웨이트는 모델이 전 세계에서 검증되고 개선되는 선순환 구조를 만듭니다.
딥시크 표준 대응의 전략적 의미
LG가 중국의 딥시크(DeepSeek) 표준에도 최적화를 선언한 것은 미국 진영 일변도에서 벗어나겠다는 신호입니다. 미중 AI 패권 경쟁이 격화되는 상황에서 특정 진영에 종속되지 않고 양쪽 생태계에서 모두 작동하는 모델을 만들겠다는 선택은 현실적으로 영리합니다. 한국이 미국·중국 어느 쪽과도 완전히 등을 돌리기 어려운 지정학적 위치를 감안하면, 기술 전략에서도 같은 논리가 적용됩니다.
에이전틱 AI — 다음 전쟁터
LG유플러스는 엑사원 4.5의 VLM 역량과 함께 에이전틱 AI(Agentic AI)를 다음 전쟁터로 설정했습니다. ‘자가 고도화(Self-Evolving)’, ‘모델-데이터 파운드리(Model-Data Foundry)’, ‘신뢰형 통합 제어(Trusted Orchestration)’, ‘하이브리드 AI 인프라(Hybrid AI Infra)’라는 4대 핵심 아키텍처를 공개했습니다. 사용자의 질의에 단순 응답하는 AI를 넘어, 계획-실행-평가-수정을 반복하며 스스로 진화하는 구조를 만들겠다는 것입니다.
2026 K-AI의 판도 — 기대와 솔직한 우려
엑사원 4.5의 등장을 단순히 LG의 기업 이슈로만 볼 수 없는 이유가 있습니다. 한국이 AI 기본법을 세계 최초로 시행하고, 국가대표 AI 프로젝트를 가동하며, 소버린 AI를 국가 전략으로 추진하는 흐름 속에서 엑사원은 그 전략의 가장 앞에 선 모델입니다.
기대할 수 있는 것 — 세 가지
1한국어 AI 생태계의 독립: GPT-4o나 제미나이에 의존하지 않고 한국어와 한국 문화·산업에 최적화된 AI를 자국 인프라에서 구동할 수 있게 됩니다. 2제조·의료 현장 적용 가속: VLM 기술이 탑재된 엑사원 4.5는 공장 불량 검출, 의료 영상 분석, 건설 현장 안전 모니터링 등 시각 정보가 핵심인 산업 현장에서 빠르게 활용될 수 있습니다. 3오픈 웨이트 생태계 확장: 국내 스타트업과 연구자들이 엑사원 4.5를 기반으로 다양한 서비스를 만들어낼 수 있는 토양이 마련됩니다.
그러나 솔직히 — 두 가지 우려
1벤치마크와 실전의 간극: 13개 벤치마크 1위는 인상적이지만, 실제 기업 현장에서의 성능과 신뢰성은 별개의 문제입니다. 엑사원 계열이 실제 산업 현장에 대규모로 도입된 사례가 아직 제한적이라는 점은 솔직히 인정해야 합니다. 2오픈AI·구글과의 격차: 오픈 웨이트 7위는 분명 성과지만, 세계 1~5위는 여전히 미국·중국 빅테크 차지입니다. 상반기 공개 예정인 엑사원 4.5가 실제로 ‘동급 최고’가 되는지는 공개 이후 검증 결과를 봐야 압니다.
Q&A — 궁금한 것만 골라서
엑사원 4.5는 언제 공개되나요?
엑사원 4.5와 ChatGPT-4o의 차이는 무엇인가요?
일반인이 엑사원 4.5를 직접 사용할 수 있나요?
케이팩스(KAPEX) 로봇은 언제 출시되나요?
파주 AIDC는 왜 중요한가요?
마치며 — 총평
엑사원 4.5는 단순히 LG가 새 AI 모델을 내놓는 이야기가 아닙니다. 한국이 미국과 중국이 장악한 AI 판에서 자국 모델, 자국 인프라, 자국 법제도를 갖추고 진짜 플레이어로 자리를 잡아가는 여정의 한 장면입니다. 글로벌 오픈 웨이트 7위, 벤치마크 13개 중 10개 1위, VLM으로의 진화, 그리고 케이팩스라는 로봇 하드웨어와의 결합. 퍼즐 조각들이 하나씩 맞춰지고 있습니다.
물론 냉정하게 봐야 합니다. 벤치마크와 실전은 다르고, 발표와 실제 서비스 출시 사이에는 언제나 거리가 있습니다. 2026년 상반기 엑사원 4.5가 실제로 공개됐을 때, 단순히 수치가 아닌 실제 현장에서 무엇을 해결하는지로 평가받아야 한다고 생각합니다.
그럼에도 불구하고 한 가지는 분명합니다. 한국 AI가 이제 ‘읽는 것’을 넘어 ‘보는 것’을 시작했습니다. 그리고 그 눈이 결국 로봇의 두뇌에 달릴 날이, 생각보다 빠르게 다가오고 있습니다.
본 포스팅은 공개된 자료와 보도를 바탕으로 작성된 정보 제공 목적의 콘텐츠입니다. 제품 출시 일정, 성능 수치 등은 LG AI연구원의 공식 발표에 따라 변경될 수 있습니다. 투자 또는 기업 의사결정에 활용 시 반드시 공식 채널의 최신 정보를 확인하시기 바랍니다.

댓글 남기기