Grok 3 Mini (출시 2025.06.10)
xAI API 기준
Grok 3 Mini, 싼데 왜 이게 더 잘할까요?
Grok 3 Mini는 100만 토큰당 $0.30으로 형제 모델인 Grok 3($3.00)보다 10배 저렴합니다. 그런데 공식 벤치마크를 보면 수학 추론에서 대형 모델을 이깁니다. 가격이 1/10인 모델이 더 높은 점수를 받는 건 직관적으로 이상하게 느껴지죠. 이 글은 그 이유와, 그 이면에 있는 실사용 한계를 공식 수치로 직접 뜯어봤습니다.
Grok 3 Mini가 뭔지 30초 정리
Grok 3 Mini는 일론 머스크가 설립한 xAI가 2025년 6월 10일 공개한 추론 특화 소형 모델입니다. 같은 날 API로도 풀렸고, Microsoft Azure AI Foundry를 통해서도 접근할 수 있습니다. ‘Mini’라는 이름 때문에 단순 축소판 같아 보이지만, 설계 의도 자체가 다릅니다. Grok 3가 방대한 사전학습 지식과 즉각적인 응답을 목표로 했다면, Grok 3 Mini는 강화학습(RL) 기반 추론 능력에 자원을 집중한 모델입니다.
컨텍스트 창은 131,072토큰(약 131K)이고, 추론 노력(reasoning effort)을 low와 high 두 단계로 직접 조절할 수 있습니다. 구조화 출력(JSON 스키마)과 함수 호출도 지원합니다. 공식 API 가격은 입력 토큰 100만 개당 $0.30, 출력 토큰 100만 개당 $0.50입니다. (출처: xAI 공식 문서, docs.x.ai)
💡 공식 발표문과 Azure AI 통합 문서를 같이 놓고 보니 한 가지 차이가 보였습니다. xAI 직접 API의 Grok 3 Mini 가격($0.30/$0.50)과 Azure AI Foundry를 통한 가격($0.25/$1.27)이 다릅니다. 같은 모델인데 경로에 따라 출력 토큰 단가가 2.5배 차이납니다. API 경로를 먼저 확인해야 한다는 뜻입니다.
가격이 1/10인데 수학 점수는 더 높은 이유
xAI 공식 발표에 따르면, Grok 3 Mini는 AIME 2025(미국 수학 올림피아드) 기준 90.7%를 기록했습니다. 같은 측정에서 Grok 3(대형 모델)는 60.0%에 그쳤습니다. 30.7%포인트 차이입니다. 직관적으로 더 크고 비싼 모델이 더 잘해야 할 것 같은데, 결과는 반대입니다. (출처: Microsoft Azure AI Foundry 공식 블로그, 2025.05.19)
이 격차의 핵심은 설계 방향에 있습니다. Grok 3 Mini는 대규모 강화학습(RL)으로 “체인-오브-소트(chain-of-thought)” 추론 과정을 정밀하게 조련했습니다. 문제를 풀다 막히면 되돌아가서 다른 경로를 탐색하고, 자신의 풀이를 스스로 검증하는 과정을 몇 초에서 몇 분씩 반복합니다. Grok 3(대형)는 즉각적 응답과 방대한 세계 지식에 최적화되어 있어서, 오래 생각해야 풀리는 수학 문제에서는 오히려 불리합니다.
쉽게 말하면, Grok 3는 ‘아는 것이 많은 사람’이고 Grok 3 Mini는 ‘계산을 끝까지 파고드는 사람’입니다. 시험 종류에 따라 유리한 쪽이 달라집니다. 수학·코딩처럼 정답이 명확한 문제에서는 Mini가 앞서고, 상식·도메인 지식이 필요한 질문에서는 대형 Grok 3가 강합니다.
💡 “작은 모델이 큰 모델을 이긴다”는 게 단순한 마케팅 수사가 아니라, 추론에 자원을 몰아준 결과라는 점이 공식 벤치마크에서 수치로 확인됩니다. 단, 이 우위는 수학·코드에 국한됩니다. 세계 지식이 필요한 SimpleQA에서 Grok 3 Mini는 21.7%로, Grok 3(43.6%)의 절반도 안 됩니다.
공식 벤치마크 수치 직접 읽기
아래는 xAI 공식 발표(2025.02.19)와 Azure AI Foundry 공식 블로그(2025.05.19)에서 직접 추출한 수치입니다. 비추론 모드(표준 응답)와 추론 모드(Think) 구분 없이 공식 공개된 최고 성능 기준입니다.
| 벤치마크 | Grok 3 Mini | Grok 3 | Claude 3.5 Sonnet | 무엇을 측정하나 |
|---|---|---|---|---|
| AIME 2025 | 90.7% | 60.0% | — | 수학 올림피아드 |
| AIME 2024 | 95.8% | 52.2% | 16.0% | 수학 올림피아드 |
| GPQA | 80.3% | 79.1% | 65.0% | 박사 수준 과학 |
| LiveCodeBench | 74.8% | 65.5% | 40.2% | 코드 생성 |
| MMLU-pro | 82.8% | 83.1% | 78.0% | 일반 지식 |
| SimpleQA | 21.7% | 43.6% | 28.4% | 사실 정확도 |
출처: xAI 공식 블로그(x.ai/news/grok-3, 2025.02.19), Microsoft Azure AI Foundry 블로그(2025.05.19)
SimpleQA 수치가 핵심입니다. 수학에서 Mini가 Grok 3를 30%포인트 이상 앞서는 동안, 사실 기반 질의응답에서는 정반대로 Mini가 절반 수준에 불과합니다. 추론 특화 설계가 세계 지식 용량을 희생한 결과입니다.
응답 속도 27.4초, 이게 왜 문제인가
The Decoder가 Artificial Analysis 측정을 인용한 수치를 보면, Grok 3 Mini 추론 모드(Reasoning high)는 표준 500토큰 응답에 평균 27.4초가 걸립니다. (출처: The Decoder, 2025.04.20) 같은 조건에서 Grok 3(대형)는 9.5초였습니다. Mini가 약 2.9배 느립니다.
속도 차이가 실사용에서 갖는 의미는 명확합니다. 챗봇처럼 실시간 대화가 중요한 서비스에는 맞지 않습니다. 사용자는 화면이 멈춘 줄 알고 새로고침을 누릅니다. 반면 코드 자동 리뷰, 수학 검증, 배치 처리처럼 응답 품질이 속도보다 중요한 워크플로우에서는 27.4초가 크게 문제되지 않습니다. 어떤 서비스에 붙이느냐가 성패를 가릅니다.
💡 xAI는 Grok 3 Mini의 Fast 버전을 별도로 제공합니다. Fast 버전은 $0.60/$4.00/M으로 더 비싸지만 속도가 개선됩니다. 추론 품질을 유지하면서 속도를 높이려면 Fast 버전 비용을 따로 계산해야 합니다. 가장 저렴한 Mini가 곧 실용적인 Mini는 아닙니다.
지식 컷오프 2024.11이 실사용에서 만드는 함정
xAI 공식 문서에 명시된 내용입니다. “Grok 3 및 Grok 4의 지식 컷오프는 2024년 11월입니다.” (출처: docs.x.ai/docs/models) 지금은 2026년 3월입니다. 약 16개월 전 지식까지만 학습되어 있다는 뜻입니다. 검색 도구(Web Search, X Search)를 별도로 활성화하지 않으면, 2024년 12월 이후 일어난 모든 일에 대해 Grok 3 Mini는 아무것도 모릅니다.
문제는 모델이 “모른다”고 솔직하게 말하지 않는 경우입니다. 추론 능력이 뛰어난 모델일수록 불완전한 정보를 그럴듯하게 조합해서 답하는 경향이 있습니다. 수학·논리 문제에서 탁월한 추론력이 최신 정보 공백 상황에서는 오히려 그럴듯한 오답을 생성하는 방향으로 작동할 수 있습니다. 추론이 좋다는 것과 사실이 정확하다는 것은 다른 이야기입니다.
⚠️ xAI API에서 Web Search 도구를 활성화하면 실시간 데이터를 끌어올 수 있지만, 웹 검색 1,000회당 $5.00가 추가됩니다. (출처: docs.x.ai, 2026.03 기준) 최신 정보가 꼭 필요한 작업이라면 이 도구 비용을 처음부터 예산에 포함해야 합니다.
어떤 상황에서 쓰면 진짜 이득인가
가격 비교부터 수치로 확인합니다. Grok 3 Mini의 xAI 직접 API 가격은 입력 $0.30, 출력 $0.50입니다. OpenAI o4-mini의 공개 가격은 입력 $1.10, 출력 $4.40입니다. 출력 기준으로 계산하면 Grok 3 Mini가 약 8.8배 저렴합니다. Artificial Analysis는 Grok 3 Mini Reasoning(high)이 DeepSeek R1과 Claude 3.7 Sonnet(64K 추론 예산)을 앞서면서도 가격 우위를 유지한다고 분석했습니다. (출처: The Decoder / Artificial Analysis 인용, 2025.04.20)
구체적으로 효과적인 상황을 정리하면 이렇습니다. 코드 리뷰 자동화처럼 사람이 결과를 비동기로 확인하는 구조, 수학 문제 풀이 검증, 법률·계약서 구조 분석처럼 정확성이 중요하고 속도는 덜 중요한 배치 작업에 유리합니다. xAI는 Batch API를 통해 비동기 처리 시 50% 추가 할인(입력 $0.15, 출력 $0.25)도 제공합니다. (출처: docs.x.ai, 2026.03 기준)
반대로 맞지 않는 상황도 명확합니다. 실시간 고객 응대, 최신 뉴스 요약, 사실 기반 질의응답이 중심인 서비스에서는 Grok 3 Mini의 SimpleQA 21.7%라는 수치가 그대로 사고로 연결됩니다. 이 경우 Grok 3(대형)나 웹서치를 탑재한 구성이 더 안전합니다.
💡 Batch API 50% 할인을 적용하면 Grok 3 Mini의 출력 비용은 100만 토큰당 $0.25로 내려갑니다. GPT-4o-mini의 출력가 $0.60과 비교해도 저렴합니다. 단, 배치 처리는 대부분 24시간 이내 응답으로, 즉각 응답이 필요한 서비스에는 사용 불가합니다.
자주 나오는 질문 5가지
마치며
Grok 3 Mini는 “저렴한 소형 모델”이라는 범주에서 출발하지만, 수학·코드 추론에서만큼은 대형 모델도 뛰어넘는 구체적인 이유가 있습니다. 강화학습 기반 추론 특화 설계 덕분입니다. 공식 수치가 그걸 직접 보여줍니다.
그러나 추론이 좋다는 게 전부가 아닙니다. 응답 시간 27.4초, 지식 컷오프 2024년 11월, SimpleQA 21.7%라는 숫자는 이 모델이 잘 맞는 환경과 그렇지 않은 환경을 구분해줍니다. 배치 처리, 코드 검증, 수학 문제처럼 느려도 되고 최신 정보가 없어도 되는 작업에는 가성비가 탁월합니다. 실시간 챗봇, 사실 기반 Q&A에는 적합하지 않습니다.
솔직히 말하면, “싼데 왜 잘하냐”는 질문보다 “어디에 쓰면 싸게 잘하냐”가 더 중요한 질문입니다. 그 답은 이미 공식 수치 안에 있었습니다.
본 포스팅 참고 자료
- xAI 공식 발표 — Grok 3 Beta: The Age of Reasoning Agents
https://x.ai/news/grok-3 (2025.02.19) - xAI 공식 모델·가격 문서
https://docs.x.ai/docs/models (2026.03 기준) - Microsoft Azure AI Foundry 공식 블로그 — Grok 3 and Grok 3 Mini on Azure
https://devblogs.microsoft.com/foundry/announcing-grok-3-and-grok-3-mini-on-azure-ai-foundry/ (2025.05.19) - The Decoder — Grok 3 Mini 가격·벤치마크 분석 (Artificial Analysis 인용)
https://the-decoder.com/grok-3-mini-turns-up-the-heat-as-ai-price-wars-push-model-costs-even-lower/ (2025.04.20)
※ 본 포스팅은 2026년 03월 28일 기준으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능·가격이 변경될 수 있습니다. xAI API 가격 및 모델 스펙은 공식 문서(docs.x.ai)에서 최신 정보를 직접 확인하시기 바랍니다.

댓글 남기기