GPT-5.4 mini / nano 기준
TECH 테마
GPT-5.4 nano, 정말 싸게 쓸 수 있을까요?
2026년 3월 18일 오전 3시(KST), OpenAI가 GPT-5.4 mini와 nano를 공식 출시했습니다.
입력 토큰 $0.20이라는 숫자만 보면 확실히 저렴해 보입니다.
그런데 막상 이전 세대 가격과 비교해 보면, 그리고 nano를 쓸 수 있는 곳이 어디인지 확인해 보면 —
기대와 다른 부분이 꽤 있었습니다.
nano와 mini, 무엇이 다른가요?
OpenAI 공식 발표문에는 이렇게 명시돼 있습니다.
“nano는 분류, 데이터 추출, 순위 매기기, 그리고 단순 지원 작업을 처리하는 코딩 서브에이전트를 위해 설계됐다.”
(출처: OpenAI 공식 발표, 2026.03.17)
mini는 API, Codex, ChatGPT 세 곳 모두에서 쓸 수 있습니다. 반면 nano는 API에서만 가능합니다.
ChatGPT 무료 사용자나 Go 요금제 사용자는 mini를 ‘잘 생각하기’ 메뉴를 통해 쓸 수 있지만,
nano는 ChatGPT에서 아예 접근이 안 됩니다.
💡 공식 발표문과 ChatGPT 적용 범위를 같이 놓고 보니 이런 차이가 보였습니다 —
nano는 “저렴한 GPT”가 아니라, 개발자가 직접 API로 구성하는 멀티에이전트 파이프라인을 위한 모델입니다.
일반 ChatGPT 사용자와는 사실상 무관합니다.
성능 스펙도 차이가 큽니다. 컨텍스트 윈도우는 mini와 nano 모두 400,000 토큰인데,
(출처: OpenAI 공식 발표, 2026.03.17 / 나무위키 GPT-5 항목, 2026.03.18)
ChatGPT에서 nano를 쓸 수 없는 이유
많은 사람이 “nano가 나왔다”는 소식을 듣고 ChatGPT에서 바로 써보려 할 텐데,
실제로는 열리지 않습니다. OpenAI의 공식 입장은 명확합니다.
“GPT-5.4 nano는 API에서만 이용 가능하며, 입력 토큰 1M당 $0.20, 출력 토큰 1M당 $1.25입니다.”
(출처: OpenAI 공식 발표, 2026.03.17)
이건 설계 의도입니다. OpenAI는 nano를 “속도와 비용이 가장 중요한 작업”을 위한 모델로 정의했습니다.
분류, 라우팅, 단순 코딩 서브에이전트처럼 수십만~수백만 건의 호출이 반복되는 파이프라인에서
비용을 최소화하는 용도입니다.
대화형 인터페이스보다는 자동화 시스템 안에서 조용히 돌아가는 구조에 어울립니다.
mini는 사정이 다릅니다. ChatGPT에서 무료·Go 사용자에게 ‘+’ 메뉴 → ‘잘 생각하기’를 누르면 쓸 수 있고,
Plus 이상 사용자는 GPT-5.4 Thinking 한도를 초과했을 때 자동 전환됩니다.
ChatGPT 내에서의 공식 이름은 ‘GPT-5.4 Thinking mini’입니다.
(출처: 나무위키 GPT-5 항목, 2026.03.18)
💡 기존 GPT-5 Thinking mini는 2026년 4월 18일(KST)에 지원 종료됩니다.
무료 사용자 입장에서는 사실상 GPT-5 Thinking mini가 GPT-5.4 Thinking mini로 업그레이드되는 것과 같습니다.
(출처: 나무위키 GPT-5 항목, 2026.03.18)
결론부터 말씀드리면, nano는 ChatGPT 구독 요금제와 무관합니다.
API 키가 없으면 쓸 수 없습니다. 이 점을 모르고 “nano 써봐야지” 했다가 허탕 치는 경우가 생길 것 같아서 먼저 짚었습니다.
가격이 싸다고요? 이전 세대와 비교해 봤습니다
$0.20이라는 숫자만 보면 저렴해 보입니다. 하지만 이전 세대 GPT-5 nano와 직접 비교하면 이야기가 달라집니다.
나무위키 GPT-5 항목(2026.03.18 기준)에 따르면,
출력 토큰 가격은 3.125배 올랐습니다.
오히려 mini보다 nano의 인상폭이 더 큽니다.
mini도 비슷한 흐름입니다. 입력 토큰이 이전 세대 대비 3배, 출력 토큰은 2.25배 올랐습니다.
이 수치는 “저렴한 소형 모델”이라는 인상과 꽤 다릅니다.
Hacker News에서도 한 개발자가 “저가 구간 가격이 확실히 올랐다(the lowest end pricing has been thoroughly hiked)”고 지적했습니다.
(출처: Hacker News, GPT-5.4 mini and nano 스레드, 2026.03.18)
| 모델 | 입력 (/1M) | 출력 (/1M) | 접근 경로 |
|---|---|---|---|
| GPT-5.4 | $2.50 | $15.00 | API / Codex / ChatGPT |
| GPT-5.4 mini | $0.75 | $4.50 | API / Codex / ChatGPT |
| GPT-5.4 nano | $0.20 | $1.25 | API 전용 |
| Claude Haiku 4.5 | $1.00 | $5.00 | API |
| Gemini 3.1 Flash-Lite | $0.25 | $1.50 | API |
(출처: OpenAI 공식 발표 2026.03.17 / Simon Willison 분석 2026.03.17 / Hacker News 스레드 2026.03.18)
위 표에서 눈에 띄는 건 Gemini 3.1 Flash-Lite입니다.
입력 $0.25, 출력 $1.50으로 nano보다 출력 가격이 오히려 높지만,
절대적인 가격대는 엇비슷합니다. Simon Willison은 자신의 분석에서
“GPT-5.4 nano는 Gemini 3.1 Flash-Lite보다 눈에 띄게 저렴하다”고 평가했지만,
실제로 계산해 보면 입력 기준 $0.05 차이입니다. 의미 있는 차이인지는 사용 규모에 따라 다릅니다.
직접 계산해 볼 수 있는 수치:
Simon Willison이 사진 1장 설명(2,751 입력 토큰 + 112 출력 토큰)에 약 $0.00069(0.069센트)가 들었다고 실측했습니다.
76,000장 사진 전체에 $52.44 정도입니다.
같은 작업을 GPT-5.4 기본 모델($2.50 입력)로 하면 약 $687 — 약 13배 차이가 납니다.
즉 nano의 가치는 대량 반복 작업에서 비로소 드러납니다.
(출처: Simon Willison, 2026.03.17, simonwillison.net)
긴 문서를 넘기면 mini도 흔들립니다
mini가 코딩이나 컴퓨터 사용 벤치마크에서 GPT-5.4에 근접한 성능을 보인다고 해서
모든 작업에서 그렇다고 생각하면 막히는 부분이 생깁니다.
바로 긴 컨텍스트 구간입니다.
OpenAI 공식 벤치마크 중 MRCR v2(8바늘, 128K~256K 구간)를 보면:
절반도 아니고 절반의 절반 수준입니다.
같은 구간에서 GPT-5 mini(이전 세대)는 19.4%이므로 mini가 개선된 건 맞지만,
“GPT-5.4에 근접”한다는 설명은 이 구간에서는 해당이 안 됩니다.
(출처: OpenAI 공식 발표, 2026.03.17)
| 구간 (MRCR v2 8-needle) | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano |
|---|---|---|---|
| 64K~128K | 86.0% | 47.7% | 44.2% |
| 128K~256K | 79.3% | 33.6% | 33.1% |
(출처: OpenAI 공식 발표, 2026.03.17 / 단위: 정확도 %)
이 수치가 의미하는 건 간단합니다.
긴 문서 전체를 깊이 이해해야 하는 작업 — 예를 들어 300페이지 PDF 분석, 대형 코드베이스 전체 리뷰,
긴 대화 맥락 유지 — 에는 mini나 nano를 쓰면 안 됩니다.
Beam.ai의 분석도 같은 결론입니다. “이 구간에서 mini는 적합하지 않습니다.
잘 범위가 좁혀진 서브태스크에서만 성능 프로필이 유지됩니다.”
(출처: Beam.ai 분석, 2026.03.18)
nano는 더 심합니다. OSWorld-Verified(컴퓨터 사용 벤치마크)에서 mini가 72.1%인 반면 nano는 39.0%입니다.
흥미롭게도 이전 세대 GPT-5 mini(42.0%)보다도 낮은 수치입니다.
컴퓨터 사용 작업에서 nano를 쓰면 이전 세대보다 오히려 못할 수 있다는 뜻입니다.
(출처: OpenAI 공식 발표, 2026.03.17)
Codex에서 mini가 갖는 의미
Codex 사용자에게 mini 출시가 반가운 건 가격 구조 때문입니다.
공식 발표에 따르면, Codex에서 GPT-5.4 mini는 GPT-5.4 쿼터의 단 30%만 소비합니다.
(출처: OpenAI 공식 발표, 2026.03.17)
OpenAI가 의도하는 구조는 이렇습니다.
mini 서브에이전트들이 코드베이스 검색, 대형 파일 리뷰, 지원 문서 처리 같은 세부 작업을 병렬로 처리합니다.
이 구조가 가능해진 건 mini의 도구 호출 정확도가 크게 올랐기 때문입니다.
τ2-bench(텔레콤) 기준으로 mini는 93.4%를 기록했는데, 이전 세대 GPT-5 mini의 74.1%에서 20%포인트 가까이 뛰었습니다.
💡 공식 Codex 쿼터 구조와 서브에이전트 설계를 함께 보면 이런 그림이 나옵니다 —
mini 출시 이후 Codex에서는 “하나의 큰 작업을 쪼개서 mini에게 넘기는” 것이 비용 효율적인 기본 전략이 됩니다.
단순히 “싼 버전”을 쓰는 게 아니라, 아키텍처 자체가 바뀌는 겁니다.
(출처: OpenAI 공식 발표 및 Beam.ai 분석, 2026.03.17~18)
다만 솔직히 말하면, 이 구조는 개발 경험이 있는 사람에게나 의미 있습니다.
Codex를 처음 쓰는 분들에게는 “어떤 작업을 mini에게 넘길 것인가”를 판단하는 것 자체가
또 다른 학습 곡선입니다.
경쟁 모델과 가격·성능 직접 비교
가장 직접적인 경쟁 상대는 Gemini 3.1 Flash-Lite와 Claude Haiku 4.5입니다.
속도 면에서는 nano가 Hacker News 실측 기준 약 200 토큰/초를 기록했습니다.
같은 스레드에서 Gemini 3 Flash는 API 기준 약 130 토큰/초로 측정됐습니다.
즉 nano가 Gemini Flash보다 약 50% 이상 빠릅니다.
(출처: Hacker News, GPT-5.4 mini and nano 스레드, 2026.03.18)
그러나 가격 면에서는 Gemini 3.1 Flash-Lite($0.25 입력 / $1.50 출력)와 비교해
nano($0.20 입력 / $1.25 출력)의 우위가 크지 않습니다.
1M 입력 토큰당 $0.05 차이가 실제로 의미 있는 절감이 되려면
수억 토큰 이상의 고용량 워크로드여야 합니다.
소규모 프로젝트에서는 차이가 거의 없습니다.
코딩 성능 기준(SWE-Bench Pro)으로 보면:
nano가 52.4%로 이전 세대 GPT-5 mini(45.7%)를 제쳤습니다.
이 수치는 nano 가격대에서 이전에 불가능했던 코딩 서브에이전트 구성이 가능해졌다는 걸 의미합니다.
(출처: OpenAI 공식 발표, 2026.03.17)
제 판단: nano는 “GPT 계열에서 가장 싼 모델”이라는 프레임으로 접근해야 하지,
nano는 명확하게 API 개발자 전용 파이프라인 모델입니다.
자주 나오는 질문 5가지
마치며
이전 세대 대형 모델에서나 볼 수 있던 코딩 성능(SWE-Bench Pro 52.4%)을
API 기준 입력 $0.20에 쓸 수 있다는 건 실제로 의미 있는 변화입니다.
200 토큰/초 수준의 속도도 체감이 될 만합니다.
그런데 막상 써보려 하면 걸리는 지점이 있습니다.
ChatGPT에서는 아예 쓸 수 없고, API 개발자 전용입니다.
“저렴하다”는 인상과 달리 이전 세대 대비 가격이 4배 올랐습니다.
긴 컨텍스트 구간에서는 예상보다 훨씬 성능이 떨어집니다.
컴퓨터 사용 작업에서는 nano가 이전 세대 GPT-5 mini보다 오히려 낮은 수치를 보입니다.
정리하면, nano는 “범용 저렴이 모델”이 아닙니다.
대량 반복, 단순 분류, 좁게 정의된 서브에이전트 작업에서만 진가가 나옵니다.
그 범위 안에서라면, 현재 시점에서 API 기준 가장 빠르고 저렴한 GPT 계열 선택지입니다.
본 포스팅은 2026.03.18 09:58 KST 기준으로 작성됐습니다.
본 포스팅 참고 자료
- OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano
https://openai.com/index/introducing-gpt-5-4-mini-and-nano/ - OpenAI 공식 발표 (한국어) — GPT-5.4 소개
https://openai.com/ko-KR/index/introducing-gpt-5-4/ - Simon Willison — GPT-5.4 mini and nano 실측 분석 (2026.03.17)
https://simonwillison.net/2026/Mar/17/mini-and-nano/ - Beam.ai — GPT-5.4 Mini & Nano: Multi-Model Architecture Validated (2026.03.18)
https://beam.ai/agentic-insights/ - 나무위키 GPT-5 항목 (2026.03.18 기준)
https://namu.wiki/w/GPT-5
※ 본 포스팅 작성 이후 서비스 정책·UI·기능·가격이 변경될 수 있습니다.
IT/AI 서비스 특성상 OpenAI의 모델 업데이트 및 정책 변경으로 내용이 달라질 수 있습니다.
최신 정보는 OpenAI 공식 홈페이지를 통해 반드시 재확인하시기 바랍니다.


댓글 남기기