GPT-5.4 mini & nano
GPT-5.4 미니·나노, 싸다고 쓰면
이 조건에서 막힙니다
2026년 3월 18일, OpenAI가 GPT-5.4 mini와 nano를 공개했습니다. “가격은 낮고 성능은 준플래그십에 가깝다”는 말이 돌고 있는데, 공식 수치를 직접 들여다보면 그게 전부가 아닙니다.
GPT-5.4 mini·nano가 뭔데 이렇게 떠드나요
GPT-5.4 mini와 nano는 2026년 3월 17일(한국 시간 3월 18일) OpenAI가 공개한 경량 모델입니다. GPT-5.4 mini는 API·Codex·ChatGPT 세 채널에서, nano는 API 전용으로 제공됩니다. (출처: OpenAI 공식 발표, 2026.03.17)
두 모델 모두 에이전트 워크플로우, 코딩 보조, 스크린샷 해석 같은 반복·속도 민감 작업을 겨냥해 만들어졌습니다. OpenAI는 이 모델들을 가리켜 “최고의 모델이 항상 가장 큰 모델은 아니다”라고 했는데, 이건 마케팅 문구가 아니라 실제 설계 철학을 담은 말입니다. 대형 모델이 계획·판단을 맡고, mini·nano가 하위 작업을 빠르게 처리하는 다단계 에이전트 구조를 염두에 둔 것입니다.
SWE-Bench Pro 기준 GPT-5.4 mini는 54.4%로, 플래그십 GPT-5.4(57.7%)에 2.6%포인트 못 미칩니다. (출처: OpenAI 공식 발표, 2026.03.17) 코딩 능력의 차이가 생각보다 작습니다.
💡 공식 발표문과 실제 요금표를 같이 놓고 보니 이런 차이가 보였습니다.
성능 수치가 ‘준플래그십’에 가까운 건 사실인데, 가격 구조는 이전 mini 세대와 꽤 다르게 바뀌었습니다.
| 모델 | SWE-Bench Pro | Terminal-Bench 2.0 | GPQA Diamond | OSWorld-Verified |
|---|---|---|---|---|
| GPT-5.4 | 57.7% | 75.1% | 93.0% | 75.0% |
| GPT-5.4 mini | 54.4% | 60.0% | 88.0% | 72.1% |
| GPT-5.4 nano | 52.4% | 46.3% | 82.8% | 39.0% |
| GPT-5 mini (구 세대) | 45.7% | 38.2% | 81.6% | 42.0% |
출처: OpenAI 공식 발표 (2026.03.17), xhigh reasoning_effort 기준
가격이 싸다는 말, 직접 계산해봤습니다
GPT-5.4 mini의 API 가격은 입력 1M 토큰당 $0.75, 출력 1M 토큰당 $4.50입니다. GPT-5.4 nano는 입력 $0.20, 출력 $1.25입니다. (출처: OpenAI API 공식 가격표, 2026.03.17)
그런데 이게 “싸다”인지는 기준점에 따라 다릅니다. 이전 세대인 GPT-5 mini의 입력 가격이 $0.25였으니, mini 기준으로는 정확히 3배 오른 것입니다. 이 점을 언급하지 않고 “저렴한 모델”이라고만 쓴 자료들이 많습니다. 플래그십 GPT-5.4($2.50/$15.00)와 비교하면 싼 건 맞지만, 직전 mini 세대와 비교하면 3배 비싸졌다는 게 정확한 그림입니다.
💡 GPT-5 mini에서 GPT-5.4 mini로 바꾸면 그냥 비용 3배입니다.
기존 API 설정에 drop-in 교체는 예산 계획을 다시 해야 합니다. (Reddit r/OpenAI 사용자 반응, 2026.03.17)
실제 비용 계산 예시
월 입력 토큰 1억 개(100M), 출력 토큰 2천만 개(20M) 기준으로 직접 계산해봤습니다.
| 모델 | 입력 비용 | 출력 비용 | 월 합계 |
|---|---|---|---|
| GPT-5 mini (구) | $25.00 | $40.00 | $65.00 |
| GPT-5.4 mini (신) | $75.00 | $90.00 | $165.00 |
| GPT-5.4 nano (신) | $20.00 | $25.00 | $45.00 |
계산 기준: 입력 100M 토큰, 출력 20M 토큰 / 출처: OpenAI 공식 가격표 (2026.03.17)
GPT-5.4 mini로 넘어가면 GPT-5 mini 대비 약 2.5배 비용이 늘어납니다. GPT-5.4 nano는 구 세대보다 오히려 저렴한 유일한 선택지입니다.
400K 컨텍스트 창, 절반 넘으면 다릅니다
GPT-5.4 mini와 nano는 모두 400K 토큰 컨텍스트 창을 제공합니다. “긴 문서도 통째로 넣을 수 있다”는 식으로 많이 알려졌는데, 공식 벤치마크를 보면 이야기가 달라집니다.
OpenAI가 공식 발표에 포함한 MRCR v2(8-needle) 기준, GPT-5.4 mini의 64K~128K 구간 성능은 47.7%입니다. 그런데 128K~256K 구간으로 넘어가면 33.6%로 떨어집니다. (출처: OpenAI 공식 발표, 2026.03.17) 컨텍스트가 절반을 넘는 순간 롱컨텍스트 정확도가 30% 이상 떨어진다는 뜻입니다.
⚠️ 400K 창이 있다고 400K 전체를 신뢰하면 안 됩니다.
128K 이상 구간에서 needle 찾기 정확도가 33.6%로 급락합니다. 대용량 문서 분석 목적이라면 mini·nano보다 플래그십 GPT-5.4를 써야 하는 구간이 생깁니다.
| 모델 | 64K~128K | 128K~256K | 변화폭 |
|---|---|---|---|
| GPT-5.4 (플래그십) | 86.0% | 79.3% | -6.7%p |
| GPT-5.4 mini | 47.7% | 33.6% | -14.1%p |
| GPT-5.4 nano | 44.2% | 33.1% | -11.1%p |
출처: OpenAI MRCR v2 8-needle 벤치마크, OpenAI 공식 발표 (2026.03.17)
플래그십은 128K→256K 구간에서 -6.7%p 하락하는 반면, mini는 -14.1%p 하락합니다. 긴 컨텍스트 안정성에서 두 배 이상 차이가 납니다.
nano가 mini보다 못한 조건이 따로 있습니다
“mini보다 싼 nano가 mini보다 약하다”는 건 당연한 말처럼 들립니다. 그런데 단순 서열이 무너지는 구간이 하나 있습니다. 바로 화면 자동화(Computer Use) 작업입니다.
OSWorld-Verified 벤치마크 기준, GPT-5.4 nano의 점수는 39.0%입니다. 그런데 구 세대인 GPT-5 mini가 42.0%였습니다. (출처: OpenAI 공식 발표, 2026.03.17) nano는 화면 조작 자동화에서 자기 직전 세대보다 오히려 3%p 낮습니다. 비용을 줄이려고 nano를 쓰다가 오히려 성능이 퇴보하는 경우가 생기는 셈입니다.
💡 발표 수치와 실제 쓰임새를 교차해보니 이런 결과가 나왔습니다.
nano를 “작은 mini”라고 생각하면 CUA 작업에서 기대치와 다른 결과를 만날 수 있습니다.
어떤 작업에 어떤 모델이 맞는지
| 작업 유형 | mini 추천 | nano 추천 | 이유 |
|---|---|---|---|
| 코드 리뷰·수정 | ✅ | ⚠️ | SWE-Bench 차이 2%p, mini가 안정적 |
| 화면 자동화(CUA) | ✅ | ❌ | nano 39% vs GPT-5 mini 42% — 구 세대보다 낮음 |
| 데이터 분류·추출 | ⚠️ | ✅ | nano가 OpenAI 공식 권장 용도, 비용 최소화 |
| 128K 초과 문서 분석 | ❌ | ❌ | 둘 다 급락, 플래그십 GPT-5.4 사용 권장 |
| 에이전트 서브태스크 | ✅ | ✅ | Codex에서 공식 지원, 비용 각 30%·약 10% 수준 |
ChatGPT에서 직접 선택은 안 됩니다
많은 분들이 “GPT-5.4 mini가 나왔다니 ChatGPT에서 바로 써야지”라고 생각할 수 있는데, 상황이 다릅니다. OpenAI 공식 발표에 정확히 이렇게 나와 있습니다.
“ChatGPT에서 GPT-5.4 mini는 Free·Go 계정의 경우 + 메뉴의 Thinking 기능을 통해 이용할 수 있습니다. 그 외 계정에서는 GPT-5.4 Thinking의 사용 한도 초과 시 자동 대체 모델로만 제공됩니다.”
출처: OpenAI 공식 발표, 2026.03.17
Plus, Pro 계정 사용자라면 GPT-5.4 Thinking의 한도를 다 쓴 뒤에야 mini가 자동으로 등장합니다. 직접 “mini로 답해줘”라고 선택하는 메뉴는 현재 없습니다. nano는 처음부터 API 전용으로, ChatGPT UI에서는 접근 자체가 불가합니다.
Codex에서는 mini가 플래그십 GPT-5.4 쿼터의 30% 만 소비합니다. API 비용을 줄이면서 코딩 작업을 처리하고 싶다면 ChatGPT 대신 Codex CLI·앱을 활용하는 게 실용적입니다.
경쟁 모델과 나란히 놓으면 보이는 것
GPT-5.4 mini·nano를 단독으로 보면 “우수하다”로 끝납니다. 경쟁 모델과 같이 놓으면 다른 그림이 나옵니다.
Terminal-Bench 2.0 코딩 성능에서, GPT-5.4 mini는 60.0%로 Gemini 3 Flash(47.6%)를 앞섭니다. 하지만 가격은 mini($0.75 입력)가 Gemini 3 Flash($0.50 입력)보다 50% 비쌉니다. GPT-5.4 nano(46.3%)는 Gemini 3 Flash보다 살짝 낮으면서 가격은 $0.20으로 더 저렴합니다. (출처: 공식 API 가격표, Terminal-Bench 2.0 공개 수치, 2026.03.17)
| 모델 | Terminal-Bench 2.0 | 입력 가격(/1M) | 출력 가격(/1M) |
|---|---|---|---|
| GPT-5.4 mini | 60.0% | $0.75 | $4.50 |
| Gemini 3 Flash | 47.6% | $0.50 | $3.00 |
| GPT-5.4 nano | 46.3% | $0.20 | $1.25 |
| Claude Haiku 4.5 | — (미공개) | $1.00 | $5.00 |
출처: 각 공식 API 가격표 (2026.03.17 기준) / Claude Haiku 4.5 Terminal-Bench 수치는 Anthropic이 공식 공개하지 않은 항목입니다.
코딩 성능이 최우선이면 mini가 낫고, 비용이 최우선이면 nano가 낫습니다. 그런데 Gemini 3 Flash는 코딩 성능과 가격 모두에서 중간 지점을 잡고 있어, “어중간하게 비싼” mini보다 특정 용도에서 더 실용적일 수 있습니다.
실사용 측면에서, Hacker News 실측 기준 GPT-5.4 mini API 처리 속도는 180~190 tokens/s, nano는 약 200 tokens/s입니다. Gemini 3 Flash가 약 130 tokens/s인 것과 비교하면 속도만큼은 OpenAI가 앞섭니다. (출처: Hacker News, HN #47415441, 2026.03.17)
Q&A
마치며
GPT-5.4 mini·nano는 분명히 잘 만들어진 모델입니다. 속도 면에서는 Gemini 3 Flash를 제치고, 코딩 성능은 플래그십의 90% 수준에 근접합니다. 그런데 “싸고 빠르다”는 말 뒤에 붙어야 할 조건들이 있습니다.
구 세대 mini 대비 입력 가격이 3배 오른 점, 400K 창이 있어도 128K를 넘으면 성능이 절반 이하로 떨어지는 점, nano가 화면 자동화에서는 이전 세대보다 오히려 낮은 점. 이 세 가지는 실제 도입 결정에 직접 영향을 주는 수치입니다.
솔직히 말하면, 단순·반복·대량 작업에는 nano가 매력적입니다. 코딩 에이전트에는 mini가 실용적입니다. 단, ChatGPT UI에서 직접 쓰는 게 목적이라면 예상보다 제약이 많습니다. API 개발자가 아닌 일반 사용자라면 지금 당장 체감이 크지 않을 수 있습니다.
본 포스팅 참고 자료
- ① OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (openai.com/index/introducing-gpt-5-4-mini-and-nano/)
- ② OpenAI API 공식 가격표 (developers.openai.com/api/docs/pricing/)
- ③ ZDNET — OpenAI’s GPT-5.4 mini and nano launch (zdnet.com/article/gpt-5-4-mini-and-nano/)
- ④ Hacker News — GPT-5.4 Mini and Nano 실측 속도 토론 (news.ycombinator.com/item?id=47415441)
- ⑤ Reddit r/OpenAI — Introducing GPT-5.4 mini and nano (reddit.com/r/OpenAI/comments/1rwcn2y/)
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 가격과 벤치마크 수치는 2026년 3월 17일 OpenAI 공식 발표 기준이며, 이후 OpenAI 정책 변경에 따라 달라질 수 있습니다.







댓글 남기기