GPT-5.4 mini / nano
OpenAI 공식 발표
GPT-5.4 mini nano, 싸다고요?
이 조건에서만 유리합니다
결론부터 말씀드리면, GPT-5.4 mini는 ChatGPT Free·Go 사용자에게는 기본 Thinking 모델로 바로 쓸 수 있습니다. 하지만 Plus 이상 유료 사용자라면 직접 선택이 불가능하고, GPT-5.4 한도를 다 쓴 뒤에만 자동으로 켜집니다. 요금표에도 함정이 있습니다. GPT-5.4는 272K 토큰 초과 시 요금이 2배로 뛰지만, mini·nano는 그 Long Context 요금 단계 자체가 없어요. 공식 수치로 하나씩 짚어보겠습니다.
ChatGPT 플랜별 사용 방법 — 직접 선택이 되는 플랜과 안 되는 플랜
GPT-5.4 mini와 nano가 출시됐다는 소식을 들으면 “ChatGPT에서 바로 고를 수 있겠구나” 싶은데, 막상 해보면 다릅니다.
OpenAI 공식 발표문(2026.03.17)에 딱 이렇게 나옵니다.
• Free·Go 플랜: Thinking 기능의 기본 모델로 GPT-5.4 mini 제공. + 메뉴에서 직접 선택 가능.
• Plus·Pro·Business·Enterprise 플랜: GPT-5.4 Thinking 한도를 초과한 경우에만 자동 fallback으로 작동. 직접 선택 불가.
• GPT-5.4 nano: API 전용. ChatGPT 인터페이스에서는 어떤 플랜도 선택 불가.
즉, 유료 구독자일수록 mini를 의식적으로 활용하기가 오히려 어렵습니다. GPT-5.4 한도가 남아 있는 한 자동으로 bigger 모델이 작동하기 때문이에요. 반대로 Free 플랜 사용자는 mini가 기본 Thinking 모델이라 지금 당장 품질 좋은 추론 기능을 무료로 쓸 수 있는 상황입니다.
nano는 완전히 개발자·API 용도입니다. ChatGPT 화면에서는 어느 플랜이든 나타나지 않아요.
공식 요금표에서 봐야 할 숫자 — mini·nano에 Long Context 요금이 없는 이유
GPT-5.4 요금표를 처음 보면 “1M 토큰 컨텍스트인데 왜 싸 보이지?” 싶은데, 실제로는 함정이 있습니다. 272K 토큰을 넘기면 입력 요금이 $2.50 → $5.00으로 2배, 출력은 $15.00 → $22.50으로 1.5배 오릅니다. OpenAI 공식 API 요금표에 그대로 나와 있어요. (출처: OpenAI Pricing, 2026.03.17)
| 모델 | 입력 (표준) | 출력 (표준) | 입력 (Long) | 출력 (Long) |
|---|---|---|---|---|
| GPT-5.4 | $2.50 | $15.00 | $5.00 ▲2배 | $22.50 ▲1.5배 |
| GPT-5.4 mini | $0.75 | $4.50 | 해당 없음 | 해당 없음 |
| GPT-5.4 nano | $0.20 | $1.25 | 해당 없음 | 해당 없음 |
mini·nano의 컨텍스트 창은 400K 토큰으로 고정되어 있고, Long Context 요금 단계 자체가 없습니다. 400K 안에서 쓰는 한 요금 체계가 단순합니다. 반면 GPT-5.4는 272K를 기준으로 요금이 달라지기 때문에, 긴 대화나 대규모 코드베이스 작업이라면 숫자를 직접 계산해봐야 합니다.
벤치마크 실측치 — mini와 nano, 어디서 차이가 갈리나
OpenAI가 공개한 벤치마크 수치를 직접 보면 mini와 nano 사이에 생각보다 큰 격차가 있는 항목이 있습니다. 컴퓨터 사용(Computer Use)이 대표적입니다.
| 벤치마크 | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (코딩) | 57.7% | 54.4% | 52.4% | 45.7% |
| OSWorld-Verified (컴퓨터 사용) | 75.0% | 72.1% | 39.0% | 42.0% |
| GPQA Diamond (추론) | 93.0% | 88.0% | 82.8% | 81.6% |
| Terminal-Bench 2.0 (터미널 에이전트) | 75.1% | 60.0% | 46.3% | 38.2% |
OSWorld-Verified 기준으로 mini(72.1%)와 nano(39.0%) 사이에 33.1%포인트 차이가 납니다. 거기다 nano(39.0%)는 구형 GPT-5 mini(42.0%)보다도 낮아요. 스크린샷을 보고 UI를 조작하는 RPA형 자동화, 브라우저 에이전트라면 nano가 오히려 더 비쌉니다 — 오류가 잦아지면 재시도 비용이 올라가니까요. (출처: OpenAI 공식 발표, 2026.03.17)
반면 코딩과 추론에서는 mini·nano 모두 이전 세대 전체를 압도합니다. SWE-Bench Pro에서 nano(52.4%)조차 GPT-5 mini(45.7%)를 크게 넘깁니다. 단순 코드 검토, 분류, 데이터 추출이라면 nano가 성능 대비 가격 면에서 압도적입니다.
Codex 할당량 30% 절약이 실제로 의미하는 것
Codex에서 GPT-5.4 mini를 쓰면 GPT-5.4 할당량의 30%만 차감됩니다. 공식 발표문에 그대로 나온 수치입니다. (출처: OpenAI, 2026.03.17)
실제로 어느 정도 차이인지 직접 계산해봤습니다.
GPT-5.4로만 작업: 작업 1건 = 1단위 → 총 100건 처리 가능
GPT-5.4 mini로 서브에이전트 처리: 동일 작업 1건 = 0.3단위 → 총 약 333건 처리 가능
결과: 같은 할당량으로 처리량 3.3배
OpenAI가 권장하는 방식은 “대형 모델이 계획·조율·최종 판단을 맡고, mini 서브에이전트가 코드베이스 검색·대형 파일 리뷰·보조 문서 처리를 병렬로 처리하는 구조”입니다. 기획은 GPT-5.4, 실행은 mini — 이렇게 역할을 나누면 비용이 극적으로 줄어듭니다.
단순 정리 작업이나 보조 태스크에 GPT-5.4를 그대로 쓰고 있다면, 그냥 쌓아두기엔 아까운 할당량이 날아가고 있는 겁니다.
nano가 Claude Haiku 4.5보다 싼 이유 — 직접 계산해봤습니다
API를 쓰는 개발자라면 소형 모델 요금을 비교할 때 Claude Haiku 4.5를 자주 기준으로 삼습니다. 솔직히 말하면 저도 그랬는데, 이번 nano 가격을 보고 다시 계산해봤습니다.
| 모델 | 입력 / 1M 토큰 | 출력 / 1M 토큰 | GPQA Diamond |
|---|---|---|---|
| GPT-5.4 nano | $0.20 | $1.25 | 82.8% |
| Claude Haiku 4.5 | $1.00 | $5.00 | 73.0% |
입력 기준 5배 차이입니다. 출력 기준으로도 4배 차이가 납니다. 그러면서 GPQA Diamond에서 nano가 9.8%포인트 앞섭니다. (출처: DataCamp 공식 분석, 2026.03.17 / OpenAI 공식 발표, 2026.03.17)
월 2억 토큰 출력 파이프라인을 가정할 때, GPT-5.4 nano 출력 비용은 $250입니다. Claude Haiku 4.5 동일 조건이면 $1,000. 차이가 $750/월입니다. 연으로 따지면 $9,000 차이 — 소형 모델 하나 선택이 실제 인프라 비용에 직접 영향을 줍니다.
단, 벤치마크 기준이 다르다는 점은 주의해야 합니다. Claude Haiku 4.5의 SWE-bench는 “Verified” 버전, GPT-5.4 nano는 “Pro (Public)” 버전으로 직접 비교가 어렵습니다. 요금 비교는 명확하지만, 코딩 성능 비교는 자신의 실제 작업 유형으로 직접 테스트해봐야 합니다.
mini·nano를 쓰면 안 되는 딱 두 가지 상황
지금까지 좋은 점만 얘기했는데, 이 부분이 좀 아쉬웠습니다. 공식 데이터로 확인한 한계점 두 가지입니다.
mini와 nano의 컨텍스트 창은 400K 토큰 고정입니다. GPT-5.4는 설정을 통해 최대 1M 토큰(Codex 기준)까지 확장됩니다. 100만 라인 수준의 모노레포 분석이나 장문 법률문서 전체 검토처럼 400K를 반드시 넘겨야 하는 작업이라면 mini·nano로는 컨텍스트가 잘립니다. 이 부분은 구조 분할(RAG, 청크 처리)로 우회할 수 있지만, 추가 작업이 필요합니다.
앞서 벤치마크에서 확인했듯, nano의 OSWorld-Verified 점수는 39.0%입니다. GPT-5 mini(42.0%)보다도 낮아요. 스크린샷 기반 UI 조작, 웹 브라우저 RPA처럼 컴퓨터 사용이 핵심인 작업이라면 nano가 아닌 mini 이상을 쓰거나, 애초에 GPT-5.4를 써야 합니다. 오류율이 올라가면 재시도 비용이 빠르게 쌓입니다. (출처: OpenAI 공식 벤치마크, 2026.03.17)
이 두 가지를 피하는 한, mini·nano는 속도와 비용 모두에서 꽤 강력한 선택입니다.
Q&A
마치며 — 어디서 쓸지가 더 중요합니다
GPT-5.4 mini와 nano는 분명히 잘 만든 모델입니다. mini는 GPT-5.4에 근접한 코딩 능력을 가지면서 요금은 3.3분의 1, 속도는 2배 이상입니다. nano는 비슷한 규모 경쟁 모델 대비 5배 저렴하면서 추론 점수는 오히려 앞섭니다.
그런데 쓰기 전에 확인해야 할 게 있어요. ChatGPT 플랜 조건, 컨텍스트 창 한계, 컴퓨터 사용 작업 여부 — 이 세 가지를 먼저 짚어봐야 합니다. 특히 유료 구독자라면 mini를 직접 선택할 수 없고 fallback으로만 작동한다는 건, 생각보다 많은 분이 모르고 있는 내용입니다.
개인적인 생각으로는, API를 쓰는 개발자한테는 nano가 가장 큰 변화입니다. 지금까지 소형 모델 선택지에서 비용과 성능을 동시에 맞추기 어려웠는데, nano 등장으로 그 균형점이 상당히 유리하게 옮겨졌거든요. 다만 서비스 업데이트가 빠른 분야인 만큼, 실제 파이프라인에 적용하기 전엔 직접 테스트를 먼저 해보는 게 맞습니다.
본 포스팅 참고 자료
- OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (2026.03.17)
https://openai.com/index/introducing-gpt-5-4-mini-and-nano/ - OpenAI API 공식 요금표 — Pricing (2026.03.17 기준)
https://developers.openai.com/api/docs/pricing/ - OpenAI API 모델 비교표 — Compare models
https://developers.openai.com/api/docs/models/compare - DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (2026.03.17)
https://www.datacamp.com/blog/gpt-5-4-mini-nano - Hacker News — GPT‑5.4 Mini and Nano 스레드 실측 속도 데이터 (2026.03.17)
https://news.ycombinator.com/item?id=47415441
본 포스팅 작성 이후 OpenAI의 서비스 정책·UI·기능·요금이 변경될 수 있습니다. 모든 수치는 2026년 3월 17일 공식 발표 및 API 문서 기준이며, 실제 적용 전 최신 공식 문서를 반드시 확인하시기 바랍니다.

댓글 남기기