2026년 3월 18일, OpenAI가 GPT-5.4 mini와 nano를 출시했습니다. 무료 ChatGPT에서도 쓸 수 있고, nano는 “업계 최저가”로 알려졌습니다. 그런데 공식 문서를 직접 확인해보니 이전 세대(GPT-5 nano) 대비 nano 입력 요금이 4배 올랐습니다. 성능도 특정 구간에서는 구형 mini보다 낮습니다. 빠른 정보부터 짚고 넘어갑니다.
mini 입력 +200% ↑
무료 ChatGPT에서 mini 사용 가능
nano는 API 전용
GPT-5.4 mini와 nano, 뭐가 다른가요?
💡 공식 발표문과 실제 접근 경로를 대조해보니 이런 차이가 있었습니다 — mini는 “ChatGPT 사용자 접점용”, nano는 “API 개발자 전용”으로 역할이 처음부터 나눠져 있습니다. ChatGPT에서 nano를 쓰길 기대했다면 바로 여기서 막힙니다.
(출처: OpenAI 공식 발표, introducing-gpt-5-4-mini-and-nano, 2026.03.17)
| 항목 | GPT-5.4 mini | GPT-5.4 nano |
|---|---|---|
| 접근 경로 | ChatGPT + API + Codex | API 전용 |
| 컨텍스트 윈도우 | 400K 토큰 | 400K 토큰 |
| Computer Use 지원 | ✅ 지원 | ❌ 미지원 |
| API 입력 가격 (1M 토큰) | $0.75 | $0.20 |
| 권장 용도 | 코딩·에이전트·멀티모달 | 분류·추출·랭킹·반복작업 |
싸다는 nano, 실제 요금은 얼마나 올랐나
많은 블로그가 GPT-5.4 nano를 “업계 최저가 수준”이라고 소개하고 있는데, 이전 세대와 비교하면 이야기가 달라집니다. GPT-5 nano(이전 세대)의 입력 가격은 1M 토큰당 $0.05였습니다. GPT-5.4 nano의 입력 가격은 $0.20입니다. 정확히 4배 올랐습니다.
⚠️ 전 세대 대비 실제 인상 폭 (공식 수치 기준)
(출처: OpenAI 공식 API 가격 페이지, openai.com/ko-KR/api/pricing/, 2026.03 기준)
(나무위키 GPT-5 문서 수치 교차 확인)
이게 실생활에서 어떤 의미냐면, 기존에 GPT-5 nano로 월 100만 토큰 입력 처리를 $0.05에 돌리던 서비스라면 같은 워크로드에 이제 $0.20을 써야 합니다. 4달에 한 번 쓸 예산으로 이제 한 달에 다 씁니다.
무료 ChatGPT에서 mini 쓰는 법, 이 조건 있습니다
무료 사용자와 Go 사용자는 GPT-5.4 mini를 쓸 수 있습니다. 단, 방법이 조금 다릅니다. 채팅창의 + 버튼 → “Thinking” 선택으로 접근하면 GPT-5.4 mini가 작동합니다. 모델 선택기에서 직접 “mini”를 고르는 방식이 아닙니다.
Plus 이상 요금제에서는 또 다릅니다. GPT-5.4 Thinking(풀 모델)을 직접 선택해 쓸 수 있고, 주 3,000개 한도를 소진하면 자동으로 GPT-5.4 mini로 폴백됩니다. 즉, Plus 사용자 입장에서 mini는 “선택하는 모델”이 아니라 “한도를 다 쓴 후 만나는 모델”입니다.
💡 요금제별 접근 경로를 공식 도움말과 직접 대조해보니 이런 차이가 나왔습니다 — Free·Go는 Thinking 메뉴에서 능동적으로 선택, Plus는 한도 소진 후 수동 전환 불가 상태의 폴백 모델. 사용 목적에 따라 체감이 다릅니다.
(출처: OpenAI 도움말 센터, help.openai.com/ko-kr/articles/11909943, 2026.03 기준)
참고로 GPT-5.4 Pro는 Pro·Business·Enterprise·Edu 요금제에서만 쓸 수 있고, ChatGPT에서 Pro 모델 선택 시 앱·메모리·캔버스·이미지 생성이 모두 비활성화됩니다. “Pro 요금제 쓰면 다 된다”는 설명이 이 부분에서 어긋납니다.
벤치마크에서 nano가 구형 mini보다 낮은 이유
공식 벤치마크 표를 보면 GPT-5.4 nano와 GPT-5 mini(이전 세대)를 비교한 항목이 있습니다. 대부분에서 GPT-5.4 nano가 앞서지만, OSWorld-Verified(컴퓨터 화면 제어 작업)에서는 GPT-5.4 nano가 39.0%로 GPT-5 mini의 42.0%보다 낮습니다.
💡 공식 벤치마크 수치와 추천 용도를 함께 놓고 보니 이 패턴이 보였습니다 — nano는 Computer Use 기능 자체가 지원 안 되는 모델인데, OpenAI가 벤치마크 비교 대상에 OSWorld 항목을 포함시켜놓은 이유는 전 세대 대비 성능 향상을 보여주기 위해서였습니다. 그런데 오히려 그 항목에서 역전이 났습니다.
(출처: OpenAI 공식 발표 벤치마크 표, introducing-gpt-5-4-mini-and-nano, 2026.03.17)
| 벤치마크 | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini (구형) |
|---|---|---|---|---|
| SWE-Bench Pro (코딩) | 57.7% | 54.4% | 52.4% | 45.7% |
| GPQA Diamond (지식) | 93.0% | 88.0% | 82.8% | 81.6% |
| OSWorld-Verified (컴퓨터 사용) |
75.0% | 72.1% | 39.0% ▼ | 42.0% |
| Terminal-Bench 2.0 | 75.1% | 60.0% | 46.3% | 38.2% |
※ xhigh reasoning_effort 기준. (출처: OpenAI 공식 발표 벤치마크, 2026.03.17)
이 수치가 의미하는 바는 단순합니다. nano는 컴퓨터 화면을 조작하거나 스크린샷을 해석하는 작업에는 맞지 않습니다. Computer Use 기능도 nano에서는 지원되지 않으니, 만약 에이전트 작업에 nano를 선택했다면 구형 GPT-5 mini보다 못한 결과를 보게 됩니다.
long context 쓸 때 mini에서 성능이 급락하는 구간
OpenAI MRCR v2 8-needle 테스트(컨텍스트 안에서 정보를 정확히 찾는 능력) 기준으로, 64K~128K 구간에서 GPT-5.4 mini는 47.7%를 기록합니다. 같은 모델로 128K~256K 구간으로 늘어나면 33.6%로 급락합니다. GPT-5.4(풀 모델)는 같은 구간에서 79.3%를 유지합니다.
💡 공식 벤치마크 수치를 구간별로 나눠서 살펴보니 이 차이가 나왔습니다 — mini가 “400K까지 지원한다”는 말은 기술 사양상 사실이지만, 긴 문서 안에서 특정 정보를 찾아야 할 때는 128K를 넘어가는 순간부터 성능이 눈에 띄게 꺾입니다. 1만 페이지 문서를 통째로 넣는 작업이라면 mini보다 풀 모델이 훨씬 낫습니다.
(출처: OpenAI 공식 발표 벤치마크 Long Context 항목, introducing-gpt-5-4-mini-and-nano, 2026.03.17)
| Long Context 구간 | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano |
|---|---|---|---|
| MRCR v2 64K~128K | 86.0% | 47.7% | 44.2% |
| MRCR v2 128K~256K | 79.3% | 33.6% ▼▼ | 33.1% ▼▼ |
※ OpenAI MRCR v2 8-needle 기준. (출처: OpenAI 공식 발표 벤치마크, 2026.03.17)
nano도 마찬가지입니다. 128K~256K 구간에서 33.1%로 mini(33.6%)와 거의 같습니다. 긴 컨텍스트를 처리할 때 mini와 nano 사이의 성능 차이가 사실상 없어진다는 뜻입니다. 그 구간에서는 mini를 쓸 이유가 얇아집니다.
경쟁사 Claude Haiku 4.5, Gemini와 비교하면
다만 단순 가격 비교로 끝내면 손해 볼 수 있습니다. DataCamp의 분석에 따르면, Claude Haiku 4.5와 GPT-5.4 nano의 OSWorld 비교에서 Haiku 4.5가 표준 OSWorld 50.7%, GPT-5.4 nano가 더 어려운 OSWorld-Verified 39.0%를 기록합니다. 단순 수치로는 nano가 앞서 보이지 않는 셈입니다.
| 모델 | 입력 (1M) | 출력 (1M) | GPQA Diamond | 컨텍스트 |
|---|---|---|---|---|
| GPT-5.4 mini | $0.75 | $4.50 | 88.0% | 400K |
| GPT-5.4 nano | $0.20 | $1.25 | 82.8% | 400K |
| Claude Haiku 4.5 | $1.00 | $5.00 | 별도 공개 | 200K |
| Gemini 3.1 Flash-Lite | $0.25 | $1.50 | 86.9% | 128K |
※ 요금 기준: OpenAI API 공식 가격 페이지(2026.03). Gemini 가격: 공식 Google AI 개발자 문서. Claude Haiku 4.5: Anthropic 공식 문서.
※ GPT-5.4 mini·nano 벤치마크는 xhigh reasoning_effort 기준. GPT-5 mini는 high 기준.
솔직히 말하면, 가격만 보고 nano를 고르는 건 맞습니다. 단순 반복 작업·분류·추출이라면 nano가 가성비 최상입니다. 그런데 Computer Use나 긴 문서 분석이 끼어드는 순간, nano가 아닌 mini나 풀 모델을 써야 합니다. 작업 유형을 먼저 가려야 한다는 게 결론입니다.
자주 나오는 질문 5가지
마치며 — 결국 작업 종류가 먼저입니다
이 부분이 좀 아쉬웠습니다. OpenAI가 출시 발표에서 성능 향상은 잘 정리했는데, 전 세대 대비 요금 인상 폭이나 long context 성능 하락 구간은 표 안에 조용히 들어가 있습니다. 직접 찾아봐야 보이는 수치들입니다.
결론부터 말씀드리면 — 단순 반복 작업이 많다면 nano는 가성비 최고 선택입니다. 코딩·에이전트·멀티모달 작업이 주라면 mini를 쓰세요. 긴 문서를 자주 통째로 집어넣는다면, 비용이 더 들더라도 GPT-5.4 풀 모델이 훨씬 낫습니다. 작업 유형을 먼저 확인하고 모델을 고르는 게 순서입니다.
본 포스팅 참고 자료
본 포스팅은 2026년 3월 20일 기준 공식 자료를 바탕으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능·요금이 변경될 수 있습니다. API 요금, 사용 한도, 모델 지원 범위는 반드시 OpenAI 공식 페이지에서 최신 내용을 확인하시기 바랍니다.

댓글 남기기