GPT-5.4 mini · nano 공식 출시 (2026.03.18)
GPT-5.4 mini, 싸다고 쓰면 이 상황에서 막힙니다
2026년 3월 17일(현지 기준), OpenAI가 GPT-5.4 mini와 nano를 동시에 공식 출시했습니다. 출시 10일이 지난 지금도 한국어로 제대로 정리된 글이 거의 없어서, 공식 발표문과 Help Center 원문을 직접 뒤져봤습니다. 결론부터 말씀드리면 — 싸긴 한데, 싸다고 아무 상황에나 쓰면 안 됩니다.
(mini 성능)
처리 속도
(mini, 128K~256K)
GPT-5.4 mini · nano, 이 두 줄이 핵심입니다
분류, 데이터 추출, 랭킹, 서브에이전트 처리처럼 단순하고 반복적인 작업에 최적화된 모델입니다. API 전용으로만 제공됩니다.
OpenAI는 공식 발표에서 mini를 “빠른 응답이 중요한 코딩 어시스턴트, 서브에이전트, 스크린샷 해석 컴퓨터 사용 시스템에 최적화된 모델”이라고 표현했습니다. (출처: OpenAI 공식 블로그) 큰 모델이 계획을 세우고 mini가 하위 작업을 병렬로 빠르게 처리하는 구조, 즉 서브에이전트 운영에 어울리는 모델입니다.
💡 공식 발표문과 실제 사용 흐름을 같이 놓고 보니 이런 차이가 보였습니다 — mini는 “단독 메인 모델”이 아니라 “빠른 실행 담당 파트너 모델”로 설계됐습니다. 단독으로 쓸 때는 성능이 충분하지 않은 영역이 생각보다 명확합니다.
| 벤치마크 | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (코딩) | 57.7% | 54.4% | 52.4% | 45.7% |
| OSWorld-Verified (컴퓨터 조작) | 75.0% | 72.1% | 39.0% | 42.0% |
| GPQA Diamond (전문 지식) | 93.0% | 88.0% | 82.8% | 81.6% |
| MRCR v2 128K~256K (롱컨텍스트) | 79.3% | 33.6% | 33.1% | 19.4% |
(출처: OpenAI 공식 블로그, Introducing GPT-5.4 mini and nano, 2026.03.17)
벤치마크에서 보이지 않는 약점이 있습니다
롱컨텍스트에서 mini는 본모델의 절반도 안 됩니다
OpenAI 공식 벤치마크(MRCR v2 8-needle)에서 128K~256K 구간의 성능은 GPT-5.4 본모델이 79.3%, mini가 33.6%입니다. (출처: OpenAI 공식 블로그) 수치 그대로 해석하면 — 긴 문서에서 특정 정보를 찾아야 하는 작업이라면 mini는 10번 중 3~4번밖에 정답을 못 찾습니다.
⚠️ 이 약점이 실무에서 드러나는 상황: 코드베이스 전체를 올려두고 “버그 찾아줘”를 요청할 때, PDF 계약서 전문을 붙여넣고 조건 조항을 추출할 때, 긴 대화 히스토리 뒤에서 앞부분 지시사항을 다시 참조할 때. 컨텍스트 길이가 128K를 넘어가는 순간 mini는 본모델과 완전히 다른 모델이 됩니다.
nano의 컴퓨터 조작 성능은 이전 mini보다도 낮습니다
OSWorld-Verified 벤치마크에서 nano의 점수는 39.0%입니다. 이전 세대인 GPT-5 mini(42.0%)보다 낮은 수치입니다. (출처: OpenAI 공식 블로그) nano는 코딩이나 분류 같은 텍스트 중심 작업에서는 이전 mini를 뛰어넘지만, 화면 조작이 필요한 컴퓨터 사용에선 오히려 역전됩니다. 가격이 싸서 에이전트 서브태스크에 쓸 때 컴퓨터 조작까지 맡기면 기대와 다른 결과가 나옵니다.
💡 Terminal-Bench 2.0 기준으로 보면 mini(60.0%)와 nano(46.3%)의 격차가 꽤 큽니다. nano를 터미널 명령 실행 에이전트로 쓰면 mini 대비 완료율이 23%p 낮아집니다.
가격이 올랐습니다 — 그런데 nano가 더 많이 올랐습니다
| 모델 | 입력 (1M 토큰) | 출력 (1M 토큰) | 이전 대비 입력 인상 |
|---|---|---|---|
| GPT-5 mini (이전) | $0.25 | $2.00 | — |
| GPT-5.4 mini (신규) | $0.75 | $4.50 | 3배 ↑ |
| GPT-5 nano (이전) | $0.05 | $0.40 | — |
| GPT-5.4 nano (신규) | $0.20 | $1.25 | 4배 ↑ |
(출처: 나무위키 GPT-5 항목 인용, OpenAI API 공식 가격 기준 / openai.com/api/pricing)
더 저렴한 모델인 nano의 가격 인상 폭(입력 4배)이 mini(입력 3배)보다 큽니다. 대량 처리 비용을 아끼려고 nano를 선택했는데, 이전 GPT-5 nano 대비로 계산하면 예산이 4배 필요해집니다. nano가 원가 절감을 위한 선택이라고 생각했다면, 예산 계획을 다시 짜야 합니다.
💡 비교 기준을 다르게 잡으면 달라집니다 — GPT-5.4 nano($0.20)는 경쟁 모델인 Gemini 3.1 Flash-Lite($0.25)보다 여전히 저렴합니다. (출처: Simon Willison, 2026.03.17) 기준을 “이전 nano”에 두느냐, “경쟁사”에 두느냐에 따라 체감이 완전히 달라집니다.
어디서 쓸 수 있고 어디서는 못 씁니까
GPT-5.4 mini — ChatGPT 무료 플랜에서도 간접 접근됩니다
ChatGPT에서 GPT-5.4 mini는 두 가지 방식으로 접근됩니다. Free · Go 사용자는 ‘+’ 메뉴에서 ‘Thinking’ 기능을 켜면 GPT-5.4 mini가 작동합니다. Plus 이상 사용자는 GPT-5.4 Thinking 주간 한도(3,000건)를 소진하면 자동으로 mini로 전환됩니다. 즉, 무료 사용자도 GPT-5.4 혈통의 추론 모델을 실제로 쓰고 있는 셈입니다.
| 접근 경로 | GPT-5.4 mini | GPT-5.4 nano |
|---|---|---|
| ChatGPT (무료/Go) | ✅ Thinking 기능으로 | ❌ 불가 |
| ChatGPT (Plus 이상) | ✅ 한도 소진 시 자동 전환 | ❌ 불가 |
| API | ✅ gpt-5.4-mini | ✅ gpt-5.4-nano |
| Codex | ✅ 할당량 30% 사용 | ❌ 불가 |
nano는 ChatGPT 앱 어디에도 노출되지 않습니다. API를 직접 호출할 수 있는 개발자 환경에서만 쓸 수 있습니다. 일반 사용자 입장에서 nano는 실질적으로 접근 불가 모델입니다. “나는 API 안 써요”라면 nano는 선택지가 아닙니다.
📌 컨텍스트 윈도우 차이도 있습니다: mini와 nano 모두 컨텍스트 윈도우가 400,000 토큰입니다. GPT-5.4 본모델의 최대 1,050,000 토큰(실험적 옵트인)과 비교하면 절반도 안 됩니다. (출처: 나무위키 GPT-5 항목) 긴 문서를 자주 다룬다면 이 차이가 실무에 직접 영향을 줍니다.
Codex에서 mini를 쓰면 실제로 얼마가 줄어드나요
OpenAI 공식 문서에 수치가 딱 나와 있습니다. Codex에서 GPT-5.4 mini는 GPT-5.4 할당량의 30%만 소모합니다. (출처: OpenAI 공식 블로그) 같은 작업을 본모델로 처리할 때 할당량 100을 쓴다면, mini는 30만 씁니다. 비용으로 환산하면 1/3 수준입니다.
직접 계산해볼 수 있는 수치
API 기준 비용 시뮬레이션 (입력 10K 토큰 + 출력 2K 토큰 기준)
| GPT-5.4 (본모델) | 입력 $0.025 + 출력 $0.030 = $0.055/건 |
| GPT-5.4 mini | 입력 $0.0075 + 출력 $0.009 = $0.0165/건 |
| GPT-5.4 nano | 입력 $0.002 + 출력 $0.0025 = $0.0045/건 |
※ OpenAI API 공식 가격 기준 직접 계산. 실제 사용량·캐시 적용 여부에 따라 달라질 수 있습니다. 추정치입니다.
하루 1,000건 처리 시 mini는 약 $16.5, nano는 약 $4.5가 듭니다. 같은 작업을 본모델로 처리하면 약 $55입니다. 반복 처리 물량이 많은 서브에이전트에서는 mini와 nano의 가성비가 뚜렷하게 납니다.
nano로 사진 76,000장을 설명하면 $52
Simon Willison이 직접 nano를 테스트한 수치가 있습니다. 사진 1장 설명 요청(입력 2,751 토큰 + 출력 112 토큰)의 비용이 0.069센트였고, 이를 76,000장에 적용하면 약 $52.44입니다. (출처: Simon Willison, 2026.03.17) 장당 0.069센트 — 이미지 대량 처리 파이프라인에서 nano의 실용성이 명확하게 드러나는 수치입니다.
공식 발표문과 실제 접근 흐름을 같이 놓고 보니
💡 공식 발표문에는 “mini is a strong fit for subagents”라고 나옵니다. 그런데 ChatGPT 앱에서 보면 Free 사용자도 Thinking 기능으로 mini를 쓸 수 있습니다. 두 가지를 같이 놓고 보면, OpenAI가 무료 사용자에게 GPT-5.4 혈통을 한도 내에서 허용하면서 Plus 전환 유인을 설계한 구조가 보입니다.
무료 사용자가 모르고 쓰고 있는 것이 있습니다
ChatGPT 앱에서 ‘+’ 버튼을 눌러 ‘Thinking’을 켰을 때, Free · Go 사용자는 GPT-5.4 mini가 작동합니다. (출처: OpenAI Help Center) 많은 분들이 “무료니까 GPT-5.3만 쓰겠지”라고 생각하는데, Thinking 기능을 쓰면 이미 mini입니다. 단, Free · Go 기준 5시간마다 최대 10건이라는 한도 안에서입니다. 이 한도를 소진하면 자동으로 mini가 아닌 기본 GPT-5.3 mini로 내려갑니다.
Plus 사용자의 주간 한도 소진 후 흐름
Plus 기준 GPT-5.4 Thinking 주간 한도는 3,000건입니다. 이 한도를 다 쓰면 팝업 알림이 뜨고, 이후 GPT-5.4 Thinking은 수동으로 선택할 수 없게 됩니다. 그런데 한 가지 차이가 있습니다 — Instant(GPT-5.3)에서 GPT-5.4 Thinking으로 자동 라우팅되는 경우는 이 주간 한도에 카운트되지 않습니다. (출처: OpenAI Help Center) 복잡한 질문을 Instant로 보내면 OpenAI가 알아서 Thinking으로 올려줄 수 있고, 이건 3,000건 카운터에 포함되지 않습니다.
📌 모델 버전 종료 일정도 확인해두세요: GPT-5.4 mini 출시로 기존 GPT-5 Thinking mini는 2026년 4월 18일에 지원 종료됩니다. 현재 GPT-5 mini를 워크플로우에 쓰고 있다면, API 모델명을 업데이트하는 일정을 잡아두는 게 좋습니다.
Q&A — 자주 묻는 5가지
마치며 — 결국 어느 상황에 어느 모델을 쓸 것인가
가격 인상 폭은 nano(4배)가 mini(3배)보다 큽니다. 그런데 경쟁사 Gemini Flash-Lite($0.25)와 비교하면 nano($0.20)가 여전히 저렴합니다. 기준을 어디에 두느냐에 따라 체감이 완전히 다릅니다. 직접 API 비용 시뮬레이션을 해보고, 롱컨텍스트 요구 여부를 먼저 확인하고 모델을 고르는 게 순서입니다.
한 줄 정리
- 짧은 컨텍스트 + 코딩/에이전트 → GPT-5.4 mini 적합
- 단순 반복·분류·데이터 추출 대량 처리 → GPT-5.4 nano (API 필요)
- 128K 이상 긴 문서 분석 → GPT-5.4 본모델만 안정적
- 무료 사용자가 추론 기능 원할 때 → ChatGPT Thinking으로 mini 접근 가능
본 포스팅 참고 자료
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. OpenAI는 모델 업데이트와 요금 변경을 사전 공지 없이 진행하는 경우가 있으므로, 중요한 의사결정 전에 공식 페이지(openai.com)에서 최신 정보를 직접 확인하시길 권장합니다. 본문의 수치는 2026년 3월 27일 기준 공식 자료를 토대로 작성되었습니다.

댓글 남기기