2026년 3월 18일, OpenAI가 GPT-5.4 mini와 nano를 공개했습니다. 전날까지만 해도 API 페이지에는 입력 $0.25/1M 토큰이 표시됐습니다. 그런데 출시 당일 확인하면 $0.75/1M으로 바뀌어 있습니다. 공식 릴리스 노트엔 이 변경에 대한 언급이 없습니다. 이 글에서 가격 구조 전체를 공식 수치로 뜯어봤습니다.
출시 전날 가격과 출시일 가격이 달랐습니다
💡 공식 발표문과 실제 API 페이지를 나란히 놓고 비교해보니 이런 차이가 보였습니다
해당 스레드 원문에는 “Edit: they fixed it… so clearly they changed pricing last minute”라는 수정 메모가 달렸습니다. 출시 당일 두 페이지 모두 $0.75로 통일됐습니다. OpenAI가 공식 답변을 내놓지 않은 부분입니다. 출시 직전에 가격이 바뀐 사실 자체는 공식 페이지에서도 간접적으로 확인됩니다.
이게 왜 중요하냐면, GPT-5.4 mini의 포지셔닝이 “저렴한 소형 모델”이기 때문입니다. 처음 알려진 $0.25와 실제 $0.75는 체감이 다릅니다. 연간 1억 토큰을 처리하는 워크플로우라면 비용 차이가 $25,000 vs $75,000이 됩니다. 단순 계산이지만 규모가 커질수록 이 차이는 직접적인 예산 항목으로 연결됩니다.
공식 가격표 — API·Codex·ChatGPT별로 다릅니다
| 모델 | 입력 (1M 토큰) | 출력 (1M 토큰) | 캐시 입력 |
|---|---|---|---|
| GPT-5.4 | $2.50 | $15.00 | $0.25 |
| GPT-5.4 mini ★ | $0.75 | $4.50 | $0.075 |
| GPT-5.4 nano | $0.20 | $1.25 | $0.02 |
(출처: OpenAI API Pricing 공식 페이지, 2026.03.18 기준)
Codex에서 쓰면 실질 단가가 달라집니다
Codex 환경에서 GPT-5.4 mini는 GPT-5.4 쿼터의 30%만 소비합니다. (출처: OpenAI 공식 발표문, 2026.03.18) 즉 같은 Codex 예산으로 GPT-5.4보다 3.3배 많은 작업을 처리할 수 있다는 뜻입니다. 단순 서브에이전트 작업이라면 GPT-5.4를 메인으로, mini를 병렬 서브로 배치하는 구조가 비용상 유리합니다.
ChatGPT 안에서의 접근 경로는 요금제마다 다릅니다
성능은 GPT-5.4의 94%인데, 비용은 10분의 1
“소형 모델은 성능을 포기해야 한다”는 통념이 있습니다. GPT-5.4 mini에서는 이게 생각보다 많이 틀렸습니다. 공식 벤치마크 수치를 직접 놓고 보면 차이가 뚜렷합니다.
| 벤치마크 | GPT-5.4 | GPT-5.4 mini | GPT-5 mini (이전) |
|---|---|---|---|
| SWE-Bench Pro (코딩) | 57.7% | 54.4% | 45.7% |
| OSWorld-Verified (컴퓨터 조작) | 75.0% | 72.1% | 42.0% |
| GPQA Diamond (과학·추론) | 93.0% | 88.0% | 81.6% |
| Terminal-Bench 2.0 | 75.1% | 60.0% | 38.2% |
(출처: OpenAI 공식 발표문 벤치마크 테이블, 2026.03.18 / xhigh 추론 설정 기준)
코딩 벤치마크인 SWE-Bench Pro에서 mini는 GPT-5.4 대비 3.3%p 낮습니다. 성능 차이보다 가격 차이가 훨씬 큽니다. API 기준 입력 토큰 단가는 GPT-5.4가 $2.50, mini가 $0.75입니다. 같은 예산으로 mini를 3.3배 더 많이 호출할 수 있고, 코딩 성능은 3.3%p 차이가 납니다.
💡 GPT-5 mini(이전 모델)와 GPT-5.4 mini를 같은 선상에 놓고 보면 숫자가 달라집니다
ChatGPT 요금제별 실제 사용 한도
ChatGPT 구독 플랜에서 GPT-5.4 mini를 어떻게 만나게 되는지는 요금제마다 다릅니다. “mini니까 무제한 아닌가”라는 생각은 막상 써보면 다릅니다. 한도는 여러 층으로 쌓여 있고, 어느 층에서 막혔는지에 따라 증상이 다르게 나타납니다.
| 요금제 | GPT-5.4 mini 접근 | 메시지 한도 | 한도 초과 시 |
|---|---|---|---|
| Free | Thinking 메뉴 (+) | 약 1회/일(추정) | 이전 세대 mini 전환 |
| Go | Thinking 메뉴 (+) | 약 10회/5시간 | 미사용 가능 |
| Plus | GPT-5.4 폴백(fallback) | GPT-5.4 한도 초과 시 자동 | 응답 품질 체감 하락 |
| Pro | 폴백(fallback) | 무제한(GPT-5.4) | 사실상 미해당 |
(출처: OpenAI 공식 발표문, ChatGPT 공식 요금제 페이지 / Free 하루 한도는 공식 비공개, 외부 문서 분석치)
Plus 사용자가 모르고 넘어가는 부분이 있습니다
Plus 요금제에서 GPT-5.4 메시지 한도(3시간당 약 160회)를 다 쓰면, 시스템이 자동으로 GPT-5.4 mini로 전환됩니다. 메시지가 갑자기 느려지거나 품질이 떨어진다 느껴지는 대부분의 경우가 이 시점입니다. 모델 선택창을 직접 확인하기 전까지는 어떤 모델을 쓰고 있는지 모를 수 있습니다. (출처: OpenAI GPT-5.2 Help 문서, 2026.03.09 감사 기준)
nano vs mini — 어느 쪽을 써야 하는가
💡 OSWorld 수치를 nano와 GPT-5 mini(이전 세대)를 같이 보면 의외의 결과가 나옵니다
작업별 선택 기준
- 텍스트 분류·태깅
- 데이터 추출·정렬
- 단순 코딩 서브에이전트
- 고속 대용량 처리
- 코드베이스 탐색·리뷰
- 스크린샷 분석 (컴퓨터 조작)
- 멀티스텝 추론 작업
- 복잡한 문서 처리
GPQA Diamond(과학·추론) 기준으로 mini는 88.0%, nano는 82.8%입니다. 5.2%p 차이에 가격 차이는 3.7배입니다. 단순 분류·추출 작업이라면 nano가 압도적으로 경제적입니다. 반면 추론 품질이 중요한 구간이라면 mini로 올라가는 게 맞습니다.
쓰다가 막히는 상황 3가지
ChatGPT에서 갑자기 응답이 느려지고 품질이 떨어집니다
긴 문서를 올렸는데 결과가 이상합니다
롱 컨텍스트 벤치마크 수치가 예상보다 낮습니다
공식 벤치마크에서 롱 컨텍스트 성능은 mini와 GPT-5.4의 차이가 가장 큽니다. MRCR v2 8-needle 128K~256K 기준으로 GPT-5.4가 79.3%인 반면 mini는 33.6%에 그칩니다. (출처: OpenAI 공식 발표문, 2026.03.18) 매우 긴 문서의 핵심을 뽑아내는 작업에서는 mini보다 GPT-5.4가 압도적으로 적합합니다.
자주 나오는 질문 5가지
Q1
Q2
Free 사용자도 GPT-5.4 mini를 쓸 수 있나요?
Q3
출시 전날 가격($0.25)과 실제 가격($0.75)이 다른 이유가 뭔가요?
Q4
Codex에서 mini를 쓰면 실제로 얼마나 저렴해지나요?
Q5
마치며
출시 직전 가격 변경 논란은 “저렴할 줄 알았는데”라는 기대를 가진 사람에게 중요한 체크포인트입니다. $0.25와 $0.75는 숫자 차이 이상입니다. 고볼륨 워크플로우에서 연간 수천만 원 단위 예산 차이로 이어집니다. 롱 컨텍스트가 핵심인 작업이라면 mini보다 GPT-5.4가 맞습니다. 단순 분류·추출이라면 nano로 내려가는 게 합리적입니다.
솔직히 말하면, 출시 직전 가격 조용히 바꾸는 건 좀 아쉬운 부분입니다. 그래도 성능 자체는 공식 벤치마크 기준으로 이 가격대에서 가장 경쟁력 있는 소형 추론 모델입니다. 쓰기 전에 어떤 경로로, 어떤 작업에 쓸지 먼저 정리해두면 훨씬 효율적으로 활용할 수 있습니다.
본 포스팅은 2026년 3월 18일 기준 공식 자료를 바탕으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·가격·기능이 변경될 수 있습니다. 정확한 최신 정보는 OpenAI 공식 페이지에서 반드시 확인하시기 바랍니다.

댓글 남기기