GPT-5.4 mini 출시 당일
OpenAI 공식 발표 기준
GPT-5.4 mini, 싸다고요?
가격 먼저 보세요
결론부터 말씀드리면, GPT-5.4 mini는 이전 세대인 GPT-5 mini 대비 입력 토큰 가격이 3배 올랐습니다. “경량 모델 = 저렴”이라는 상식이 이번엔 안 통합니다. 성능은 분명 올랐지만, 요금 구조를 먼저 확인하지 않으면 API 비용이 예상을 크게 벗어날 수 있습니다.
GPT-5.4 mini가 뭔지 30초 정리
2026년 3월 18일 오전 3시(한국 시각), OpenAI가 GPT-5.4 mini와 nano를 공식 출시했습니다. (출처: OpenAI 공식 발표문, 2026.03.18) GPT-5.4 mini는 지난 3월 5일 나온 GPT-5.4의 경량화 버전으로, 코딩·추론·멀티모달 이해·도구 사용에 최적화되어 있습니다.
한마디로 “GPT-5.4의 두뇌를 가져왔는데 몸집을 줄였다”는 표현이 맞습니다. 속도는 GPT-5 mini 대비 2배 이상 빠르고, 성능은 GPT-5.4 본 모델에 근접한다는 게 OpenAI의 주장입니다. 다만 이 주장 뒤에 따라붙는 조건들이 생각보다 많습니다.
API, Codex, ChatGPT 세 채널 모두에서 쓸 수 있고, 컨텍스트 윈도우는 400,000 토큰입니다. GPT-5.4 nano는 API 전용이고, 400,000 토큰 동일합니다.
경량 모델인데 왜 이렇게 비싼가요?
써보니까 성능은 만족스러운데, 가격표를 보고 잠깐 멈췄습니다. GPT-5.4 mini의 API 가격은 입력 100만 토큰당 $0.75, 출력 100만 토큰당 $4.50입니다. 전 세대 GPT-5 mini는 입력 $0.25, 출력 $2.00이었습니다. (출처: OpenAI 공식 발표문, 2026.03.18)
💡 공식 발표문과 실제 요금표를 같이 놓고 보니 이런 차이가 보였습니다
“경량 모델”이라는 수식어가 붙어 있지만, 실제 입력 요금은 이전 세대의 정확히 3배입니다. 출력은 2.25배 인상됐습니다. GPT-5.4 nano는 더 가파릅니다: 입력이 4배, 출력이 3.125배 올랐습니다. 이 수치가 의미하는 건, 동일한 API 워크로드를 운영하던 개발자라면 그냥 mini를 교체하는 것만으로도 월 비용이 2~3배 뛸 수 있다는 점입니다.
| 모델 | 입력 (1M 토큰) | 출력 (1M 토큰) | 이전 대비 |
|---|---|---|---|
| GPT-5 mini (이전 세대) | $0.25 | $2.00 | 기준 |
| GPT-5.4 mini (신규) | $0.75 (+3배) | $4.50 (+2.25배) | ↑ 대폭 인상 |
| GPT-5 nano (이전 세대) | $0.05 | $0.40 | 기준 |
| GPT-5.4 nano (신규) | $0.20 (+4배) | $1.25 (+3.125배) | ↑ 더 가파름 |
출처: OpenAI 공식 발표문 (2026.03.18) / 나무위키 GPT-5 문서
단, Codex 환경에서는 GPT-5.4 쿼터의 30%만 소모해 단순 코딩 작업을 약 1/3 비용으로 처리할 수 있다고 OpenAI는 밝혔습니다. Codex를 메인으로 쓰는 개발자라면 이 구조가 오히려 유리할 수 있습니다.
성능은 얼마나 달라졌을까요?
이게 핵심입니다. 가격이 올랐다는 게 문제가 아니라, 그만큼의 성능이 따라왔느냐가 관건입니다. OpenAI 공식 벤치마크 기준으로 GPT-5.4 mini는 이전 세대 GPT-5 mini를 대부분 항목에서 큰 폭으로 앞섭니다. (출처: OpenAI 공식 발표문, 2026.03.18)
| 벤치마크 | GPT-5.4 mini | GPT-5 mini | GPT-5.4 (본 모델) |
|---|---|---|---|
| SWE-Bench Pro (코딩) | 53.40% | 45.69% | 57.73% |
| OSWorld-Verified (UI 조작) | 70.60% | 42% | 75.03% |
| Terminal-Bench 2.0 | 59.30% | 38.20% | 75.10% |
| GPQA Diamond (과학 추론) | 85.48% | 81.57% | 93.00% |
| Toolathlon (도구 사용) | 40.43% | 26.85% | 54.63% |
출처: OpenAI 공식 발표문 (2026.03.18) / reasoning_effort=xhigh 기준
OSWorld-Verified 수치가 눈에 띕니다. GPT-5 mini가 42%였던 것을 GPT-5.4 mini는 70.60%로 끌어올렸습니다. 화면을 직접 읽고 클릭하는 컴퓨터 사용 능력이 1.68배 향상된 것인데, 에이전트 워크플로우를 구성하는 입장에서는 이게 가장 체감이 큰 변화입니다.
다만 본 모델(GPT-5.4)과의 격차도 확인해야 합니다. Terminal-Bench 2.0에서 mini(59.30%)와 본 모델(75.10%)의 차이는 15.8%p입니다. 빠른 단순 작업엔 mini가 맞고, 복잡한 터미널 자동화엔 본 모델이 여전히 우위입니다.
컨텍스트 윈도우, 여기서 걸립니다
GPT-5.4 본 모델의 컨텍스트 윈도우는 1,050,000 토큰입니다. GPT-5.4 mini와 nano는 400,000 토큰입니다. (출처: OpenAI 공식 발표문, 2026.03.18) 60% 이상 차이가 나기 때문에, 긴 문서를 통째로 넣거나 긴 대화 히스토리를 유지해야 하는 작업에서는 mini가 중간에 잘립니다.
💡 벤치마크 점수만 보면 보이지 않는 부분이 있습니다
OpenAI MRCR v2 8-needle 롱 컨텍스트 테스트에서 GPT-5.4 mini는 128K~256K 구간에서 20.93%를 기록했습니다. 같은 테스트에서 GPT-5.4 본 모델은 79.25%입니다. 즉, 200K짜리 문서를 mini에 넣으면 안에 있는 정보를 5번 중 4번은 제대로 못 찾는다는 의미입니다. 긴 코드베이스나 계약서 전체를 처리하는 용도라면 이 점을 반드시 확인해야 합니다.
대신 64K 이하의 일반적인 대화·코딩·문서 작업에서는 mini도 충분합니다. Graphwalks BFS 0K~128K 구간에서 76.00%로, GPT-5 mini(73.43%)보다 높습니다. 짧고 빠른 반복 작업이 많다면 mini가 오히려 더 실용적입니다.
ChatGPT에서 무료로 쓰는 법
GPT-5.4 mini는 ChatGPT 내에서 “GPT-5.4 Thinking mini”라는 이름으로 제공됩니다. Free 플랜과 Go 플랜 사용자는 대화창 하단의 ‘+’ 버튼을 누르고 ‘잘 생각하기’를 선택하면 됩니다. 바로 GPT-5.4 Thinking mini가 활성화됩니다. (출처: 나무위키 GPT-5 문서)
Plus 요금제 이상은 기본 GPT-5.4 Thinking을 쓰다가 한도가 소진되면 자동으로 GPT-5.4 Thinking mini로 전환됩니다. 즉 Plus 사용자에게는 자동 대체 모델(fallback)로 동작하는 구조입니다.
GPT-5.4 nano는 이 경로로 쓸 수 없습니다. API 전용으로만 제공됩니다. ChatGPT 앱에서 nano를 직접 선택하는 옵션은 현재(2026.03.18 기준) 없습니다.
GPT-5.4 nano와 뭐가 다른가요?
nano는 같은 400K 컨텍스트에 API 전용, 그리고 더 낮은 가격이 특징입니다. 입력 $0.20, 출력 $1.25로 mini보다 훨씬 쌉니다. 분류·데이터 추출·랭킹·간단한 코딩 보조처럼 대량으로 처리해야 하는 단순 작업에 어울립니다. (출처: OpenAI 공식 발표문, 2026.03.18)
| 항목 | GPT-5.4 mini | GPT-5.4 nano |
|---|---|---|
| 입력 가격 (1M 토큰) | $0.75 | $0.20 |
| 출력 가격 (1M 토큰) | $4.50 | $1.25 |
| 컨텍스트 윈도우 | 400K 토큰 | 400K 토큰 |
| ChatGPT 접근 | Free·Go·Plus 가능 | API 전용 |
| SWE-Bench Pro | 53.40% | 52.39% |
| OSWorld-Verified | 70.60% | 측정값 없음 |
출처: OpenAI 공식 발표문 (2026.03.18)
SWE-Bench Pro 기준으로 mini(53.40%)와 nano(52.39%)의 차이는 1.01%p에 불과합니다. 코딩 성능 자체는 거의 같은데 nano가 약 1/3 가격입니다. 단, UI 조작·컴퓨터 사용 기능이 필요하다면 nano에 OSWorld 수치가 없으므로 mini를 선택해야 합니다.
자주 나오는 질문들
마치며 — 이게 진짜 핵심입니다
GPT-5.4 mini는 성능 면에서 분명히 진보했습니다. OSWorld 점수가 GPT-5 mini 대비 1.68배 뛴 것은 벤치마크 수치가 아니라 실제 에이전트 워크플로우에서 체감될 수준입니다. 코딩·멀티모달·도구 사용 모두 이전 경량 세대를 압도합니다.
그런데 이 모델을 “경량이라 저렴하다”는 전제로 접근하면 요금 계획이 틀어집니다. 이전 세대 대비 입력 3배, 출력 2.25배 인상이라는 사실은 공식 발표문 어디에도 크게 강조되어 있지 않습니다. 직접 계산해봐야 보입니다.
64K 이내 작업을 빠르게 반복 처리하거나, Codex 서브에이전트로 쓴다면 mini는 합리적인 선택입니다. 긴 문서 처리나 비용 최소화가 우선이라면 각각 GPT-5.4 본 모델과 nano를 검토하는 게 맞습니다. 어떤 쪽이든 먼저 요금 시뮬레이션을 해보는 걸 권합니다.
📎 본 포스팅 참고 자료
본 포스팅 작성 이후 서비스 정책·UI·기능·요금이 변경될 수 있습니다. 모든 수치는 OpenAI 공식 발표문(2026.03.18) 기준이며, 최신 정보는 OpenAI 공식 사이트에서 확인하시기 바랍니다.


댓글 남기기