GPT-5.4 mini-2026-03-17
GPT-5.4 mini, 숫자로 확인한 3가지 함정
GPT-5.4 mini가 “2배 빠르고 플래그십 수준”이라는 소개와 함께 출시됐습니다. 그런데 공식 벤치마크 표를 직접 보면, 그 말이 맞는 구간과 틀리는 구간이 선명하게 갈립니다. 특히 긴 문맥, ChatGPT 접근 방식, Codex 쿼터 소비 방식에서 기대와 다른 결과가 나옵니다.
GPT-5.4 mini란 무엇인가 — 한 줄 요약부터
GPT-5.4 mini는 2026년 3월 17일 OpenAI가 공개한 소형 모델입니다. GPT-5 mini의 후속작으로, 이전 세대보다 2배 이상 빠르고 코딩·멀티모달·도구 사용 전반에서 성능이 크게 올라갔습니다. (출처: OpenAI 공식 블로그, 2026.03.17) 같은 날 함께 나온 GPT-5.4 nano는 API 전용 모델이고, mini는 ChatGPT 앱과 API 모두에서 쓸 수 있습니다.
GPT-5.4 시리즈는 5월 이후 폐기 예정인 GPT-5.2를 대체하는 현재 OpenAI의 주력 라인업입니다. Standard·Pro가 3월 5일 먼저 나왔고, mini·nano가 3월 17일 뒤따랐습니다. API 모델 ID는 gpt-5.4-mini-2026-03-17입니다.
💡 공식 발표문과 벤치마크 수치를 같이 놓고 보면, mini가 플래그십에 “가깝다”는 구간과 확실히 뒤처지는 구간이 나뉩니다. 어느 쪽인지가 실제 선택에서 중요합니다.
코딩·컴퓨터 사용 성능 — 플래그십이 맞습니까
코딩 벤치마크인 SWE-Bench Pro에서 GPT-5.4 mini는 54.4%, GPT-5.4 본체는 57.7%를 기록했습니다. (출처: OpenAI 공식 블로그, 2026.03.17) 차이는 3.3%p인데, 이전 세대 GPT-5 mini가 45.7%였다는 걸 생각하면 +8.7%p 향상입니다. 작은 모델치고 플래그십에 꽤 가까이 붙은 셈입니다.
컴퓨터 사용 지표인 OSWorld-Verified에서는 GPT-5.4 mini가 72.1%, GPT-5.4가 75.0%를 기록했습니다. 인간 기준점(Human Baseline)이 72.4%라는 점을 감안하면, mini도 사실상 평균 인간 수준의 컴퓨터 조작을 수행합니다. 화면 캡처 해석, 브라우저 탐색, 멀티스텝 UI 작업에서 실용적으로 쓸 수 있다는 뜻입니다.
| 벤치마크 | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro | 57.7% | 54.4% | 52.4% | 45.7% |
| Terminal-Bench 2.0 | 75.1% | 60.0% | 46.3% | 38.2% |
| OSWorld-Verified | 75.0% | 72.1% | 39.0% | 42.0% |
| GPQA Diamond | 93.0% | 88.0% | 82.8% | 81.6% |
(출처: OpenAI 공식 블로그 introducing-gpt-5-4-mini-and-nano, 2026.03.17 / 표 기준: xhigh reasoning effort)
Terminal-Bench 2.0에서 mini(60.0%)가 GPT-5.2(62.2%)보다 낮다는 점은 주목할 부분입니다. 이전 세대 플래그십보다 터미널 에이전트 작업이 살짝 뒤처집니다. 단순 비교는 어렵지만, 터미널 집중 워크플로에서 mini를 고려한다면 Terminal-Bench 수치를 먼저 확인할 필요가 있습니다.
긴 문맥에서 점수가 반토막 나는 구간이 있습니다
GPT-5.4 mini의 컨텍스트 윈도우는 400K 토큰입니다. 그런데 공식 벤치마크인 OpenAI MRCR v2(8-needle)를 보면, 64K~128K 구간에서 GPT-5.4 본체가 86.0%를 기록할 때 mini는 47.7%에 그쳤습니다. (출처: OpenAI 공식 블로그, 2026.03.17) 컨텍스트가 128K를 넘는 256K 구간에서는 각각 79.3% vs 33.6%로 격차가 더 벌어집니다.
⚠️ 실사용 의미: 400K 윈도우를 지원한다고 해서 400K 길이의 문서를 같은 정확도로 처리하는 건 아닙니다. 긴 문서에서 특정 정보를 정확히 찾아야 하는 작업이라면 mini보다 GPT-5.4 본체가 유리합니다.
이건 mini만의 문제가 아닙니다. GPT-5.4 본체의 긴 문맥 성능도 컨텍스트가 길어질수록 하락합니다. 단, mini는 하락 폭이 훨씬 가파릅니다. Graphwalks BFS(0K~128K) 기준으로 본체가 93.1%일 때 mini는 76.3%로, 이 구간에서는 격차가 상대적으로 작습니다. 즉, 단순한 긴 문서 처리보다 “긴 문서 안에서 여러 정보를 동시에 추적하는 작업”에서 mini가 특히 취약합니다.
💡 OpenAI가 같은 표에서 공개한 수치인데, “400K 컨텍스트를 지원한다”는 문장만 보면 모르는 부분입니다. 64K를 넘는 문서를 자주 다룬다면, 단순 컨텍스트 크기가 아니라 MRCR 점수를 기준으로 모델을 고르는 게 맞습니다.
ChatGPT에서 쓰는 방법이 플랜마다 다릅니다
GPT-5.4 mini는 “ChatGPT Free 사용자도 쓸 수 있다”고 알려졌는데, 접근 방식이 플랜마다 전혀 다릅니다. 공식 릴리스 노트(2026.03.18)에 나온 내용을 그대로 정리하면 이렇습니다.
| ChatGPT 플랜 | GPT-5.4 mini 접근 방식 |
|---|---|
| Free / Go | + 메뉴 → Thinking 기능을 통해서만 사용 가능 |
| Plus / Team / Pro / Enterprise | GPT-5.4 Thinking 한도 초과 시 fallback으로 자동 전환 |
(출처: OpenAI Help Center — Model Release Notes, 2026.03.18)
Free 사용자는 mini를 직접 선택해서 쓰는 구조가 아닙니다. “Thinking” 버튼을 눌렀을 때 내부적으로 mini가 작동합니다. 유료 플랜 사용자에게는 GPT-5.4 Thinking 사용량이 소진됐을 때 자동으로 mini로 내려오는 fallback 모델입니다. 즉, “Free에서도 GPT-5.4 mini 씁니다”가 정확한 표현이 아니라, “Free의 Thinking 기능 = GPT-5.4 mini”라고 이해해야 합니다.
유료 사용자 입장에서는 Thinking 한도를 모두 쓴 뒤에 mini로 넘어간다는 점도 주목할 부분입니다. 의도하지 않게 mini로 대화가 이어지는 상황이 생길 수 있습니다. DataStudios의 분석(2026.03.15)에서도 Free 사용자가 5시간마다 GPT-5.3 메시지 10개 한도를 소진하면 mini 모델로 자동 전환된다고 정리된 바 있습니다.
Codex에서 mini가 30% 쿼터만 쓴다는 말의 진짜 의미
Codex 환경에서 GPT-5.4 mini는 GPT-5.4 쿼터의 30%만 소비합니다. (출처: OpenAI 공식 블로그, 2026.03.17) 간단히 계산하면, GPT-5.4로 1개 작업을 할 때 mini로는 같은 쿼터로 약 3.3개 작업을 처리할 수 있습니다. 단가 기준 약 3분의 1이라는 뜻입니다.
💡 OpenAI가 Codex 문서에서 설명한 멀티에이전트 패턴이 여기서 직접 연결됩니다. GPT-5.4가 계획·조율·최종 판단을 맡고, mini 서브에이전트들이 코드베이스 검색·파일 리뷰·문서 처리를 병렬로 수행하는 구조입니다. 이 설계에서는 “느린 플래그십 하나”보다 “빠른 mini 여러 개”가 실제로 더 효율적입니다.
이 패턴이 중요한 이유는 비용뿐만이 아닙니다. 서브에이전트가 빠르게 병렬 처리하면 플래그십이 더 많은 맥락을 확보한 상태에서 판단을 내립니다. API로 멀티에이전트 시스템을 구성할 때, 모든 레이어를 GPT-5.4로 채우는 대신 역할별로 mini와 nano를 섞는 방식이 훨씬 현실적인 선택입니다.
실제 비용 계산 예시: 입력 500토큰, 출력 100토큰짜리 API 호출을 100만 건 처리한다면 GPT-5.4 기준 약 $2,750인데, mini로는 약 $825로 줄어듭니다. (출처: FluxHire.AI 분석 기사, 2026.03.19 / 공식 단가 기준 추정) nano로는 약 $225까지 내려갑니다. 어떤 레이어에 어떤 모델을 쓸지가 총비용을 3~12배 좌우합니다.
GPT-5.4 nano, Claude Haiku 4.5와 나란히 놓으면
GPT-5.4 nano는 API 전용입니다. ChatGPT 앱에서는 보이지 않습니다. 그런데 가격만 보면 경쟁 모델인 Claude Haiku 4.5보다 입력·출력 모두 저렴합니다. GPT-5.4 nano는 입력 $0.20/1M, 출력 $1.25/1M인 데 반해, Claude Haiku 4.5는 입력 $1.00/1M, 출력 $5.00/1M입니다. (출처: DataCamp 분석, OpenAI 공식 가격표 기준, 2026.03.17)
성능 비교는 벤치마크 버전이 달라 직접 비교가 까다롭습니다. DataCamp(2026.03.17)가 두 모델을 분석한 결과를 참고하면, GPQA Diamond에서 GPT-5.4 nano가 9.8%p 앞서고, τ2-bench Telecom에서도 9.5%p 앞섭니다. OSWorld 비교는 GPT-5.4 nano가 OSWorld-Verified(더 어려운 버전)에서 39.0%, Haiku 4.5가 표준 OSWorld에서 50.7%를 기록했는데, 더 어려운 테스트에서 더 낮은 점수를 기록한 셈이라 단순 비교로 Haiku가 낫다고 보기 어렵습니다.
💡 “같은 작업에 두 모델을 직접 돌려보는 것”이 가장 정확한 판단 기준입니다. 벤치마크 버전이 다르다는 사실 자체가, 숫자만 보고 모델을 고르면 안 된다는 신호입니다.
결론만 정리하면, GPT-5.4 nano는 분류·추출·랭킹·단순 코딩 서브에이전트 용도에서 가성비가 가장 좋은 현재 선택지입니다. 컴퓨터 사용 작업은 nano보다 mini가 낫고, 복잡한 추론이 필요하면 GPT-5.4 본체가 맞습니다. 세 모델을 역할에 따라 나눠 쓰는 것이 단일 모델만 고집하는 것보다 실질적으로 유리합니다.
Q&A 5가지
Q1. GPT-5.4 mini는 무료로 쓸 수 있나요?
ChatGPT Free 플랜에서도 쓸 수 있지만, 직접 선택하는 방식이 아닙니다. + 메뉴에서 Thinking 기능을 켜면 내부적으로 GPT-5.4 mini가 작동합니다. 단, Free 사용자는 5시간마다 GPT-5.3 메시지 10개 한도를 먼저 소진하면 mini 모델로 전환됩니다. 사용량 제한이 있다는 점을 염두에 두세요.
Q2. GPT-5.4 mini와 GPT-5.4 본체의 성능 차이가 얼마나 나나요?
코딩(SWE-Bench Pro)에서는 3.3%p 차이(57.7% vs 54.4%)로 상당히 근접합니다. 그러나 긴 문맥(64K~128K)에서는 47.7% vs 86.0%로 격차가 크게 벌어집니다. 짧은 문서·코딩 작업이라면 mini로도 충분하지만, 긴 문서에서 세밀한 정보 추적이 필요하면 본체가 훨씬 낫습니다. (출처: OpenAI 공식 블로그, 2026.03.17)
Q3. GPT-5.4 nano는 ChatGPT에서 쓸 수 있나요?
쓸 수 없습니다. GPT-5.4 nano는 API 전용 모델입니다. ChatGPT 앱(웹·앱·데스크톱)에서는 선택지로 나타나지 않습니다. 개발자가 API로 직접 호출하는 방식으로만 사용할 수 있습니다. (출처: OpenAI 공식 블로그, 2026.03.17)
Q4. Codex에서 GPT-5.4 mini 쿼터가 30%라는 게 무슨 뜻인가요?
Codex에서는 모델별로 쿼터 소비량이 다릅니다. GPT-5.4를 1번 사용하면 쿼터가 1 소진되는데, GPT-5.4 mini는 같은 작업에 0.3만 소비합니다. 즉, 동일 쿼터로 GPT-5.4 mini는 약 3.3배 더 많은 작업을 처리할 수 있습니다. 단순한 코딩 서브태스크에 mini 서브에이전트를 활용하면 전체 쿼터 효율이 크게 올라갑니다.
Q5. GPT-5.2는 언제 사라지나요?
GPT-5.2는 Legacy Model로 분류됐고, 공식 폐기 예정일은 2026년 6월 5일입니다. 이날 이후 API에서 gpt-5.2-2025-12-11 호출이 중단됩니다. (출처: FluxHire.AI 분석 / OpenAI 공식 발표, 2026.03.17 기준) 이전에 GPT-5.2를 사용하는 프로덕션 환경이 있다면 마이그레이션 테스트를 시작하는 편이 좋습니다.
마치며 — 어떤 상황에서 쓸 모델인가
GPT-5.4 mini는 분명히 잘 만들어진 소형 모델입니다. 코딩과 컴퓨터 사용에서 전 세대 플래그십 수준까지 올라왔고, 가격은 본체 대비 3분의 1 수준입니다. 하지만 “플래그십에 가깝다”는 표현이 모든 영역에 적용되는 건 아닙니다.
긴 문맥에서는 점수 낙폭이 크고, ChatGPT 앱에서 플랜에 따라 접근 방식이 달라집니다. Free 사용자는 mini를 직접 선택하는 게 아니라 Thinking 기능을 통해 쓰게 됩니다. 이 차이를 모르고 “무료로 mini 쓴다”고 생각하면 기대와 다른 경험을 할 수 있습니다.
주관적으로는, GPT-5.4 mini가 진짜 빛나는 상황은 단일 모델로 모든 걸 처리하는 방식이 아니라 멀티에이전트 구조에서 서브 역할을 맡을 때라고 봅니다. 짧고 빠르고 비용이 낮아야 하는 레이어에 mini를, 판단이 필요한 레이어에 GPT-5.4를 배치하는 방식이 2026년 AI 시스템 설계의 현실적인 방향입니다.
📎 본 포스팅 참고 자료
- ① OpenAI 공식 블로그 — Introducing GPT‑5.4 mini and nano: openai.com/index/introducing-gpt-5-4-mini-and-nano/
- ② OpenAI Help Center — Model Release Notes (2026.03.18): help.openai.com/en/articles/9624314
- ③ DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (2026.03.17): datacamp.com/blog/gpt-5-4-mini-nano
- ④ WhatLLM.org — New LLMs March 2026 (2026.03.24): whatllm.org/blog/llm-releases-march-2026
- ⑤ FluxHire.AI — Complete Guide to OpenAI’s Latest Models March 2026 (2026.03.19): fluxhire.ai/blog/chatgpt-gpt-5-4-mini-nano-complete-guide-2026
본 포스팅은 2026년 3월 31일 기준으로 작성됐습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능·가격이 변경될 수 있습니다. OpenAI의 모델 스펙 및 요금 정보는 공식 웹사이트에서 최신 내용을 직접 확인하시기 바랍니다.

댓글 남기기