OpenAI 공식 릴리스노트 기반
GPT-5.4 mini 출시일 기준
GPT-5.4 mini, 플러스도 못 고르는 이유 있습니다
3월 18일 OpenAI가 GPT-5.4 mini와 nano를 출시했습니다. 뉴스에서는 “무료 사용자도 플래그십 수준 AI”라고 떠들었지만, 실제로는 모델 선택기에서 찾을 수 없습니다. Plus인데도 마찬가지입니다. 이게 왜 그런지, 그리고 이 모델을 실제로 쓰게 되는 시점이 언제인지 공식 문서에서 직접 확인했습니다.
모델 선택기에 GPT-5.4 mini가 없는 진짜 이유
GPT-5.4 mini를 ChatGPT에서 직접 선택하려고 하면 목록에 보이지 않습니다. 이건 기능 미완성이 아니라 OpenAI가 의도적으로 설계한 구조입니다. 공식 릴리스노트(2026.03.18)에 딱 이렇게 나옵니다: “GPT‑5.4 mini will not appear as a selectable model in the model picker.”
OpenAI의 선택은 mini를 독립 모델이 아니라 “한도 소진 후 자동 전환되는 폴백 레이어”로 위치시킨 것입니다. Plus 사용자가 GPT-5.3 Instant 3시간 160개 메시지 한도를 채우거나, GPT-5.4 Thinking 주간 3,000개를 소진하면, 그 다음 대화부터 mini가 조용히 투입됩니다.
이 구조의 의미는 하나입니다 — mini는 “좋은 대안”이 아니라 “한도를 다 쓴 뒤에 받는 것”입니다. 선택권이 없다는 점이 핵심입니다.
요금제별로 GPT-5.4 mini를 만나게 되는 조건
요금제마다 mini가 개입되는 시점이 다릅니다. 아래 표는 OpenAI 공식 Help Center(2026.02.13 업데이트, 출처 링크)에서 직접 가져온 내용입니다.
| 요금제 | GPT-5.3 한도 | Thinking 한도 | mini 투입 시점 |
|---|---|---|---|
| Free | 5시간마다 10개 | Thinking 기능 + 아이콘에서 활성화 | 5시간 한도 소진 후 자동 전환 |
| Go | 5시간마다 10개 | 5시간마다 10개 (Thinking 활성화 시) | 한도 소진 후 자동 전환 |
| Plus | 3시간마다 160개 | 주당 3,000개 | 두 한도 중 하나 소진 후 자동 전환 |
| Business / Pro | 사실상 무제한(악용 방지 가드레일 적용) | 사실상 무제한 | Enterprise는 Auto 라우팅 기본값으로 mini 설정 가능 |
💡 공식 발표문과 실제 Help Center 한도 표를 같이 놓고 보니 이런 차이가 보였습니다. Plus 사용자의 Thinking 주간 한도(3,000개)는 꽤 넉넉해 보이지만, 자동 전환(Instant → Thinking)은 이 주간 한도에서 제외됩니다. 즉, 수동으로 Thinking을 선택한 메시지만 3,000개 카운트에 포함되고, ChatGPT가 알아서 Thinking으로 바꾼 경우는 카운트되지 않습니다. 주간 한도가 생각보다 오래 버팁니다.
GPT-5 mini 대비 실제로 얼마나 달라졌나
OpenAI 공식 발표문(2026.03.18)에 실린 벤치마크를 직접 비교하면 GPT-5.4 mini의 성능 차이가 명확해집니다. (출처: openai.com/index/introducing-gpt-5-4-mini-and-nano)
| 벤치마크 | GPT-5.4 mini | GPT-5 mini | GPT-5.4 (풀) |
|---|---|---|---|
| SWE-Bench Pro (코딩) | 54.4% | 45.7% | 57.7% |
| GPQA Diamond (과학 추론) | 88.0% | 81.6% | 93.0% |
| OSWorld-Verified (컴퓨터 제어) | 72.1% | 42.0% | 75.0% |
| Terminal-Bench 2.0 (터미널 코딩) | 60.0% | 38.2% | 75.1% |
코딩 지표에서 GPT-5 mini 대비 약 19% 향상됐고, 컴퓨터 제어 항목(OSWorld)에서는 72.1% vs 42.0%로 격차가 훨씬 큽니다. 특히 OSWorld 수치는 GPT-5.4 풀 모델(75.0%)에 거의 근접한 수준입니다. 컴퓨터를 직접 조작하는 에이전트 작업에서 mini가 전작보다 실질적으로 달라졌다는 뜻입니다.
nano는 ChatGPT에 없습니다 — API 전용입니다
같이 발표된 GPT-5.4 nano는 아예 다른 이야기입니다. 공식 발표문을 보면 “GPT-5.4 nano is only available in the API”라고 명시되어 있습니다. ChatGPT 웹이나 앱 어디에도 nano는 없습니다.
nano의 API 가격은 입력 $0.20/1M 토큰, 출력 $1.25/1M 토큰입니다. mini($0.75 입력 / $4.50 출력)보다 훨씬 저렴한 대신, 긴 컨텍스트 처리에서 성능 차이가 두드러집니다. 128K~256K 구간 장문 처리 벤치마크(OpenAI MRCR v2)에서 mini가 33.6%를 기록할 때 nano는 33.1%로 비슷하지만, 64K~128K 구간에서는 mini 47.7% vs nano 44.2%로 mini가 앞섭니다.
분류, 데이터 추출, 짧은 코딩 서브에이전트처럼 단순 반복 작업이라면 nano가 맞는 선택입니다. 하지만 ChatGPT 웹에서 쓸 수 있는 선택지가 아니라는 점, 오해 없으시길 바랍니다.
Gemini 3 Flash와 비교하면 가격이 뒤집힙니다
API 개발자 입장에서 GPT-5.4 mini의 경쟁 상대는 Google의 Gemini 3 Flash입니다. 가격만 놓고 보면 이야기가 달라집니다.
| 모델 | 입력 가격 | 출력 가격 | 컨텍스트 윈도우 |
|---|---|---|---|
| GPT-5.4 mini | $0.75 / 1M | $4.50 / 1M | 400K |
| GPT-5.4 nano | $0.20 / 1M | $1.25 / 1M | 400K |
| Gemini 3 Flash | $0.50 / 1M | $3.00 / 1M | 1,000K (1M) |
💡 공식 API 가격표와 Artificial Analysis 비교 데이터를 같이 놓고 보니 이런 구도가 나왔습니다. GPT-5.4 mini는 Gemini 3 Flash보다 입력 기준 1.5배 비쌉니다. 반면 컨텍스트 윈도우는 Gemini 3 Flash가 1M으로 mini(400K)의 2.5배입니다. 장문 문서나 코드베이스 전체를 처리하는 작업이라면 비용 효율 면에서 Gemini 3 Flash가 앞서는 구간이 생깁니다.
다만 코딩 에이전트나 컴퓨터 제어 작업(OSWorld 72.1% vs Gemini 3 Flash 미공개)처럼 정확성이 더 중요한 영역에서는 GPT-5.4 mini의 벤치마크가 우세합니다. 비용이냐 정확도냐, 작업 유형에 따라 선택이 갈립니다.
Codex에서만 mini를 직접 고를 수 있는 이유
💡 OpenAI 공식 발표문에서 Codex 쿼터 구조를 확인하고 나서, ChatGPT와 Codex의 mini 사용 방식이 근본적으로 다르다는 게 보였습니다.
ChatGPT에서는 mini를 고를 수 없지만, Codex(CLI·IDE 확장·앱·웹)에서는 GPT-5.4 mini를 직접 선택할 수 있고, 실행 시 GPT-5.4 기준 쿼터의 30%만 사용합니다. 즉, 풀 GPT-5.4로 처리할 작업 1개 분량의 쿼터로 mini를 3번 이상 쓸 수 있다는 뜻입니다.
OpenAI의 권장 패턴도 명확합니다. 코드베이스 계획·조율·최종 판단은 GPT-5.4가, 파일 검색·대용량 문서 검토·단순 서브태스크는 mini 서브에이전트가 병렬 처리합니다. 이 구조에서 mini는 단순 폴백이 아니라 비용 최적화 도구로 바뀝니다.
Codex를 쓰지 않는 일반 ChatGPT 사용자에게는 이 선택권이 없습니다. mini를 전략적으로 활용하려면 Codex 환경이 전제 조건입니다.
Q&A
마치며
GPT-5.4 mini 출시 소식을 처음 봤을 때 “이제 무료 사용자도 강력한 모델을 직접 선택할 수 있겠다”고 생각했습니다. 막상 공식 문서를 열어보니 다른 이야기였습니다. 선택권은 없고, 한도를 다 쓴 뒤에 조용히 투입되는 구조입니다.
그래도 폴백으로 받는 모델이 GPT-5 mini보다 코딩 19%, 컴퓨터 제어 72% 수준으로 올라왔다는 건 긍정적입니다. 한도 후 성능이 뚝 떨어진다는 기존 불만이 이번 세대에선 많이 줄었습니다.
API를 직접 쓰는 개발자라면 Gemini 3 Flash와의 가격 비교를 한 번쯤 해볼 가치가 있습니다. 작업 성격에 따라 어느 쪽이 더 맞는지 갈립니다. OpenAI가 nano를 ChatGPT에 올리지 않은 것도 흥미롭습니다 — 이유는 아직 공개되지 않았습니다.
본 포스팅 참고 자료
- OpenAI 공식 블로그 — Introducing GPT-5.4 mini and nano (2026.03.18)
https://openai.com/index/introducing-gpt-5-4-mini-and-nano/ - OpenAI Help Center (한국어) — ChatGPT의 GPT-5.3 및 GPT-5.4 사용 한도 (2026.02.13 업데이트)
https://help.openai.com/ko-kr/articles/11909943 - OpenAI ChatGPT Release Notes — Model Release Notes (2026.03.18 기준)
https://help.openai.com/en/articles/9624314-model-release-notes - OpenAI Platform Models — API 모델 목록 및 가격
https://platform.openai.com/docs/models - Artificial Analysis — GPT-5.4 mini vs Gemini 3 Flash Preview 비교
https://artificialanalysis.ai/models/comparisons/gpt-5-4-mini-medium-vs-gemini-3-flash-reasoning
본 포스팅은 2026년 3월 26일 기준 OpenAI 공식 문서를 바탕으로 작성되었습니다.
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 최신 정보는 OpenAI 공식 사이트에서 확인하시기 바랍니다.

댓글 남기기