GPT-5.4 mini, 출시 당일 가격이 조용히 3배 된 이유

Published on

in

GPT-5.4 mini, 출시 당일 가격이 조용히 3배 된 이유

📅 2026.03.18 출시 기준 / GPT-5.4 mini · nano

2026년 3월 18일, OpenAI가 GPT-5.4 mini와 nano를 공개했습니다. 전날까지만 해도 API 페이지에는 입력 $0.25/1M 토큰이 표시됐습니다. 그런데 출시 당일 확인하면 $0.75/1M으로 바뀌어 있습니다. 공식 릴리스 노트엔 이 변경에 대한 언급이 없습니다. 이 글에서 가격 구조 전체를 공식 수치로 뜯어봤습니다.

출시 직전 가격 인상폭
30%
Codex 쿼터 소비량
400K
컨텍스트 윈도우
54.4%
SWE-Bench Pro 코딩 성능

출시 전날 가격과 출시일 가격이 달랐습니다

💡 공식 발표문과 실제 API 페이지를 나란히 놓고 비교해보니 이런 차이가 보였습니다

해당 스레드 원문에는 “Edit: they fixed it… so clearly they changed pricing last minute”라는 수정 메모가 달렸습니다. 출시 당일 두 페이지 모두 $0.75로 통일됐습니다. OpenAI가 공식 답변을 내놓지 않은 부분입니다. 출시 직전에 가격이 바뀐 사실 자체는 공식 페이지에서도 간접적으로 확인됩니다.

이게 왜 중요하냐면, GPT-5.4 mini의 포지셔닝이 “저렴한 소형 모델”이기 때문입니다. 처음 알려진 $0.25와 실제 $0.75는 체감이 다릅니다. 연간 1억 토큰을 처리하는 워크플로우라면 비용 차이가 $25,000 vs $75,000이 됩니다. 단순 계산이지만 규모가 커질수록 이 차이는 직접적인 예산 항목으로 연결됩니다.

▲ 목차로 돌아가기

공식 가격표 — API·Codex·ChatGPT별로 다릅니다

모델 입력 (1M 토큰) 출력 (1M 토큰) 캐시 입력
GPT-5.4 $2.50 $15.00 $0.25
GPT-5.4 mini ★ $0.75 $4.50 $0.075
GPT-5.4 nano $0.20 $1.25 $0.02

(출처: OpenAI API Pricing 공식 페이지, 2026.03.18 기준)

Codex에서 쓰면 실질 단가가 달라집니다

Codex 환경에서 GPT-5.4 mini는 GPT-5.4 쿼터의 30%만 소비합니다. (출처: OpenAI 공식 발표문, 2026.03.18) 즉 같은 Codex 예산으로 GPT-5.4보다 3.3배 많은 작업을 처리할 수 있다는 뜻입니다. 단순 서브에이전트 작업이라면 GPT-5.4를 메인으로, mini를 병렬 서브로 배치하는 구조가 비용상 유리합니다.

ChatGPT 안에서의 접근 경로는 요금제마다 다릅니다

▲ 목차로 돌아가기

성능은 GPT-5.4의 94%인데, 비용은 10분의 1

“소형 모델은 성능을 포기해야 한다”는 통념이 있습니다. GPT-5.4 mini에서는 이게 생각보다 많이 틀렸습니다. 공식 벤치마크 수치를 직접 놓고 보면 차이가 뚜렷합니다.

벤치마크 GPT-5.4 GPT-5.4 mini GPT-5 mini (이전)
SWE-Bench Pro (코딩) 57.7% 54.4% 45.7%
OSWorld-Verified (컴퓨터 조작) 75.0% 72.1% 42.0%
GPQA Diamond (과학·추론) 93.0% 88.0% 81.6%
Terminal-Bench 2.0 75.1% 60.0% 38.2%

(출처: OpenAI 공식 발표문 벤치마크 테이블, 2026.03.18 / xhigh 추론 설정 기준)

코딩 벤치마크인 SWE-Bench Pro에서 mini는 GPT-5.4 대비 3.3%p 낮습니다. 성능 차이보다 가격 차이가 훨씬 큽니다. API 기준 입력 토큰 단가는 GPT-5.4가 $2.50, mini가 $0.75입니다. 같은 예산으로 mini를 3.3배 더 많이 호출할 수 있고, 코딩 성능은 3.3%p 차이가 납니다.

💡 GPT-5 mini(이전 모델)와 GPT-5.4 mini를 같은 선상에 놓고 보면 숫자가 달라집니다

▲ 목차로 돌아가기

ChatGPT 요금제별 실제 사용 한도

ChatGPT 구독 플랜에서 GPT-5.4 mini를 어떻게 만나게 되는지는 요금제마다 다릅니다. “mini니까 무제한 아닌가”라는 생각은 막상 써보면 다릅니다. 한도는 여러 층으로 쌓여 있고, 어느 층에서 막혔는지에 따라 증상이 다르게 나타납니다.

요금제 GPT-5.4 mini 접근 메시지 한도 한도 초과 시
Free Thinking 메뉴 (+) 약 1회/일(추정) 이전 세대 mini 전환
Go Thinking 메뉴 (+) 약 10회/5시간 미사용 가능
Plus GPT-5.4 폴백(fallback) GPT-5.4 한도 초과 시 자동 응답 품질 체감 하락
Pro 폴백(fallback) 무제한(GPT-5.4) 사실상 미해당

(출처: OpenAI 공식 발표문, ChatGPT 공식 요금제 페이지 / Free 하루 한도는 공식 비공개, 외부 문서 분석치)

Plus 사용자가 모르고 넘어가는 부분이 있습니다

Plus 요금제에서 GPT-5.4 메시지 한도(3시간당 약 160회)를 다 쓰면, 시스템이 자동으로 GPT-5.4 mini로 전환됩니다. 메시지가 갑자기 느려지거나 품질이 떨어진다 느껴지는 대부분의 경우가 이 시점입니다. 모델 선택창을 직접 확인하기 전까지는 어떤 모델을 쓰고 있는지 모를 수 있습니다. (출처: OpenAI GPT-5.2 Help 문서, 2026.03.09 감사 기준)

▲ 목차로 돌아가기

nano vs mini — 어느 쪽을 써야 하는가

💡 OSWorld 수치를 nano와 GPT-5 mini(이전 세대)를 같이 보면 의외의 결과가 나옵니다

작업별 선택 기준

✅ GPT-5.4 nano 적합
  • 텍스트 분류·태깅
  • 데이터 추출·정렬
  • 단순 코딩 서브에이전트
  • 고속 대용량 처리
✅ GPT-5.4 mini 적합
  • 코드베이스 탐색·리뷰
  • 스크린샷 분석 (컴퓨터 조작)
  • 멀티스텝 추론 작업
  • 복잡한 문서 처리

GPQA Diamond(과학·추론) 기준으로 mini는 88.0%, nano는 82.8%입니다. 5.2%p 차이에 가격 차이는 3.7배입니다. 단순 분류·추출 작업이라면 nano가 압도적으로 경제적입니다. 반면 추론 품질이 중요한 구간이라면 mini로 올라가는 게 맞습니다.

▲ 목차로 돌아가기

쓰다가 막히는 상황 3가지

상황 1
ChatGPT에서 갑자기 응답이 느려지고 품질이 떨어집니다

상황 2
긴 문서를 올렸는데 결과가 이상합니다

상황 3
롱 컨텍스트 벤치마크 수치가 예상보다 낮습니다

공식 벤치마크에서 롱 컨텍스트 성능은 mini와 GPT-5.4의 차이가 가장 큽니다. MRCR v2 8-needle 128K~256K 기준으로 GPT-5.4가 79.3%인 반면 mini는 33.6%에 그칩니다. (출처: OpenAI 공식 발표문, 2026.03.18) 매우 긴 문서의 핵심을 뽑아내는 작업에서는 mini보다 GPT-5.4가 압도적으로 적합합니다.

▲ 목차로 돌아가기

자주 나오는 질문 5가지

Q1
분류·태깅·추출처럼 대량으로 처리하는 단순 작업이라면 nano($0.20/M)가 맞습니다. 코드 리뷰, 멀티스텝 추론, 이미지 분석이 섞인 작업이라면 mini($0.75/M)를 써야 합니다. OSWorld 기준으로 nano(39%)와 mini(72.1%) 간 차이가 33%p로 크게 벌어지는 작업이 바로 컴퓨터 조작 계열입니다.
Q2
Free 사용자도 GPT-5.4 mini를 쓸 수 있나요?
ChatGPT + 메뉴의 Thinking 기능을 통해 접근할 수 있습니다. 단, OpenAI는 Free 사용자의 GPT-5.4 Thinking 접근 횟수를 공식적으로 숫자로 밝히지 않았습니다. 외부 분석에 따르면 하루 1회 수준으로 제한되는 것으로 보이며, 이 수치는 시스템 부하에 따라 달라질 수 있습니다.
Q3
출시 전날 가격($0.25)과 실제 가격($0.75)이 다른 이유가 뭔가요?
OpenAI가 공식 이유를 밝히지 않았습니다. Reddit 커뮤니티에서 출시 하루 전 “두 공식 페이지 간 가격 불일치”를 발견했고, 출시 당일 $0.75로 통일됐습니다. 사전 유출된 가격이 내부 변경 전 수치였거나, 마지막 단계에서 가격 정책이 수정됐을 가능성이 있습니다. 이유는 아직 공개되지 않았습니다.
Q4
Codex에서 mini를 쓰면 실제로 얼마나 저렴해지나요?
Q5
가격만 보면 GPT-5.2 입력이 $1.75, GPT-5.4 mini 입력이 $0.75입니다. mini가 57% 저렴합니다. 성능 측면에서 SWE-Bench Pro 코딩 기준으로 GPT-5.4 mini(54.4%)가 GPT-5.2보다 확실히 앞서며, 코딩 속도도 더 빠릅니다. 코딩·멀티모달 작업에서는 GPT-5.4 mini가 가격 대비 성능에서 앞섭니다.

▲ 목차로 돌아가기

마치며

출시 직전 가격 변경 논란은 “저렴할 줄 알았는데”라는 기대를 가진 사람에게 중요한 체크포인트입니다. $0.25와 $0.75는 숫자 차이 이상입니다. 고볼륨 워크플로우에서 연간 수천만 원 단위 예산 차이로 이어집니다. 롱 컨텍스트가 핵심인 작업이라면 mini보다 GPT-5.4가 맞습니다. 단순 분류·추출이라면 nano로 내려가는 게 합리적입니다.

솔직히 말하면, 출시 직전 가격 조용히 바꾸는 건 좀 아쉬운 부분입니다. 그래도 성능 자체는 공식 벤치마크 기준으로 이 가격대에서 가장 경쟁력 있는 소형 추론 모델입니다. 쓰기 전에 어떤 경로로, 어떤 작업에 쓸지 먼저 정리해두면 훨씬 효율적으로 활용할 수 있습니다.

▲ 목차로 돌아가기

본 포스팅은 2026년 3월 18일 기준 공식 자료를 바탕으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·가격·기능이 변경될 수 있습니다. 정확한 최신 정보는 OpenAI 공식 페이지에서 반드시 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기