OpenAI가 2026년 3월 18일 GPT-5.4 mini와 GPT-5.4 nano를 동시 출시했습니다. 공식 발표에서 OpenAI는 “지금까지 소형 모델 중 가장 뛰어난 코딩·추론 성능”이라고 설명했습니다. SWE-Bench Pro에서 GPT-5.4 mini는 54.4%를 기록해 전 세대 GPT-5 mini(45.7%)보다 뚜렷하게 올랐습니다. 성능이 올라간 건 사실입니다.
그런데 “저렴하다”는 표현은 따져볼 필요가 있습니다. 소형 모델이니까 당연히 본 모델보다 싼 건 맞습니다. 하지만 GPT-5 mini와 비교하면 이야기가 다릅니다. OpenAI 공식 가격 페이지에 올라온 수치 기준으로, GPT-5.4 mini의 API 입력 가격은 GPT-5 mini 대비 3배 올랐습니다. (출처: OpenAI API 가격 페이지, 2026.03.18 기준)
💡 공식 가격표와 출시 발표문을 나란히 놓고 보니 이런 차이가 보였습니다. “소형 모델 = 저렴하다”는 공식이 이번 세대에선 그대로 적용되지 않습니다. GPT-5.4 mini는 GPT-5.4 본 모델보다 싸지만, 이전 세대 mini보다는 비쌉니다.
API 가격 전 세대 비교 — 숫자로 직접 확인
아래 표는 OpenAI 공식 API 가격 페이지(2026.03.18 기준)에서 직접 확인한 수치입니다. 100만 토큰당 달러 기준으로 정리했습니다.
| 모델 | 입력 (1M 토큰) | 출력 (1M 토큰) | 입력 가격 변동 |
|---|---|---|---|
| GPT-5 mini | $0.25 | $2.00 | 기준 |
| GPT-5.4 mini | $0.75 | $4.50 | +3배 |
| GPT-5 nano | $0.05 | $0.40 | 기준 |
| GPT-5.4 nano | $0.20 | $1.25 | +4배 |
(출처: OpenAI 공식 API 가격 페이지, 2026.03.18 기준)
계산식으로 직접 따라해볼 수 있습니다. 예를 들어 하루에 입력 토큰 1,000만 개를 처리하는 서비스라면, GPT-5 mini 기준 하루 약 $2.50이던 비용이 GPT-5.4 mini로 바꾸면 약 $7.50으로 뜁니다. 월로 환산하면 $75에서 $225로, 같은 트래픽에서 $150 차이가 납니다. GPT-5.4 mini가 성능은 올랐지만, 비용 계산을 업데이트하지 않고 그냥 교체하면 청구서가 달라집니다.
💡 나무위키 GPT-5 항목과 OpenAI 공식 가격표를 교차 확인한 결과, nano의 가격 인상폭(4배)이 mini(3배)보다 더 큰 것도 특이한 점입니다. 보통 더 작은 모델이 더 싸다는 상식과는 다른 방향으로 가격 구조가 바뀌었습니다.
400K 컨텍스트인데 긴 문서에서 막히는 이유
OpenAI 공식 발표문에는 GPT-5.4 mini와 nano 모두 “400,000 토큰 컨텍스트 윈도우”를 지원한다고 나와 있습니다. 400K는 꽤 큰 숫자처럼 들립니다. 그런데 GPT-5.4 본 모델의 컨텍스트 윈도우는 1,050,000 토큰입니다. mini는 본 모델의 38% 수준입니다. 여기까지는 어느 정도 예상할 수 있습니다.
진짜 주목할 부분은 OpenAI 공식 발표 내 벤치마크 표입니다. 긴 문서 처리 성능을 측정하는 MRCR v2 (8-needle) 테스트에서 GPT-5.4 mini는 64K~128K 구간에서 47.7%를 기록했습니다. GPT-5.4 본 모델은 같은 구간에서 86.0%였습니다. (출처: OpenAI 공식 발표, introducing-gpt-5-4-mini-and-nano, 2026.03.17)
| 벤치마크 (Long Context) | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano |
|---|---|---|---|
| MRCR v2 64K~128K | 86.0% | 47.7% | 44.2% |
| MRCR v2 128K~256K | 79.3% | 33.6% | 33.1% |
| Terminal-Bench 2.0 | 75.1% | 60.0% | 46.3% |
(출처: OpenAI 공식 발표문 내 벤치마크 표, 2026.03.17)
64K~128K 구간에서 mini의 정확도는 본 모델의 절반 수준입니다. 400K 컨텍스트를 지원한다는 말이 거짓은 아니지만, 그 용량을 다 활용하는 품질은 본 모델과 상당히 다릅니다. 긴 보고서나 법률 문서를 통째로 넣고 정밀하게 분석하는 용도라면 mini 쪽이 꽤 불리합니다.
nano가 mini보다 가격 인상 폭이 더 큰 이유
앞의 표에서 이상한 점 하나를 눈치채셨을 수 있습니다. 더 작고 더 단순한 nano가 mini보다 가격 인상 폭이 오히려 더 큽니다. mini는 입력 기준 3배, nano는 4배입니다. “작을수록 싸야 한다”는 기존 AI 모델 가격 논리와 반대로 흘렀습니다.
나무위키 GPT-5 항목에서도 “GPT-5.4 nano는 입력이 $0.20으로 4배, 출력이 $1.25으로 3.125배 올라 mini보다 인상 폭이 더 크다”고 직접 언급하고 있습니다. OpenAI는 공식적으로 nano의 가격 인상 폭에 대한 별도 이유를 밝히지 않았습니다. 다만 GPT-5.4 nano가 GPT-5 nano 대비 OSWorld-Verified(컴퓨터 제어 벤치마크)에서 39.0% vs 이전 세대 추정치 대비 큰 폭으로 성능이 향상됐다는 점에서 성능 개선 폭이 반영된 것으로 볼 수 있습니다. 어느 쪽이든, “nano는 가장 싸다”는 전제로 비용 설계를 해온 경우라면 가격 구조를 다시 확인해야 합니다.
💡 GPT-5 nano의 기존 입력 가격($0.05)에 맞춰 대량 배치 작업 비용을 계산해 두셨다면, GPT-5.4 nano로 교체 시 같은 작업량에서 청구액이 4배로 늘어납니다. 자동화 파이프라인 비용 시뮬레이션을 다시 돌려봐야 합니다.
ChatGPT 구독자라면 달라지는 점
API 비용과는 별개로, ChatGPT 앱 구독자 입장에서도 달라지는 부분이 있습니다. GPT-5.4 mini는 ChatGPT Free와 Go 요금제 사용자도 쓸 수 있습니다. 모델 선택 창 ‘+’에서 ‘잘 생각하기’를 누르면 GPT-5.4 Thinking mini가 켜집니다. 무료 사용자가 5시간 한도(10회)를 소진한 뒤 자동으로 떨어지는 모델도 이제 GPT-5.4 mini 버전입니다. (출처: OpenAI Help Center, GPT-5.3 and GPT-5.4 in ChatGPT)
Plus 사용자는 GPT-5.4 Thinking 주간 한도(3,000회)를 다 소진하면 자동으로 GPT-5.4 mini로 전환됩니다. 즉 구독자 입장에서 mini는 “한도가 찼을 때 받는 대체 모델”로 작동합니다. 성능 차이가 있고, 특히 긴 문서 작업이나 복잡한 멀티스텝 에이전트 작업에서는 체감이 납니다.
nano는 ChatGPT 앱에서 아예 안 나옵니다
성능은 올랐나 — 공식 벤치마크 실제로 보기
가격 대비 성능을 따져보면, GPT-5.4 mini가 GPT-5 mini보다 3배 비싸지만 SWE-Bench Pro는 19% 올랐습니다. 단순 비교이지만, “비용이 3배인데 코딩 성능이 19% 올랐다”는 계산은 워크로드에 따라 합산 비용 효율이 달라집니다. 짧은 단순 작업보다 복잡한 에이전트 작업일수록 성능 향상이 비용 인상을 정당화할 가능성이 높습니다.
Codex에서 mini를 쓰면 할당량 30%만 차감됩니다
OpenAI Codex(코딩 에이전트 서비스)에서 GPT-5.4 mini를 쓰면 GPT-5.4 할당량의 30%만 차감됩니다. GPT-5.4 본 모델 대비 3배 이상 더 많이 쓸 수 있다는 뜻입니다. 코딩 에이전트를 자주 쓰는 입장에서는 mini를 전략적으로 활용하면 실질 사용량을 늘릴 수 있습니다. (출처: OpenAI 공식 발표문, 2026.03.17)
Q&A
Q. GPT-5.4 mini가 GPT-5 mini보다 비싸다면, 그냥 GPT-5 mini를 계속 써도 될까요?
Q. GPT-5.4 nano는 어떤 용도에서 가장 효율적인가요?
분류, 텍스트 추출, 라우팅처럼 정답 형식이 고정된 짧은 반복 작업에서 nano의 단가 이점이 두드러집니다. 단, computer use와 tool search는 지원하지 않으니 에이전트 작업에는 맞지 않습니다. 또 복잡한 작업에서 오류율이 높아지면 재시도 비용이 추가돼 총비용이 오히려 올라갈 수 있습니다.
Q. ChatGPT Free 사용자도 GPT-5.4 mini를 쓸 수 있나요?
네. 두 가지 방식으로 쓸 수 있습니다. 첫째, GPT-5.3 Instant 한도(5시간마다 10회)를 다 쓰면 자동으로 mini 버전으로 전환됩니다. 둘째, ‘+’ 메뉴에서 ‘잘 생각하기’를 선택하면 GPT-5.4 Thinking mini를 직접 쓸 수 있습니다. 단, 별도 한도가 적용됩니다.
Q. 긴 문서 요약에 GPT-5.4 mini를 써도 괜찮나요?
400K 컨텍스트를 지원하긴 하지만, 64K를 넘는 구간에서 정확도가 본 모델의 절반 수준으로 떨어진다는 공식 벤치마크 수치가 있습니다. 문서 길이가 수십 페이지 이내라면 mini도 충분하지만, 전체 계약서나 긴 보고서를 통째로 넣고 정밀 분석이 필요한 경우엔 GPT-5.4 본 모델을 쓰는 게 안전합니다.
Q. Codex에서 mini를 쓰면 할당량이 절약된다는 게 무슨 뜻인가요?
Codex는 GPT-5.4 할당량을 기준으로 사용량을 계산합니다. GPT-5.4 mini는 이 할당량의 30%만 차감되기 때문에, 본 모델 대신 mini를 쓰면 같은 할당량으로 약 3.3배 더 많은 Codex 작업을 처리할 수 있습니다. 단순한 코드 수정이나 반복 작업에는 mini로 처리하고, 복잡한 설계가 필요할 때 본 모델을 아끼는 방식이 효율적입니다.
마치며
다만 “저렴한 소형 모델”이라는 표현은 GPT-5.4 본 모델과 비교했을 때 맞는 말이고, 이전 세대와 비교하면 다릅니다. API 입력 가격은 GPT-5 mini의 3배, nano는 4배입니다. 긴 문서 처리 정확도는 본 모델의 절반 이하로 떨어지는 구간이 있습니다. 이 두 가지만 알고 있어도 GPT-5.4 mini를 어디에 써야 하고 어디에 쓰면 안 되는지 판단이 훨씬 쉬워집니다.
본 포스팅 참고 자료
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 본문 내 모든 가격·수치는 2026.03.18 기준이며, OpenAI의 공식 가격 정책 및 모델 사양은 이후 업데이트될 수 있습니다. IT/AI 서비스 특성상 버전 업데이트로 내용이 달라질 수 있으므로 중요한 의사결정 전에 반드시 공식 문서를 직접 확인해주시기 바랍니다.

댓글 남기기