GPT-5.4 mini / nano
API 공식 가격 기준
GPT-5.4 mini, ‘가성비’라는 말이 맞을까요?
OpenAI가 2026년 3월 18일 출시한 GPT-5.4 mini와 nano. “저렴하고 빠르다”는 말이 넘쳐나는데, API 공식 가격표를 직접 보면 얘기가 좀 달라집니다. mini 입력 단가는 전 세대보다 3배 올랐고, nano는 아예 computer use를 지원하지 않습니다.
(vs GPT-5 mini)
(본 모델 1.05M의 38%)
응답 속도 향상
GPT-5.4 mini·nano, 출시 배경부터 짚고 가야 합니다
GPT-5.4 mini와 nano는 2026년 3월 17일(현지시간), 3월 18일(한국 시간 기준) OpenAI가 공식 출시한 경량 모델입니다. GPT-5.4 본 모델이 같은 달 5일에 나온 지 불과 2주 만의 후속 출시입니다. (출처: OpenAI 공식 블로그, 2026.03.17)
OpenAI의 공식 설명에 따르면, 두 모델은 “GPT-5.4의 핵심 강점을 더 빠르고 효율적인 형태로 제공하기 위해 고빈도 워크로드용으로 설계된 경량 모델”입니다. 쉽게 말해, 속도가 제품 경험을 직접 좌우하는 코딩 어시스턴트, 서브에이전트, 스크린샷 처리 같은 영역에 특화돼 있습니다.
mini는 ChatGPT에서 무료 사용자도 ‘Thinking’ 기능(+ 버튼 → ‘잘 생각하기’)을 통해 바로 쓸 수 있습니다. nano는 API 전용입니다. 이 두 가지 접근 방식의 차이가 단순한 UI 설계가 아니라, 가격 구조 전체에 영향을 미치는 지점이기도 합니다.
전 세대보다 3배 비싸진 mini — ‘가성비’의 진짜 기준
솔직히 말하면, “저렴한 경량 모델”이라는 표현이 무색한 부분이 있습니다. API 입력 단가를 전 세대와 비교하면 상당히 달라 보입니다.
💡 공식 가격표를 전 세대와 나란히 놓아봤습니다
나무위키가 정리한 수치와 OpenAI 공식 API 가격을 교차해 보니, 인상 폭이 생각보다 컸습니다.
| 모델 | 입력 (/1M) | 캐시 입력 | 출력 (/1M) | 전 세대 대비 |
|---|---|---|---|---|
| GPT-5 mini (구세대) | $0.25 | $0.025 | $2.00 | — |
| GPT-5.4 mini (신규) | $0.75 | $0.075 | $4.50 | 입력 +200% |
| GPT-5 nano (구세대) | $0.05 | $0.005 | $0.40 | — |
| GPT-5.4 nano (신규) | $0.20 | $0.02 | $1.25 | 입력 +300% |
(출처: OpenAI API Pricing 공식 문서 / 나무위키 GPT-5 문서, 2026.03.26 기준)
mini는 입력이 3배, 출력이 2.25배, nano는 입력이 무려 4배 인상됐습니다. 성능이 올라간 만큼 가격도 올랐다는 해석이 가능하지만, “저렴한 경량 모델”이라는 표현을 그대로 믿으면 비용 설계에서 틀릴 수 있습니다.
단, “가성비”를 어디에 놓느냐는 다른 문제입니다. GPT-5.4 본 모델(입력 $2.50) 대비 mini(입력 $0.75)는 1/3.3 수준입니다. SWE-Bench Pro에서 mini가 54.4%로 본 모델(57.7%)의 94% 성능을 냈다는 점을 고려하면, 코딩 서브에이전트 용도에선 충분히 합리적인 선택입니다. (출처: OpenAI 공식 블로그, 2026.03.17)
nano는 ‘작다고 다 된다’는 가정이 깨지는 두 가지 지점
nano가 “가장 싸고 빠른 모델”이라는 건 사실입니다. 그런데 이 모델을 에이전트 파이프라인에 그냥 끼워 넣으면 막히는 지점이 두 군데 있습니다. OpenAI 공식 문서에 직접 나와 있는 내용입니다.
① Computer Use(컴퓨터 사용) 미지원
mini는 스크린샷을 찍어 화면 상태를 판단하고 마우스·키보드를 조작하는 “computer use”를 지원합니다. nano는 이 기능이 공식적으로 미지원으로 표기돼 있습니다. (출처: tilnote.io GPT-5.4 mini vs nano 비교, 2026.03)
OSWorld-Verified 벤치마크에서 mini가 72.1%를 기록한 반면 nano는 39.0%였습니다. 단순한 성능 차이가 아니라, “스크린샷 기반 에이전트를 돌리려면 nano가 아닌 mini를 써야 한다”는 구조적 차이입니다. 에이전트 설계 시 nano를 기본값으로 잡으면 이 구간에서 작업이 멈춥니다.
② 복잡한 작업에서 총비용이 오히려 늘어납니다
nano가 단가는 낮지만, 작업이 복잡해질수록 재시도·후처리·검증 비용이 늘어 총비용이 오히려 커질 수 있습니다. 분류·추출처럼 정답 형식이 고정된 작업은 nano로 대량 처리할수록 단가 이점이 그대로 누적되지만, 맥락 유지가 필요한 작업은 mini를 쓰는 편이 비용 효율이 낫습니다.
💡 OpenAI가 권장하는 nano 적합 작업을 직접 확인해봤습니다
공식 발표문에서 nano가 추천되는 작업은 딱 네 가지입니다: 분류(classification), 데이터 추출(data extraction), 랭킹(ranking), 간단한 코딩 서브에이전트. 이 범위를 벗어나면 mini가 더 안정적입니다.
컨텍스트 400K의 한계 — 긴 문서를 다룰 때 주의할 것
mini와 nano의 컨텍스트 윈도우는 400,000 토큰입니다. 들으면 충분해 보이지만, GPT-5.4 본 모델의 컨텍스트 윈도우(1,050,000 토큰)와 비교하면 38% 수준입니다. (출처: 나무위키 GPT-5 문서)
긴 문맥 벤치마크 OpenAI MRCR v2(8-needle, 128K~256K 범위)에서 GPT-5.4 본 모델이 79.3%를 기록했는데, mini는 33.6%, nano는 33.1%였습니다. 절반도 안 됩니다. 이 수치는 긴 문서에서 여러 정보를 동시에 추적하는 작업(예: 대형 코드베이스 분석, 긴 계약서 교차 검토)에서 mini·nano가 본 모델을 대체하기 어렵다는 점을 직접 보여줍니다.
💡 400K라도 ‘어떻게 쓰느냐’에 따라 체감이 크게 달라집니다
400K 안에서 단순 필드 추출만 한다면 nano도 충분합니다. 같은 400K라도 “그 긴 문맥을 논리적으로 엮어내야 하는가”가 중요해지면 mini 쪽이 낫고, 1M이 넘는 대용량 처리가 필요하면 본 모델을 쓰는 수밖에 없습니다.
| 벤치마크 | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro | 57.7% | 54.4% | 52.4% | 45.7% |
| OSWorld (Computer Use) | 75.0% | 72.1% | 39.0% | 42.0% |
| 장문 컨텍스트 (128K~256K) | 79.3% | 33.6% | 33.1% | 19.4% |
| GPQA Diamond (추론) | 93.0% | 88.0% | 82.8% | 81.6% |
Codex 쿼터 30% 설계가 실제로 의미하는 비용 구조
OpenAI Codex에서 GPT-5.4 mini를 쓰면 GPT-5.4 쿼터의 30%만 소모합니다. 숫자만 보면 유리해 보입니다. 그런데 이 구조가 어떻게 작동하는지 조금 더 들여다보면 설계 의도가 보입니다.
OpenAI의 설명은 이렇습니다. “코드베이스 검색, 파일 리뷰, 문서 처리 같은 하위 작업은 mini 서브에이전트에 맡기고, 계획·조정·최종 판단은 GPT-5.4가 담당하는 방식”입니다. (출처: OpenAI 공식 블로그, 2026.03.17) mini 1회 호출이 GPT-5.4의 0.3배 비용이라는 뜻입니다.
💡 “30% 쿼터 절약”의 뒤집힌 면이 있습니다
mini가 단위 호출당 30%만 쓴다는 건, 같은 쿼터로 약 3.3배 더 많이 호출할 수 있다는 말입니다. 그런데 서브에이전트 방식 특성상 호출 횟수 자체가 늘어나게 됩니다. “절약 모델을 써서 더 많이 돌린다” 패턴이 형성되면 총비용이 예상보다 커질 수 있습니다.
구체적으로 계산하면, GPT-5.4를 1회 쓸 때의 예산으로 mini를 3회 쓸 수 있습니다. 서브에이전트 작업이 3회 이내면 비용 중립, 3회를 초과하면 mini를 쓰는 쪽이 더 비쌉니다. 단순 요약·분류처럼 한 번에 끝나는 작업은 mini가 유리하고, 여러 단계를 거치는 복잡한 에이전트 작업은 총 호출 수를 먼저 따져봐야 합니다.
경쟁 모델과 실제 비용 비교 — 어떤 작업에 무엇을 쓸까
GPT-5.4 mini($0.75/1M)와 nano($0.20/1M)를 다른 모델과 나란히 놓으면 어떨까요? 2026년 3월 기준 주요 경량 모델 가격은 다음과 같습니다. (출처: TLDL LLM API Pricing, 2026.03.05)
| 모델 | 입력 (/1M) | 출력 (/1M) | 컨텍스트 |
|---|---|---|---|
| GPT-5.4 mini | $0.75 | $4.50 | 400K |
| GPT-5.4 nano | $0.20 | $1.25 | 400K |
| Claude Haiku 4.5 | $1.00 | $5.00 | 200K |
| Gemini 2.5 Flash-Lite | $0.10 | $0.40 | 1M |
| DeepSeek V3.2 | $0.28 | $0.42 | 128K |
단가만 보면 Gemini 2.5 Flash-Lite($0.10)나 DeepSeek V3.2($0.28)가 nano보다 훨씬 저렴합니다. 그러나 “OpenAI 생태계 안에서 Codex·ChatGPT·API를 함께 쓰는” 워크플로라면 모델 교체 비용이 생깁니다. 반대로 순수 API 비용만 따진다면, nano 외에도 선택지가 있다는 점을 인식할 필요가 있습니다.
이 부분에서 중요한 판단 기준은 하나입니다. “나는 OpenAI 도구 체계(Codex, ChatGPT, Function Calling) 안에서 돌리는가, 아니면 순수 API 비용만 최소화하면 되는가.” 전자라면 mini/nano가 합리적이고, 후자라면 더 저렴한 선택지가 있습니다.
Q&A — 자주 나오는 질문 5개
마치며 — 결국 어떻게 써야 할까요
GPT-5.4 mini는 분명 쓸 만한 모델입니다. GPT-5 mini보다 2배 이상 빠르고, SWE-Bench Pro에서 본 모델의 94% 성능을 냈습니다. 코딩 서브에이전트, 스크린샷 처리, 도구 연동 작업에서 실제로 잘 작동합니다.
다만 “전 세대보다 싸다”는 인식으로 접근하면 틀립니다. mini 입력 단가는 GPT-5 mini 대비 3배, nano는 4배 올랐습니다. 본 모델 대비 저렴한 건 맞지만, 이전 경량 모델을 쓰던 방식 그대로 비용 설계를 유지하면 예산이 어긋납니다.
개인적으로 이 부분이 좀 아쉬웠습니다. 성능이 올라간 만큼 단가도 올랐다는 건 이해하지만, “경량 모델 = 저렴”이라는 기대를 가진 채 비용 계획을 세우면 실제 청구서를 받고 놀랄 수 있습니다. 쓰기 전에 공식 API 가격표에서 수치를 직접 확인하는 게 가장 확실합니다.
본 포스팅 참고 자료
본 포스팅은 2026년 3월 26일 기준 공개된 공식 자료를 바탕으로 작성됐습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능·가격이 변경될 수 있습니다. 최신 정보는 OpenAI 공식 가격 페이지에서 직접 확인하시기 바랍니다.

댓글 남기기