IT/AI
GPT-5.4 nano, 싸다더니 API 가격 4배 올랐습니다
OpenAI가 2026년 3월 18일 GPT-5.4 nano를 공개했습니다. 출시 직후 “가성비 소형 모델”이라는 말이 퍼졌습니다. 그런데 공식 API 가격표를 전 세대와 직접 비교했더니, 달랐습니다. 입력 토큰 단가가 GPT-5 nano 대비 정확히 4배입니다. 벤치마크도 모든 항목에서 올라간 게 아닙니다.
“가성비”가 맞는지, 숫자로 먼저 확인했습니다
문제는 비교 기준입니다. “저렴하다”는 홍보는 GPT-5.4 플래그십 모델(입력 $2.50 / 출력 $15.00)과 비교했을 때의 이야기입니다. 전 세대 소형 모델, 즉 GPT-5 nano와 비교하면 전혀 다른 그림이 나옵니다.
💡 공식 가격 페이지의 수치를 GPT-5 nano(입력 $0.05 / 출력 $0.40)와 나란히 놓고 보니 이런 차이가 보였습니다.
GPT-5 nano → GPT-5.4 nano 가격 변화:
• 입력: $0.05 → $0.20 (4배 인상)
• 출력: $0.40 → $1.25 (3.125배 인상)
(출처: 나무위키 GPT-5 문서; OpenAI API 가격 페이지)
숫자만 보면 이렇습니다. 같은 “소형 모델 라인”인데 한 세대 만에 입력 단가가 4배 뛰었습니다. 이건 단순 성능 향상의 반영인지, 아니면 OpenAI의 가격 전략인지를 따져볼 필요가 있습니다.
GPT-5.4 nano는 어떤 모델인가
지원 기능은 이미지 입력, 툴 사용, 함수 호출, 구조화된 출력까지 표준 API 기능은 모두 포함됩니다. 다만 mini 모델과 달리 웹 검색과 컴퓨터 사용(Computer Use) 기능은 제외됩니다. OpenAI는 대용량 실시간 워크로드와 서브에이전트 작업에 최적화됐다고 설명합니다.
| 구분 | GPT-5 nano | GPT-5.4 nano | GPT-5.4 mini |
|---|---|---|---|
| 입력 (1M 토큰) | $0.05 | $0.20 | $0.75 |
| 출력 (1M 토큰) | $0.40 | $1.25 | $4.50 |
| 컨텍스트 윈도우 | 200K | 400K | 400K |
| ChatGPT 접근 | 제한적 | API 전용 | ✅ 가능 |
| 컴퓨터 사용(CUA) | ❌ | ❌ | ✅ |
출처: OpenAI API 가격 페이지 / OpenAI 공식 발표문 (2026.03.18 기준)
컨텍스트 윈도우가 2배로 늘었고 성능도 올랐습니다. 그런데 가격 인상폭이 성능 개선폭보다 훨씬 큽니다. 이 간격이 이번 포스팅의 핵심입니다.
벤치마크에서 구형 모델에 진 항목이 있습니다
공식 발표문에는 “GPT-5.4 nano가 GPT-5 mini보다 더 뛰어나다”고 나와 있습니다. 전체 평균으로 보면 맞습니다. 그런데 항목별로 들여다보면 예외가 있습니다.
💡 공식 벤치마크 수치와 출시 전 세대 수치를 같이 놓고 보니 이런 부분이 보였습니다.
OSWorld-Verified(컴퓨터 화면 조작 능력) 점수:
• GPT-5 mini: 42.0%
• GPT-5.4 nano: 39.0% ← 신형이 3%p 낮음
(출처: OpenAI 공식 발표문 벤치마크 표, 2026.03.17)
코딩(SWE-Bench Pro: 52.4%)과 일반 추론(GPQA Diamond: 82.8%)에서는 분명히 개선됐습니다. 긴 컨텍스트 성능도 MRCR 64K-128K 기준 44.2%로 GPT-5 mini(35.1%)보다 높습니다. 다만 같은 롱컨텍스트 테스트에서 256K 이상 범위가 되면 nano(33.1%)와 mini(19.4%) 모두 급격히 하락합니다. 400K 컨텍스트 윈도우를 지원한다고 해서 긴 문서 처리가 안정적이라는 보장은 없습니다.
솔직히 말하면, 컴퓨터 조작 자동화를 목적으로 nano를 고려한다면 이 수치는 직접 확인해야 할 부분입니다.
OpenAI 그래프에서 보이지 않았던 것
💡 DataCamp의 벤치마크 분석 보고서와 OpenAI 발표 그래프를 함께 보니 이런 차이가 나왔습니다.
OpenAI가 발표한 그래프의 Y축은 0%가 아닌 35%에서 시작합니다. 같은 수치를 0%부터 시작하는 그래프로 다시 그리면 모델 간 실제 성능 격차가 훨씬 좁아 보입니다. 또한 공개된 지연 시간(latency) 수치는 실제 프로덕션 환경에서 측정한 값이 아니라 모델 추정치(modeled estimates)입니다.
(출처: DataCamp GPT-5.4 mini and nano Benchmarks 분석, 2026.03.18)
Y축이 35%에서 시작하면 GPT-5.4와 GPT-5.4 nano 사이의 성능 차이가 실제보다 시각적으로 크게 보입니다. “nano가 저렴한데도 이 정도 성능이다”는 인상을 주기 위한 그래프 구성으로 읽힐 수 있습니다. 오차 막대(error bar)도 없어서 모델 간 수치 차이가 통계적으로 유의미한지도 그래프만으로는 판단이 안 됩니다.
이건 OpenAI만의 문제는 아닙니다. AI 회사들이 발표 시점에 유리한 벤치마크와 그래프 구성을 쓰는 건 업계 전반의 패턴입니다. 그래도 공식 문서에 담긴 그래프라면 표기 방식 정도는 명확히 해줬으면 하는 아쉬움이 있습니다.
Claude Haiku 4.5와 가격을 비교하면
출시 직후 가장 많이 인용된 비교는 Claude Haiku 4.5와의 가격 대결이었습니다. GPT-5.4 nano(입력 $0.20 / 출력 $1.25)가 Haiku 4.5(입력 $1.00 / 출력 $5.00)보다 입력과 출력 모두 저렴하다는 내용입니다. 수치 자체는 맞습니다.
그런데 여기서 비교를 멈추면 반만 본 겁니다. 같은 기준으로 GPT-5 nano(입력 $0.05)는 Haiku 4.5보다 20배 저렴했습니다. GPT-5.4 nano가 나오면서 소형 모델 라인의 최저가 포지션이 사실상 사라졌습니다. 가성비의 기준선이 이전 세대 대비 4배 높아진 겁니다.
| 모델 | 입력 (1M) | 출력 (1M) | GPQA Diamond |
|---|---|---|---|
| GPT-5 nano | $0.05 | $0.40 | — |
| GPT-5.4 nano | $0.20 | $1.25 | 82.8% |
| Claude Haiku 4.5 | $1.00 | $5.00 | 약 73% |
| GPT-5 mini | $0.25 | $2.00 | 81.6% |
출처: OpenAI API 가격 페이지, Anthropic 공식 문서, OpenAI 발표문 벤치마크 (2026.03.18 기준)
그래서 실제로 어떤 경우에 쓸 만한가
가격 인상폭이 크다고 해서 쓸모없는 모델이 되는 건 아닙니다. 상황에 따라 GPT-5.4 nano가 분명히 선택지가 되는 경우가 있습니다.
① 대용량 실시간 서브에이전트 워크로드
OpenAI가 직접 밝힌 주 사용 케이스입니다. Codex 내에서 GPT-5.4 mini는 GPT-5.4 할당량의 30%만 차감합니다. 같은 방식으로 nano는 더 가벼운 반복 작업을 처리하는 서브에이전트에 붙이면, 메인 모델의 할당량을 아끼면서 작업 속도를 높일 수 있습니다. (출처: OpenAI 공식 발표문)
② 코딩 분류·라우팅 작업
SWE-Bench Pro 점수 52.4%는 이전 세대 mini(45.7%)보다 의미 있게 높습니다. 복잡한 코드 생성보다는 간단한 코드 분류나 에러 메시지 파싱처럼 반복적이고 짧은 코딩 작업에서 비용 대비 효율이 나옵니다.
③ GPT-5 nano에서 넘어오는 마이그레이션은 비용 계산이 먼저
기존에 GPT-5 nano를 쓰던 서비스라면 GPT-5.4 nano로 전환 시 같은 사용량에서 API 비용이 3~4배 증가합니다. 예를 들어 월 10억 입력 토큰을 처리하는 서비스라면 GPT-5 nano 기준 월 $50이었던 비용이 GPT-5.4 nano에서 월 $200으로 뜁니다. 성능 개선이 이 비용 차이를 정당화하는지는 직접 A/B 테스트로 확인해야 합니다.
컴퓨터 조작 자동화(CUA)나 화면 분석이 필요하다면 GPT-5.4 nano는 적합하지 않습니다. OSWorld-Verified 39%는 구형 GPT-5 mini(42%)보다 낮고, mini 모델(72.1%)과는 33%p 차이입니다. CUA 작업에는 GPT-5.4 mini 이상을 써야 합니다.
Q&A
마치며
개인적으로는 GPT-5 nano가 아직 API에서 접근 가능한 동안은 굳이 서둘러 GPT-5.4 nano로 전환할 이유가 없다고 봅니다. 특히 대규모 트래픽에서 GPT-5 nano를 쓰던 서비스라면 전환 전 실제 비용 계산이 먼저입니다. 성능 개선이 4배 비용 증가를 정당화하는지는 태스크마다 다르게 나올 수 있습니다.
본 포스팅 참고 자료
- OpenAI 공식 발표문 — GPT-5.4 mini and nano (openai.com)
- OpenAI API 공식 가격 페이지 (openai.com/api/pricing)
- DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (datacamp.com)
- 나무위키 GPT-5 문서 — API 가격 변화 섹션 (namu.wiki)
본 포스팅은 2026년 3월 21일 기준으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. OpenAI API 가격 및 모델 스펙은 공식 페이지에서 최신 정보를 확인하세요.


댓글 남기기