GPT-5.4 nano API
API 전용 모델
GPT-5.4 nano API, 싸다고 전부는 아닙니다
2026년 3월 17일, OpenAI가 GPT-5.4 nano를 조용히 출시했습니다. ChatGPT에는 없고 API에서만 씁니다. 입력 토큰 100만 개당 $0.20 — GPT-5.4 본체($2.50)의 약 8분의 1 가격입니다. “작고 싸니까 서브에이전트에 다 쓰면 되겠다”는 생각이 드는 순간, 벤치마크 수치 한 줄이 그 판단을 조용히 뒤집습니다.
ChatGPT에서 쓸 수 없는 이유가 따로 있습니다
GPT-5.4 nano는 API에서만 제공됩니다. ChatGPT 앱, 웹, 모바일 어디에도 없습니다. 같은 날 출시된 GPT-5.4 mini는 ChatGPT Free 및 Go 요금제의 기본 Thinking 모델로 들어갔지만, nano는 그렇지 않습니다 (출처: OpenAI 공식 발표, 2026.03.17). 즉 일반 사용자가 직접 체험할 방법은 없고, 개발자가 API 키를 발급받아 직접 연결해야만 쓸 수 있습니다.
이게 설계 의도입니다. OpenAI는 nano를 “분류, 데이터 추출, 랭킹, 간단한 지원 작업을 처리하는 서브에이전트”로 명확히 정의했습니다. 사람이 직접 대화하는 모델이 아니라, 더 큰 모델이 시키는 일을 빠르게 처리하는 역할입니다. 쉽게 말해, GPT-5.4가 계획을 세우면 nano가 병렬로 실행하는 구조입니다.
💡 공식 발표문과 실제 접근 경로를 같이 놓고 보니 이런 차이가 보였습니다.
ChatGPT 무료 계정에서 모델 선택기를 아무리 뒤져도 nano는 없습니다. GPT-5.4 mini가 Free 티어의 Thinking 폴백으로 들어간 것과 대조적입니다. nano는 처음부터 인간과의 대화를 상정하지 않은 모델입니다.
가격이 이 정도면 계산을 다시 해야 합니다
GPT-5.4 nano의 공식 API 가격은 입력 $0.20/1M 토큰, 출력 $1.25/1M 토큰입니다 (출처: OpenAI API 가격표, 2026.03.17 기준). 이 수치가 실생활에서 어떤 의미인지 직접 계산해봤습니다.
| 모델 | 입력 ($/1M) | 출력 ($/1M) | 컨텍스트 |
|---|---|---|---|
| GPT-5.4 | $2.50 | $15.00 | 1.1M |
| GPT-5.4 mini | $0.75 | $4.50 | 400K |
| GPT-5.4 nano ★ | $0.20 | $1.25 | 400K |
| Claude Haiku 4.5 | $1.00 | $5.00 | 200K |
실제로 서비스에서 하루 100만 건의 API 요청을 처리한다고 가정합니다. 건당 평균 입력 500토큰 + 출력 200토큰을 쓴다면 하루 비용은 다음과 같습니다.
📊 하루 100만 요청 기준 비용 계산식
• 입력: 100만 × 500 토큰 = 5억 토큰 = 0.5M tokens × $0.20 = $0.10
• 출력: 100만 × 200 토큰 = 2억 토큰 = 0.2M tokens × $1.25 = $0.25
→ 하루 합계: $0.35 (월 약 $10.50)
같은 조건에서 GPT-5.4는 하루 $8.75 (월 약 $262.50)
같은 트래픽 기준으로 nano는 GPT-5.4의 25분의 1 비용입니다. 대규모 분류·추출 작업에서 이 차이는 단순한 할인이 아니라 아키텍처 선택 자체를 바꾸는 수준의 변화입니다.
코딩 성능: 이전 세대 플래그십을 따라잡은 부분
OpenAI가 공개한 벤치마크에서 GPT-5.4 nano는 SWE-Bench Pro(Public)에서 52.4%를 기록했습니다 (출처: OpenAI 공식 발표, 2026.03.17). 이 수치는 이전 세대 GPT-5 mini(45.7%)를 명확히 앞섭니다. 가격은 GPT-5 mini와 비슷한 수준이면서 코딩 성능이 올라간 것입니다.
GPQA Diamond(대학원 수준 과학 문제)에서는 82.8%로, 이건 솔직히 작은 모델에서 나올 수치가 아닙니다. Terminal-Bench 2.0에서의 46.3%는 mini(60.0%)에 비해 차이가 크지만, 이전 세대 GPT-5(49.6%)와 비교하면 비슷한 수준입니다. 단순 코딩 서브에이전트 용도라면 nano로도 충분한 경우가 많습니다.
💡 벤치마크 수치가 보여주는 것과 숨기는 것을 같이 봐야 합니다.
OpenAI가 제공한 성능-레이턴시 비교 그래프는 Y축이 35%에서 시작합니다. 0부터 시작하면 모델 간 격차가 훨씬 좁아 보입니다. DataCamp의 분석에 따르면 OpenAI가 제시한 레이턴시 수치는 실제 프로덕션 측정값이 아닌 시뮬레이션 추정치입니다 (출처: DataCamp 분석, 2026.03). 실제 환경에서는 오차 범위가 더 클 수 있습니다.
컴퓨터 사용에선 이전 세대보다 못한 수치가 나옵니다
솔직히 이 수치가 가장 놀라웠습니다. OSWorld-Verified(화면을 직접 보고 GUI를 조작하는 능력 테스트)에서 GPT-5.4 nano는 39.0%를 기록했습니다. 반면 이전 세대인 GPT-5 mini는 같은 항목에서 42.0%였습니다 (출처: OpenAI 공식 벤치마크, 2026.03.17).
nano가 모든 면에서 이전 세대를 앞서지 않습니다. 컴퓨터 사용에서만큼은 이전 세대 mini에 3%p 뒤집니다. 이 차이가 단순한 오차인지 아니면 설계 과정에서 의도적으로 포기한 부분인지, OpenAI가 공식 답변을 내놓지 않은 부분입니다. 하지만 브라우저 자동화나 GUI 에이전트 작업에 nano를 투입하려 했다면 이 수치를 먼저 확인해야 합니다.
| 벤치마크 | GPT-5.4 | GPT-5.4 mini | GPT-5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro | 57.7% | 54.4% | 52.4% | 45.7% |
| Terminal-Bench 2.0 | 75.1% | 60.0% | 46.3% | 38.2% |
| GPQA Diamond | 93.0% | 88.0% | 82.8% | 81.6% |
| OSWorld-Verified ⚠ | 75.0% | 72.1% | 39.0% | 42.0% |
출처: OpenAI 공식 벤치마크 (2026.03.17), reasoning_effort ‘xhigh’ 기준 (GPT-5 mini는 ‘high’)
OSWorld 수치 차이는 단순히 난이도 기준이 달라서만은 아닙니다. nano 자체가 시각적 GUI 조작에 최적화되지 않은 모델입니다. GPT-5.4 mini는 72.1%로 플래그십(75.0%)에 근접하는데, nano는 39.0%로 뚝 떨어집니다. 컴퓨터 사용 에이전트를 설계 중이라면 nano는 적합하지 않습니다.
nano가 실제로 어울리는 작업과 어울리지 않는 작업
OpenAI는 nano의 권장 사용처를 명확하게 제시했습니다: 분류, 데이터 추출, 랭킹, 단순 서브에이전트 작업입니다 (출처: OpenAI 공식 발표, 2026.03.17). 실제로 써보면 이 범주에서는 속도와 비용 모두 탁월합니다.
반면 긴 컨텍스트 성능은 주의가 필요합니다. OpenAI MRCR v2 8-needle 테스트에서 64K~128K 구간은 44.2%, 128K~256K 구간은 33.1%에 그쳤습니다. 같은 테스트에서 GPT-5.4 본체는 각각 86.0%, 79.3%입니다. 400K 컨텍스트 창을 지원하지만, 100K 이상의 문서를 처리하는 RAG 파이프라인에 nano를 넣으면 생각보다 정확도가 낮아질 수 있습니다.
✅ nano가 잘 맞는 용도
- 텍스트 분류 / 감정 분석
- 구조화 데이터 추출 (JSON 파싱)
- 검색 결과 랭킹
- 단순 코드 리뷰 서브에이전트
- 실시간 응답이 필요한 챗봇 전처리
⚠ nano가 어울리지 않는 용도
- 브라우저 / GUI 자동화 에이전트
- 100K+ 토큰 장문 문서 분석
- 복잡한 멀티스텝 추론 작업
- 정밀한 코드 생성 (전체 파일 단위)
- 실시간 스크린샷 해석
Claude Haiku 4.5와 직접 붙여보면 어떻게 되나요
저렴한 소형 API 모델 시장에서 가장 직접적인 경쟁 상대는 Anthropic의 Claude Haiku 4.5입니다. 가격부터 보면 GPT-5.4 nano는 입력 $0.20/1M, Haiku 4.5는 $1.00/1M입니다 (출처: DocsBot AI 비교, 2026.03). nano가 입력 기준 5배 저렴합니다.
GPQA Diamond에서 nano(82.8%)는 Haiku 4.5(73%)보다 9.8%p 앞섭니다. τ2-bench Telecom(통신사 도메인 함수 호출 테스트)에서도 nano(92.5%)가 Haiku 4.5(83%)를 9.5%p 앞섭니다. 가격은 5배 싸면서 이 두 항목에서 앞서는 건 숫자상으로는 상당히 인상적입니다.
다만 컴퓨터 사용에서는 다릅니다. Claude Haiku 4.5는 표준 OSWorld에서 50.7%였고, nano는 더 어려운 OSWorld-Verified에서 39.0%입니다. 두 테스트 기준이 달라 직접 비교는 어렵지만, 12%p 차이는 무시하기 어렵습니다. 또한 Haiku 4.5는 Amazon Bedrock, Google Cloud Vertex AI, Claude.ai 등 다양한 경로로 접근 가능하지만, nano는 OpenAI API에서만 제공됩니다.
💡 벤치마크 버전 차이를 고려하면 두 모델의 SWE-Bench 비교는 사실상 불가능합니다.
Haiku 4.5는 SWE-bench Verified(73.3%)로, nano는 더 어려운 SWE-bench Pro(52.4%)로 측정됐습니다. Pro 기준이 더 까다롭기 때문에 nano가 실제 코딩 능력에서 뒤처지는지 판단하기 위해서는 동일한 기준으로 재측정한 결과가 필요합니다. 이 부분은 아직 공개된 자료가 없습니다.
Q&A
마치며
GPT-5.4 nano는 “저렴한 소형 모델”이라는 단순한 설명 이상의 존재입니다. GPT-5.4 본체의 8분의 1 가격에 코딩 성능은 이전 세대 플래그십 수준으로 올라왔습니다. GPQA Diamond 82.8%는 솔직히 이 가격대에서 나올 수치가 아닙니다. Claude Haiku 4.5 대비 가격은 5분의 1이면서 지능 벤치마크에서는 앞서는 부분이 있다는 것도 주목할 만합니다.
하지만 nano를 모든 용도의 만능 경량 모델로 보는 건 위험합니다. 컴퓨터 사용에서 이전 세대 mini에도 뒤지는 수치, 128K 초과 컨텍스트에서 급격히 떨어지는 정확도, ChatGPT UI에서는 아예 접근 불가라는 제약을 반드시 감안해야 합니다. 쓰고 싶은 곳에 맞는 모델인지 벤치마크를 한 번 더 확인하는 것, 그게 지금 이 모델을 제대로 쓰는 방법입니다.
본 포스팅 참고 자료
- OpenAI 공식 발표 — GPT-5.4 mini and nano 출시: openai.com
- OpenAI API 가격표 (2026.03 기준): openai.com/api/pricing
- ChatGPT GPT-5.3 및 GPT-5.4 사용 안내: help.openai.com
- DataCamp — GPT-5.4 mini and nano 분석: datacamp.com
- DocsBot AI — Claude Haiku 4.5 vs GPT-5.4 nano 비교: docsbot.ai
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 이 글은 2026년 3월 17일 OpenAI 공식 발표 기준으로 작성됐습니다. 모든 가격 및 벤치마크 수치는 변경될 수 있으며, 최신 정보는 OpenAI 공식 사이트에서 직접 확인하시기 바랍니다.

댓글 남기기