GPT-5.4 nano, 싸다더니 API 가격 4배 올랐습니다

Published on

in

GPT-5.4 nano, 싸다더니 API 가격 4배 올랐습니다

2026.03.18 기준 / GPT-5.4 nano 공식 출시
IT/AI

GPT-5.4 nano, 싸다더니 API 가격 4배 올랐습니다

OpenAI가 2026년 3월 18일 GPT-5.4 nano를 공개했습니다. 출시 직후 “가성비 소형 모델”이라는 말이 퍼졌습니다. 그런데 공식 API 가격표를 전 세대와 직접 비교했더니, 달랐습니다. 입력 토큰 단가가 GPT-5 nano 대비 정확히 4배입니다. 벤치마크도 모든 항목에서 올라간 게 아닙니다.

4배
입력 토큰 가격 인상폭
39%
OSWorld-Verified 점수
$0.20
1M 입력 토큰당

“가성비”가 맞는지, 숫자로 먼저 확인했습니다

문제는 비교 기준입니다. “저렴하다”는 홍보는 GPT-5.4 플래그십 모델(입력 $2.50 / 출력 $15.00)과 비교했을 때의 이야기입니다. 전 세대 소형 모델, 즉 GPT-5 nano와 비교하면 전혀 다른 그림이 나옵니다.

💡 공식 가격 페이지의 수치를 GPT-5 nano(입력 $0.05 / 출력 $0.40)와 나란히 놓고 보니 이런 차이가 보였습니다.

GPT-5 nano → GPT-5.4 nano 가격 변화:
• 입력: $0.05 → $0.20 (4배 인상)
• 출력: $0.40 → $1.25 (3.125배 인상)

(출처: 나무위키 GPT-5 문서; OpenAI API 가격 페이지)

숫자만 보면 이렇습니다. 같은 “소형 모델 라인”인데 한 세대 만에 입력 단가가 4배 뛰었습니다. 이건 단순 성능 향상의 반영인지, 아니면 OpenAI의 가격 전략인지를 따져볼 필요가 있습니다.

▲ 목차로 돌아가기

GPT-5.4 nano는 어떤 모델인가

지원 기능은 이미지 입력, 툴 사용, 함수 호출, 구조화된 출력까지 표준 API 기능은 모두 포함됩니다. 다만 mini 모델과 달리 웹 검색과 컴퓨터 사용(Computer Use) 기능은 제외됩니다. OpenAI는 대용량 실시간 워크로드와 서브에이전트 작업에 최적화됐다고 설명합니다.

구분 GPT-5 nano GPT-5.4 nano GPT-5.4 mini
입력 (1M 토큰) $0.05 $0.20 $0.75
출력 (1M 토큰) $0.40 $1.25 $4.50
컨텍스트 윈도우 200K 400K 400K
ChatGPT 접근 제한적 API 전용 ✅ 가능
컴퓨터 사용(CUA)

출처: OpenAI API 가격 페이지 / OpenAI 공식 발표문 (2026.03.18 기준)

컨텍스트 윈도우가 2배로 늘었고 성능도 올랐습니다. 그런데 가격 인상폭이 성능 개선폭보다 훨씬 큽니다. 이 간격이 이번 포스팅의 핵심입니다.

▲ 목차로 돌아가기

벤치마크에서 구형 모델에 진 항목이 있습니다

공식 발표문에는 “GPT-5.4 nano가 GPT-5 mini보다 더 뛰어나다”고 나와 있습니다. 전체 평균으로 보면 맞습니다. 그런데 항목별로 들여다보면 예외가 있습니다.

💡 공식 벤치마크 수치와 출시 전 세대 수치를 같이 놓고 보니 이런 부분이 보였습니다.

OSWorld-Verified(컴퓨터 화면 조작 능력) 점수:
• GPT-5 mini: 42.0%
• GPT-5.4 nano: 39.0% ← 신형이 3%p 낮음

(출처: OpenAI 공식 발표문 벤치마크 표, 2026.03.17)

코딩(SWE-Bench Pro: 52.4%)과 일반 추론(GPQA Diamond: 82.8%)에서는 분명히 개선됐습니다. 긴 컨텍스트 성능도 MRCR 64K-128K 기준 44.2%로 GPT-5 mini(35.1%)보다 높습니다. 다만 같은 롱컨텍스트 테스트에서 256K 이상 범위가 되면 nano(33.1%)와 mini(19.4%) 모두 급격히 하락합니다. 400K 컨텍스트 윈도우를 지원한다고 해서 긴 문서 처리가 안정적이라는 보장은 없습니다.

솔직히 말하면, 컴퓨터 조작 자동화를 목적으로 nano를 고려한다면 이 수치는 직접 확인해야 할 부분입니다.

▲ 목차로 돌아가기

OpenAI 그래프에서 보이지 않았던 것

💡 DataCamp의 벤치마크 분석 보고서와 OpenAI 발표 그래프를 함께 보니 이런 차이가 나왔습니다.

OpenAI가 발표한 그래프의 Y축은 0%가 아닌 35%에서 시작합니다. 같은 수치를 0%부터 시작하는 그래프로 다시 그리면 모델 간 실제 성능 격차가 훨씬 좁아 보입니다. 또한 공개된 지연 시간(latency) 수치는 실제 프로덕션 환경에서 측정한 값이 아니라 모델 추정치(modeled estimates)입니다.
(출처: DataCamp GPT-5.4 mini and nano Benchmarks 분석, 2026.03.18)

Y축이 35%에서 시작하면 GPT-5.4와 GPT-5.4 nano 사이의 성능 차이가 실제보다 시각적으로 크게 보입니다. “nano가 저렴한데도 이 정도 성능이다”는 인상을 주기 위한 그래프 구성으로 읽힐 수 있습니다. 오차 막대(error bar)도 없어서 모델 간 수치 차이가 통계적으로 유의미한지도 그래프만으로는 판단이 안 됩니다.

이건 OpenAI만의 문제는 아닙니다. AI 회사들이 발표 시점에 유리한 벤치마크와 그래프 구성을 쓰는 건 업계 전반의 패턴입니다. 그래도 공식 문서에 담긴 그래프라면 표기 방식 정도는 명확히 해줬으면 하는 아쉬움이 있습니다.

▲ 목차로 돌아가기

Claude Haiku 4.5와 가격을 비교하면

출시 직후 가장 많이 인용된 비교는 Claude Haiku 4.5와의 가격 대결이었습니다. GPT-5.4 nano(입력 $0.20 / 출력 $1.25)가 Haiku 4.5(입력 $1.00 / 출력 $5.00)보다 입력과 출력 모두 저렴하다는 내용입니다. 수치 자체는 맞습니다.

그런데 여기서 비교를 멈추면 반만 본 겁니다. 같은 기준으로 GPT-5 nano(입력 $0.05)는 Haiku 4.5보다 20배 저렴했습니다. GPT-5.4 nano가 나오면서 소형 모델 라인의 최저가 포지션이 사실상 사라졌습니다. 가성비의 기준선이 이전 세대 대비 4배 높아진 겁니다.

모델 입력 (1M) 출력 (1M) GPQA Diamond
GPT-5 nano $0.05 $0.40
GPT-5.4 nano $0.20 $1.25 82.8%
Claude Haiku 4.5 $1.00 $5.00 약 73%
GPT-5 mini $0.25 $2.00 81.6%

출처: OpenAI API 가격 페이지, Anthropic 공식 문서, OpenAI 발표문 벤치마크 (2026.03.18 기준)

▲ 목차로 돌아가기

그래서 실제로 어떤 경우에 쓸 만한가

가격 인상폭이 크다고 해서 쓸모없는 모델이 되는 건 아닙니다. 상황에 따라 GPT-5.4 nano가 분명히 선택지가 되는 경우가 있습니다.

① 대용량 실시간 서브에이전트 워크로드
OpenAI가 직접 밝힌 주 사용 케이스입니다. Codex 내에서 GPT-5.4 mini는 GPT-5.4 할당량의 30%만 차감합니다. 같은 방식으로 nano는 더 가벼운 반복 작업을 처리하는 서브에이전트에 붙이면, 메인 모델의 할당량을 아끼면서 작업 속도를 높일 수 있습니다. (출처: OpenAI 공식 발표문)

② 코딩 분류·라우팅 작업
SWE-Bench Pro 점수 52.4%는 이전 세대 mini(45.7%)보다 의미 있게 높습니다. 복잡한 코드 생성보다는 간단한 코드 분류나 에러 메시지 파싱처럼 반복적이고 짧은 코딩 작업에서 비용 대비 효율이 나옵니다.

③ GPT-5 nano에서 넘어오는 마이그레이션은 비용 계산이 먼저
기존에 GPT-5 nano를 쓰던 서비스라면 GPT-5.4 nano로 전환 시 같은 사용량에서 API 비용이 3~4배 증가합니다. 예를 들어 월 10억 입력 토큰을 처리하는 서비스라면 GPT-5 nano 기준 월 $50이었던 비용이 GPT-5.4 nano에서 월 $200으로 뜁니다. 성능 개선이 이 비용 차이를 정당화하는지는 직접 A/B 테스트로 확인해야 합니다.

컴퓨터 조작 자동화(CUA)나 화면 분석이 필요하다면 GPT-5.4 nano는 적합하지 않습니다. OSWorld-Verified 39%는 구형 GPT-5 mini(42%)보다 낮고, mini 모델(72.1%)과는 33%p 차이입니다. CUA 작업에는 GPT-5.4 mini 이상을 써야 합니다.

▲ 목차로 돌아가기

Q&A

Q1. GPT-5.4 nano와 GPT-5.4 mini 중 뭘 써야 하나요?
컴퓨터 화면 조작이나 웹 검색이 필요하면 mini를 써야 합니다. nano는 이 두 기능을 지원하지 않습니다. 단순 텍스트 분류, 코드 라우팅, 대량 반복 처리처럼 지연 시간이 중요하고 기능 요구사항이 낮은 경우에 nano가 적합합니다. 가격은 nano가 입력 기준 4배 저렴하지만, 성능 차이가 있습니다.
Q2. GPT-5.4 nano를 ChatGPT에서 쓸 수 있나요?
아닙니다. GPT-5.4 nano는 API 전용 모델입니다. ChatGPT 브라우저, 앱, Codex UI에서는 접근이 안 됩니다. ChatGPT에서 쓸 수 있는 경량 Thinking 모델은 GPT-5.4 mini입니다. Free, Go 요금제 사용자가 ‘잘 생각하기’ 모드를 켜면 GPT-5.4 mini가 기본으로 동작합니다. (출처: OpenAI 공식 발표문, 2026.03.17)
Q3. GPT-5 nano 대신 GPT-5.4 nano로 바꾸면 비용이 얼마나 늘어나나요?
입력 기준 4배, 출력 기준 3.125배 증가합니다. 예를 들어 월 10억 입력 토큰 처리 서비스라면 GPT-5 nano 기준 $50이었던 비용이 GPT-5.4 nano로 바꾸면 $200으로 뜁니다. 기존 GPT-5 nano 사용량이 크다면 전환 전에 반드시 실제 사용 패턴으로 비용을 먼저 계산해야 합니다.
Q4. 컨텍스트 윈도우가 400K인데 긴 문서 처리가 잘 되나요?
공식 벤치마크에 따르면 128K-256K 범위부터 성능이 급격히 하락합니다. MRCR v2 8-needle 테스트에서 64K-128K 구간은 44.2%이지만 128K-256K 구간에서는 33.1%로 내려갑니다. 400K 컨텍스트를 “지원한다”는 것과 “안정적으로 활용 가능하다”는 별개입니다. 256K 이상 문서를 자주 다루는 작업에는 성능 검증이 필요합니다.
Q5. GPT-5 nano는 언제까지 쓸 수 있나요?
현재(2026.03.18 기준) OpenAI가 GPT-5 nano의 지원 종료 날짜를 공식 발표하지 않았습니다. 다만 GPT-5 mini의 경우 GPT-5.4 mini 출시와 함께 2026년 4월 18일 지원 종료 예정임을 공식 발표했습니다. GPT-5 nano에 대해서는 별도 공지가 나오지 않은 상태입니다.

▲ 목차로 돌아가기

마치며

개인적으로는 GPT-5 nano가 아직 API에서 접근 가능한 동안은 굳이 서둘러 GPT-5.4 nano로 전환할 이유가 없다고 봅니다. 특히 대규모 트래픽에서 GPT-5 nano를 쓰던 서비스라면 전환 전 실제 비용 계산이 먼저입니다. 성능 개선이 4배 비용 증가를 정당화하는지는 태스크마다 다르게 나올 수 있습니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. OpenAI 공식 발표문 — GPT-5.4 mini and nano (openai.com)
  2. OpenAI API 공식 가격 페이지 (openai.com/api/pricing)
  3. DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (datacamp.com)
  4. 나무위키 GPT-5 문서 — API 가격 변화 섹션 (namu.wiki)

본 포스팅은 2026년 3월 21일 기준으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. OpenAI API 가격 및 모델 스펙은 공식 페이지에서 최신 정보를 확인하세요.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기