GPT-5.4 nano 요금, 직접 계산했더니 생각과 달랐습니다

Published on

in

GPT-5.4 nano 요금, 직접 계산했더니 생각과 달랐습니다

2026.03.25 기준
GPT-5.4 nano · 2026.03.17 출시

GPT-5.4 nano 요금, 직접 계산했더니 생각과 달랐습니다

2026년 3월 17일, OpenAI가 GPT-5.4 mini와 nano를 동시에 출시했습니다. GPT-5.4 nano 요금은 입력 토큰 1M당 $0.20, 출력 1M당 $1.25로 현재 OpenAI 라인업 중 가장 저렴합니다. 그런데 막상 수치를 뜯어보니 “싸니까 그냥 쓰면 된다”는 가정이 세 가지 상황에서 틀렸습니다.

$0.20
입력 1M 토큰당
$1.25
출력 1M 토큰당
400K
컨텍스트 윈도우

GPT-5.4 nano, 공식 요금 그대로입니다

결론부터 말씀드리면, OpenAI 공식 가격 페이지에 나온 수치는 단순합니다. 입력 토큰 1M당 $0.20, 출력 토큰 1M당 $1.25입니다. 캐시된 입력은 $0.02로 10분의 1 수준까지 내려갑니다. (출처: platform.openai.com/docs/pricing, 2026.03.25 기준)

한 가지 주의할 점이 있습니다. OpenAI는 nano에 대해 롱 컨텍스트 요금 구간을 별도로 운영하지 않습니다. GPT-5.4 플래그십은 272K 토큰을 초과하면 입력 토큰 요금이 $2.50에서 $5.00으로 2배가 됩니다. nano는 이런 초과 구간 자체가 없는 대신, 400K 컨텍스트 윈도우를 균일 요금으로 지원합니다. 표면적으로는 단순해 보이지만, 이게 오히려 함정이 됩니다 — 이건 뒤에서 자세히 다룹니다.

모델 입력 (1M) 캐시 입력 출력 (1M)
GPT-5.4 nano $0.20 $0.02 $1.25
GPT-5.4 mini $0.75 $0.075 $4.50
GPT-5.4 (플래그십) $2.50 $0.25 $15.00

(출처: OpenAI 공식 가격 페이지, 2026.03.25 기준)

▲ 목차로 돌아가기

Gemini 3 Flash · Claude Haiku 4.5와 직접 비교했습니다

“GPT가 Google보다 비싸다”는 인식이 소형 모델에선 역전됩니다. 현재 Gemini 3 Flash는 입력 $0.50 / 출력 $3.00이고, Claude Haiku 4.5는 입력 $1.00 / 출력 $5.00입니다. GPT-5.4 nano의 입력 요금($0.20)은 Gemini 3 Flash 대비 2.5배 저렴합니다. (출처: Hacker News 실측 비교, 2026.03.17 / OpenAI 가격 페이지)

💡 공식 발표 수치와 외부 실측을 같이 놓고 보니 이런 차이가 보였습니다

출력 토큰 기준으로 보면 차이는 더 벌어집니다. 출력 $1.25 vs Gemini 3 Flash $3.00은 2.4배 차이입니다. 단순 분류·추출 작업처럼 출력이 짧고 입력이 긴 패턴에서는 nano가 확실히 유리합니다. 반대로 요약·생성 작업처럼 출력이 길면 입력 절감 효과가 줄어드니 주의해야 합니다.

모델 입력 (1M) 출력 (1M) 속도 (t/s)
GPT-5.4 nano $0.20 $1.25 약 200
Gemini 3 Flash $0.50 $3.00 약 130
Gemini 3.1 Flash Lite $0.25 $1.50
Claude Haiku 4.5 $1.00 $5.00

(출처: Hacker News 실측 데이터, 2026.03.17 / OpenAI·Anthropic 공식 가격 페이지)

한 가지 짚어야 할 게 있습니다. Gemini 3.1 Flash Lite는 입력 $0.25로 nano보다 살짝 비싸지만 출력이 $1.50로 거의 비슷합니다. 이 둘 사이의 선택은 요금보다 성능 벤치마크를 먼저 확인하는 게 맞습니다.

▲ 목차로 돌아가기

롱컨텍스트에서 nano가 mini를 앞지르지 못합니다

GPT-5.4 nano는 400K 컨텍스트 윈도우를 지원합니다. 여기까지만 보면 “긴 문서 처리도 OK”처럼 보입니다. 그런데 OpenAI 공식 발표문에 실린 벤치마크가 다른 이야기를 합니다. OpenAI MRCR v2 기준 128K~256K 범위에서 nano는 33.1%, mini는 33.6%입니다. 두 모델 간 차이가 0.5%p에 불과합니다. (출처: OpenAI 공식 발표, 2026.03.17)

⚠️ 롱컨텍스트를 쓰려고 nano를 고른다면, 이 수치를 먼저 보세요

64K~128K 범위에서도 nano(44.2%)와 mini(47.7%)의 격차는 3.5%p에 그칩니다. 그런데 플래그십 GPT-5.4는 같은 구간에서 86.0%입니다. 긴 문서를 정확히 처리해야 하는 상황에서는 nano·mini 둘 다 플래그십의 절반 수준도 안 됩니다.

또 하나 주목할 점이 있습니다. OSWorld-Verified 벤치마크에서 nano(39.0%)가 GPT-5 mini(42.0%)보다 낮습니다. 컴퓨터 사용 환경(UI 스크린샷 처리 등)에서 출시 세대가 더 앞선 모델이 오히려 구형 mini에게 밀리는 겁니다. OpenAI 공식 발표문이 직접 인정한 수치입니다. 스크린샷 기반 자동화 업무에 nano를 쓰려 한다면 주의가 필요합니다.

벤치마크 GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
MRCR v2 (64K~128K) 86.0% 47.7% 44.2% 35.1%
MRCR v2 (128K~256K) 79.3% 33.6% 33.1% 19.4%
OSWorld-Verified 75.0% 72.1% 39.0% 42.0%

(출처: OpenAI 공식 발표문, 2026.03.17 — xhigh reasoning_effort 기준)

▲ 목차로 돌아가기

ChatGPT 무료 사용자는 nano를 못 씁니다

이게 많은 분들이 놓치는 부분입니다. OpenAI 공식 발표문에 명확하게 나와 있습니다. GPT-5.4 nano는 오직 API에서만 사용할 수 있습니다. ChatGPT Free·Go 플랜에서는 노출 자체가 되지 않습니다. (출처: OpenAI 공식 발표, 2026.03.17)

💡 출시 발표문을 ChatGPT 접근 범위와 나란히 놓고 보니 보이는 것이 있습니다

mini는 Free·Go 사용자에게 Thinking 기능 내에서 제공됩니다. nano는 그 자리조차 없습니다. ChatGPT에서 nano를 쓰려면 결국 API 키를 발급받아야 하고, OpenAI 플랫폼 계정이 따로 필요합니다. “무료로 써볼 수 있다”는 기대로 접근한다면 그 기대는 mini까지입니다.

반면 Codex 환경에서는 mini가 GPT-5.4 쿼터의 30%만 차감됩니다. nano를 Codex에서 서브에이전트로 쓰면 메인 모델 비용을 낮출 수 있습니다. OpenAI가 공식 발표문에서 명시한 구조입니다.

▲ 목차로 돌아가기

nano가 진짜 값어치를 하는 시나리오

실제 프로덕션에서 nano를 써본 개발자들의 후기를 보면 패턴이 뚜렷합니다. 분류, 데이터 추출, 라우팅처럼 입력 스키마가 명확하고 출력 길이가 짧은 작업에서 nano가 기대 이상으로 잘 작동한다는 평이 많습니다. Reddit r/OpenAI 스레드(2026.03.20)에서 실제 프로덕션 팀원의 코멘트를 인용하면, “스키마를 강제하면 nano의 출력 신뢰도가 크게 올라간다”는 평가가 반복됩니다.

반면 같은 스레드에서 Azure 환경 사용자의 보고도 있습니다. 멀티스텝 추론이 필요한 작업에서 nano가 자신감 있게 틀린 답을 내놓는다는 겁니다. “에러가 아니라 확신에 찬 오답”이 나오는 실패 패턴입니다. 이건 비용 절감을 위해 nano를 붙인 뒤 검증 없이 출력을 믿는 파이프라인에서 위험해집니다.

✅ nano가 유리한 작업 / ❌ nano를 피해야 하는 작업

✅ nano 적합

  • 분류·태깅 (JSON 스키마 강제)
  • 단순 데이터 추출
  • 라우팅·필터링 서브에이전트
  • 코드 서브태스크 (검색, 파일 리뷰)

❌ nano 주의 필요

  • 128K+ 롱컨텍스트 문서 분석
  • 멀티스텝 추론 파이프라인
  • UI 스크린샷 기반 자동화
  • 모호한 입력을 처리하는 에이전트

▲ 목차로 돌아가기

mini 대비 비용 3배 차이, 실제로 계산해봤습니다

Hacker News 스레드(2026.03.17)에서 실측 데이터가 올라왔습니다. GPT-5.4 mini가 GPT-5 mini보다 3배 비싸지만 속도는 3배 이상 빠르다는 겁니다. mini의 API 출력 속도는 180~190 t/s, 구형 GPT-5 mini는 55~60 t/s입니다. nano는 약 200 t/s로 mini보다도 살짝 빠릅니다.

📊 월 100만 API 호출 기준 추정 비용 (입력 500토큰 + 출력 200토큰 가정)

· GPT-5.4 nano: (500×$0.20 + 200×$1.25) ÷ 1,000,000 × 1,000,000회 = $100 + $250 = $350

· GPT-5.4 mini: (500×$0.75 + 200×$4.50) ÷ 1,000,000 × 1,000,000회 = $375 + $900 = $1,275

· Gemini 3 Flash: (500×$0.50 + 200×$3.00) ÷ 1,000,000 × 1,000,000회 = $250 + $600 = $850

※ 위 계산은 OpenAI·Google 공식 가격 기준 추정치입니다. 실제 캐시 적중률·호출 패턴에 따라 달라집니다.

같은 조건에서 nano는 mini의 27%, Gemini 3 Flash의 41% 비용입니다. 단순 호출 패턴에서 nano가 압도적으로 저렴한 건 맞습니다. 그런데 이 비교는 “입력이 짧고 출력이 짧은” 시나리오 기준입니다. 출력이 2,000토큰이 넘어가는 작업이라면 출력 단가($1.25 vs $4.50)보다 절대 토큰 수가 비용을 결정하기 때문에 mini와의 격차가 줄어듭니다.

💡 소형 모델 가격이 “저렴해지는” 방향이 아니라는 점도 보였습니다

GPT-5.4 mini($0.75)는 GPT-5 mini($0.25) 대비 3배 비쌉니다. Gemini 3.1 Flash Lite도 이전 Flash Lite보다 올랐습니다. 소형 모델 세대가 올라갈수록 성능은 좋아지지만 가격도 오르는 흐름입니다. nano의 $0.20이 유지될지는 OpenAI가 아직 공개적인 입장을 밝히지 않은 부분입니다.

▲ 목차로 돌아가기

Q&A 5가지

Q1. GPT-5.4 nano 요금은 얼마인가요?
입력 토큰 1M당 $0.20, 출력 1M당 $1.25입니다. 캐시된 입력은 $0.02입니다. 롱컨텍스트 추가 요금 구간은 없고 400K 컨텍스트 윈도우 내에서 균일하게 적용됩니다. (출처: OpenAI 공식 가격 페이지, 2026.03.25 기준)
Q2. ChatGPT 무료 플랜에서 nano를 쓸 수 있나요?
쓸 수 없습니다. nano는 API 전용입니다. ChatGPT Free·Go 플랜에서는 GPT-5.4 mini가 Thinking 기능을 통해 일부 제공됩니다. nano를 쓰려면 OpenAI 플랫폼에서 API 키를 발급받아야 합니다.
Q3. Gemini 3 Flash와 비교하면 nano가 무조건 저렴한가요?
입력과 출력 단가 기준으로는 nano($0.20/$1.25)가 Gemini 3 Flash($0.50/$3.00)보다 저렴합니다. 다만 Gemini 3 Flash는 1M 토큰 컨텍스트 윈도우를 지원하는 반면 nano는 400K입니다. 긴 문서를 한 번에 넣어야 하는 작업이라면 컨텍스트 한도를 먼저 확인해야 합니다.
Q4. nano와 mini 중 어떤 걸 써야 하나요?
입력·출력이 짧고 반복량이 많은 분류·추출 작업이라면 nano가 훨씬 저렴합니다. 코드 생성, 멀티스텝 추론, 128K+ 롱컨텍스트 작업이라면 mini가 낫습니다. 특히 OSWorld-Verified 기준으로 UI 자동화에서는 nano(39%)보다 mini(72.1%)가 압도적으로 높습니다.
Q5. nano의 API 속도는 어느 정도인가요?
출시 시점 기준 실측에서 약 200 t/s가 나왔습니다. mini(180~190 t/s)보다 약간 빠르고, Gemini 3 Flash(약 130 t/s)보다 빠릅니다. 다만 이 수치는 출시 당일 로드가 낮은 환경에서 측정된 값이고, 실제 프로덕션 환경에서는 달라질 수 있습니다. (출처: Hacker News 실측 데이터, 2026.03.17)

▲ 목차로 돌아가기

마치며

GPT-5.4 nano 요금은 현재 OpenAI 라인업 중 가장 낮은 가격이고, Gemini 3 Flash 대비로도 저렴합니다. 그러나 세 가지 상황에서는 “싸다”는 이유만으로 선택하면 기대와 다른 결과가 납니다. 128K를 넘는 롱컨텍스트에서 성능이 mini와 거의 차이가 없고, UI 자동화에서는 구형 GPT-5 mini보다도 낮은 수치를 보이며, ChatGPT 인터페이스에서는 아예 선택지가 없습니다.

솔직히 말하면, nano의 진짜 경쟁력은 “API 대량 호출 + 짧은 입출력 + 명확한 스키마” 조합에서만 제대로 발휘됩니다. 그 조건을 충족한다면 월 수백 달러 단위의 절감이 가능합니다. 그 조건이 아니라면 mini가 더 나은 선택입니다.

소형 모델이 세대를 거듭할수록 좋아지는 건 맞습니다. 다만 가격도 함께 올라가는 흐름도 같이 보고 있어야 합니다. nano의 $0.20이 얼마나 유지될지, OpenAI가 아직 답하지 않은 부분입니다.

▲ 목차로 돌아가기

📚 본 포스팅 참고 자료

  1. OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (openai.com)
  2. OpenAI 공식 가격 페이지 (platform.openai.com/docs/pricing)
  3. OpenAI 공식 모델 문서 (platform.openai.com/docs/models)
  4. Hacker News — GPT-5.4 Mini and Nano 스레드 (2026.03.17, 실측 속도·가격 데이터)
  5. Reddit r/OpenAI — GPT-5.4 Nano 사용 후기 스레드 (2026.03.20)

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 모든 요금 수치는 OpenAI 공식 가격 페이지 2026년 3월 25일 기준이며, 이후 변경될 수 있습니다. 본 포스팅은 특정 서비스의 투자 또는 구매를 권유하지 않습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기