GPT-5.4 mini nano, 싸다고요? 이 조건에서만 유리합니다

Published on

in

GPT-5.4 mini nano, 싸다고요? 이 조건에서만 유리합니다

2026.03.17 출시 기준
GPT-5.4 mini / nano
OpenAI 공식 발표

GPT-5.4 mini nano, 싸다고요?
이 조건에서만 유리합니다

결론부터 말씀드리면, GPT-5.4 mini는 ChatGPT Free·Go 사용자에게는 기본 Thinking 모델로 바로 쓸 수 있습니다. 하지만 Plus 이상 유료 사용자라면 직접 선택이 불가능하고, GPT-5.4 한도를 다 쓴 뒤에만 자동으로 켜집니다. 요금표에도 함정이 있습니다. GPT-5.4는 272K 토큰 초과 시 요금이 2배로 뛰지만, mini·nano는 그 Long Context 요금 단계 자체가 없어요. 공식 수치로 하나씩 짚어보겠습니다.

$0.75
mini 입력 / 1M 토큰
$0.20
nano 입력 / 1M 토큰
2×빠름
GPT-5 mini 대비 속도

ChatGPT 플랜별 사용 방법 — 직접 선택이 되는 플랜과 안 되는 플랜

GPT-5.4 mini와 nano가 출시됐다는 소식을 들으면 “ChatGPT에서 바로 고를 수 있겠구나” 싶은데, 막상 해보면 다릅니다.

OpenAI 공식 발표문(2026.03.17)에 딱 이렇게 나옵니다.

공식 발표문 원문 요약 (출처: OpenAI, 2026.03.17)

Free·Go 플랜: Thinking 기능의 기본 모델로 GPT-5.4 mini 제공. + 메뉴에서 직접 선택 가능.
Plus·Pro·Business·Enterprise 플랜: GPT-5.4 Thinking 한도를 초과한 경우에만 자동 fallback으로 작동. 직접 선택 불가.
GPT-5.4 nano: API 전용. ChatGPT 인터페이스에서는 어떤 플랜도 선택 불가.

즉, 유료 구독자일수록 mini를 의식적으로 활용하기가 오히려 어렵습니다. GPT-5.4 한도가 남아 있는 한 자동으로 bigger 모델이 작동하기 때문이에요. 반대로 Free 플랜 사용자는 mini가 기본 Thinking 모델이라 지금 당장 품질 좋은 추론 기능을 무료로 쓸 수 있는 상황입니다.

nano는 완전히 개발자·API 용도입니다. ChatGPT 화면에서는 어느 플랜이든 나타나지 않아요.

공식 요금표에서 봐야 할 숫자 — mini·nano에 Long Context 요금이 없는 이유

GPT-5.4 요금표를 처음 보면 “1M 토큰 컨텍스트인데 왜 싸 보이지?” 싶은데, 실제로는 함정이 있습니다. 272K 토큰을 넘기면 입력 요금이 $2.50 → $5.00으로 2배, 출력은 $15.00 → $22.50으로 1.5배 오릅니다. OpenAI 공식 API 요금표에 그대로 나와 있어요. (출처: OpenAI Pricing, 2026.03.17)

모델 입력 (표준) 출력 (표준) 입력 (Long) 출력 (Long)
GPT-5.4 $2.50 $15.00 $5.00 ▲2배 $22.50 ▲1.5배
GPT-5.4 mini $0.75 $4.50 해당 없음 해당 없음
GPT-5.4 nano $0.20 $1.25 해당 없음 해당 없음

mini·nano의 컨텍스트 창은 400K 토큰으로 고정되어 있고, Long Context 요금 단계 자체가 없습니다. 400K 안에서 쓰는 한 요금 체계가 단순합니다. 반면 GPT-5.4는 272K를 기준으로 요금이 달라지기 때문에, 긴 대화나 대규모 코드베이스 작업이라면 숫자를 직접 계산해봐야 합니다.

💡 공식 가격표와 실제 사용 흐름을 나란히 놓고 보니 이런 차이가 보였습니다

벤치마크 실측치 — mini와 nano, 어디서 차이가 갈리나

OpenAI가 공개한 벤치마크 수치를 직접 보면 mini와 nano 사이에 생각보다 큰 격차가 있는 항목이 있습니다. 컴퓨터 사용(Computer Use)이 대표적입니다.

벤치마크 GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
SWE-Bench Pro (코딩) 57.7% 54.4% 52.4% 45.7%
OSWorld-Verified (컴퓨터 사용) 75.0% 72.1% 39.0% 42.0%
GPQA Diamond (추론) 93.0% 88.0% 82.8% 81.6%
Terminal-Bench 2.0 (터미널 에이전트) 75.1% 60.0% 46.3% 38.2%
⚠️ 컴퓨터 사용 작업에서 nano는 33%포인트 뒤집어집니다

OSWorld-Verified 기준으로 mini(72.1%)와 nano(39.0%) 사이에 33.1%포인트 차이가 납니다. 거기다 nano(39.0%)는 구형 GPT-5 mini(42.0%)보다도 낮아요. 스크린샷을 보고 UI를 조작하는 RPA형 자동화, 브라우저 에이전트라면 nano가 오히려 더 비쌉니다 — 오류가 잦아지면 재시도 비용이 올라가니까요. (출처: OpenAI 공식 발표, 2026.03.17)

반면 코딩과 추론에서는 mini·nano 모두 이전 세대 전체를 압도합니다. SWE-Bench Pro에서 nano(52.4%)조차 GPT-5 mini(45.7%)를 크게 넘깁니다. 단순 코드 검토, 분류, 데이터 추출이라면 nano가 성능 대비 가격 면에서 압도적입니다.

Codex 할당량 30% 절약이 실제로 의미하는 것

Codex에서 GPT-5.4 mini를 쓰면 GPT-5.4 할당량의 30%만 차감됩니다. 공식 발표문에 그대로 나온 수치입니다. (출처: OpenAI, 2026.03.17)

실제로 어느 정도 차이인지 직접 계산해봤습니다.

📊 Codex 할당량 절약 시나리오 계산
상황: 주간 GPT-5.4 할당량 100단위 보유
GPT-5.4로만 작업: 작업 1건 = 1단위 → 총 100건 처리 가능
GPT-5.4 mini로 서브에이전트 처리: 동일 작업 1건 = 0.3단위 → 총 약 333건 처리 가능
결과: 같은 할당량으로 처리량 3.3배

OpenAI가 권장하는 방식은 “대형 모델이 계획·조율·최종 판단을 맡고, mini 서브에이전트가 코드베이스 검색·대형 파일 리뷰·보조 문서 처리를 병렬로 처리하는 구조”입니다. 기획은 GPT-5.4, 실행은 mini — 이렇게 역할을 나누면 비용이 극적으로 줄어듭니다.

단순 정리 작업이나 보조 태스크에 GPT-5.4를 그대로 쓰고 있다면, 그냥 쌓아두기엔 아까운 할당량이 날아가고 있는 겁니다.

nano가 Claude Haiku 4.5보다 싼 이유 — 직접 계산해봤습니다

API를 쓰는 개발자라면 소형 모델 요금을 비교할 때 Claude Haiku 4.5를 자주 기준으로 삼습니다. 솔직히 말하면 저도 그랬는데, 이번 nano 가격을 보고 다시 계산해봤습니다.

모델 입력 / 1M 토큰 출력 / 1M 토큰 GPQA Diamond
GPT-5.4 nano $0.20 $1.25 82.8%
Claude Haiku 4.5 $1.00 $5.00 73.0%

입력 기준 5배 차이입니다. 출력 기준으로도 4배 차이가 납니다. 그러면서 GPQA Diamond에서 nano가 9.8%포인트 앞섭니다. (출처: DataCamp 공식 분석, 2026.03.17 / OpenAI 공식 발표, 2026.03.17)

💡 실제 비용을 월 규모로 환산해보면

월 2억 토큰 출력 파이프라인을 가정할 때, GPT-5.4 nano 출력 비용은 $250입니다. Claude Haiku 4.5 동일 조건이면 $1,000. 차이가 $750/월입니다. 연으로 따지면 $9,000 차이 — 소형 모델 하나 선택이 실제 인프라 비용에 직접 영향을 줍니다.

단, 벤치마크 기준이 다르다는 점은 주의해야 합니다. Claude Haiku 4.5의 SWE-bench는 “Verified” 버전, GPT-5.4 nano는 “Pro (Public)” 버전으로 직접 비교가 어렵습니다. 요금 비교는 명확하지만, 코딩 성능 비교는 자신의 실제 작업 유형으로 직접 테스트해봐야 합니다.

mini·nano를 쓰면 안 되는 딱 두 가지 상황

지금까지 좋은 점만 얘기했는데, 이 부분이 좀 아쉬웠습니다. 공식 데이터로 확인한 한계점 두 가지입니다.

① 긴 컨텍스트가 반드시 필요한 작업

mini와 nano의 컨텍스트 창은 400K 토큰 고정입니다. GPT-5.4는 설정을 통해 최대 1M 토큰(Codex 기준)까지 확장됩니다. 100만 라인 수준의 모노레포 분석이나 장문 법률문서 전체 검토처럼 400K를 반드시 넘겨야 하는 작업이라면 mini·nano로는 컨텍스트가 잘립니다. 이 부분은 구조 분할(RAG, 청크 처리)로 우회할 수 있지만, 추가 작업이 필요합니다.

② 실시간 UI 자동화·스크린 조작 작업

앞서 벤치마크에서 확인했듯, nano의 OSWorld-Verified 점수는 39.0%입니다. GPT-5 mini(42.0%)보다도 낮아요. 스크린샷 기반 UI 조작, 웹 브라우저 RPA처럼 컴퓨터 사용이 핵심인 작업이라면 nano가 아닌 mini 이상을 쓰거나, 애초에 GPT-5.4를 써야 합니다. 오류율이 올라가면 재시도 비용이 빠르게 쌓입니다. (출처: OpenAI 공식 벤치마크, 2026.03.17)

이 두 가지를 피하는 한, mini·nano는 속도와 비용 모두에서 꽤 강력한 선택입니다.

Q&A

Q. GPT-5.4 mini를 ChatGPT Plus에서 직접 선택할 수 있나요?
아닙니다. Plus 이상 플랜에서는 GPT-5.4 Thinking 한도를 소진했을 때 자동으로 fallback되는 방식으로만 작동합니다. 직접 선택 메뉴에는 표시되지 않습니다. Free·Go 플랜은 + 메뉴의 Thinking에서 직접 선택 가능합니다. (출처: OpenAI 공식 발표, 2026.03.17)
Q. GPT-5.4 nano는 ChatGPT에서 쓸 수 없나요?
맞습니다. nano는 API 전용입니다. ChatGPT 인터페이스 — Free, Go, Plus, Pro 어느 플랜에서도 선택 불가합니다. API 키를 발급받아 직접 호출해야 합니다.
Q. Codex에서 mini를 쓰면 할당량이 얼마나 절약되나요?
Q. mini와 nano 중 코딩 용도에서 어느 쪽이 더 낫나요?
SWE-Bench Pro 기준으로 mini(54.4%)와 nano(52.4%) 차이는 약 2%포인트로 크지 않습니다. 단순 코드 검토·분류·데이터 추출이라면 nano가 비용 효율적입니다. 그러나 컴퓨터 사용(UI 조작)이 포함된 작업에서는 mini(72.1%)와 nano(39.0%) 격차가 커서, 이 경우 mini를 쓰는 게 맞습니다.
Q. GPT-5.4 mini의 속도는 실제로 얼마나 빠른가요?
OpenAI 공식 발표 기준으로 GPT-5 mini 대비 2배 이상 빠릅니다. 출시 당일 개발자들이 API 실측한 수치(Hacker News, 2026.03.17)로는 mini가 약 180~190 t/s, nano가 약 200 t/s이었습니다. Gemini 3 Flash(약 130 t/s)나 GPT-5 mini(약 55~60 t/s)와 비교하면 체감 차이가 큽니다. 다만 이 수치는 출시 당일 측정치로, 이후 서버 부하에 따라 달라질 수 있습니다.

마치며 — 어디서 쓸지가 더 중요합니다

GPT-5.4 mini와 nano는 분명히 잘 만든 모델입니다. mini는 GPT-5.4에 근접한 코딩 능력을 가지면서 요금은 3.3분의 1, 속도는 2배 이상입니다. nano는 비슷한 규모 경쟁 모델 대비 5배 저렴하면서 추론 점수는 오히려 앞섭니다.

그런데 쓰기 전에 확인해야 할 게 있어요. ChatGPT 플랜 조건, 컨텍스트 창 한계, 컴퓨터 사용 작업 여부 — 이 세 가지를 먼저 짚어봐야 합니다. 특히 유료 구독자라면 mini를 직접 선택할 수 없고 fallback으로만 작동한다는 건, 생각보다 많은 분이 모르고 있는 내용입니다.

개인적인 생각으로는, API를 쓰는 개발자한테는 nano가 가장 큰 변화입니다. 지금까지 소형 모델 선택지에서 비용과 성능을 동시에 맞추기 어려웠는데, nano 등장으로 그 균형점이 상당히 유리하게 옮겨졌거든요. 다만 서비스 업데이트가 빠른 분야인 만큼, 실제 파이프라인에 적용하기 전엔 직접 테스트를 먼저 해보는 게 맞습니다.

본 포스팅 참고 자료

  1. OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (2026.03.17)
    https://openai.com/index/introducing-gpt-5-4-mini-and-nano/
  2. OpenAI API 공식 요금표 — Pricing (2026.03.17 기준)
    https://developers.openai.com/api/docs/pricing/
  3. OpenAI API 모델 비교표 — Compare models
    https://developers.openai.com/api/docs/models/compare
  4. DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (2026.03.17)
    https://www.datacamp.com/blog/gpt-5-4-mini-nano
  5. Hacker News — GPT‑5.4 Mini and Nano 스레드 실측 속도 데이터 (2026.03.17)
    https://news.ycombinator.com/item?id=47415441

본 포스팅 작성 이후 OpenAI의 서비스 정책·UI·기능·요금이 변경될 수 있습니다. 모든 수치는 2026년 3월 17일 공식 발표 및 API 문서 기준이며, 실제 적용 전 최신 공식 문서를 반드시 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기