GPT-5.4 nano, 정말 싸게 쓸 수 있을까요?

Published on

in

GPT-5.4 nano, 정말 싸게 쓸 수 있을까요?

2026.03.18 기준
GPT-5.4 mini / nano 기준
TECH 테마

GPT-5.4 nano, 정말 싸게 쓸 수 있을까요?

2026년 3월 18일 오전 3시(KST), OpenAI가 GPT-5.4 mini와 nano를 공식 출시했습니다.
입력 토큰 $0.20이라는 숫자만 보면 확실히 저렴해 보입니다.
그런데 막상 이전 세대 가격과 비교해 보면, 그리고 nano를 쓸 수 있는 곳이 어디인지 확인해 보면 —
기대와 다른 부분이 꽤 있었습니다.

$0.20
nano 입력 토큰/1M
4배
이전 세대 nano 대비 인상
API 전용
ChatGPT에서는 못 씀
200 t/s
nano 출력 속도(Hacker News 실측)

nano와 mini, 무엇이 다른가요?

OpenAI 공식 발표문에는 이렇게 명시돼 있습니다.
“nano는 분류, 데이터 추출, 순위 매기기, 그리고 단순 지원 작업을 처리하는 코딩 서브에이전트를 위해 설계됐다.”
(출처: OpenAI 공식 발표, 2026.03.17)

mini는 API, Codex, ChatGPT 세 곳 모두에서 쓸 수 있습니다. 반면 nano는 API에서만 가능합니다.
ChatGPT 무료 사용자나 Go 요금제 사용자는 mini를 ‘잘 생각하기’ 메뉴를 통해 쓸 수 있지만,
nano는 ChatGPT에서 아예 접근이 안 됩니다.

💡 공식 발표문과 ChatGPT 적용 범위를 같이 놓고 보니 이런 차이가 보였습니다 —
nano는 “저렴한 GPT”가 아니라, 개발자가 직접 API로 구성하는 멀티에이전트 파이프라인을 위한 모델입니다.
일반 ChatGPT 사용자와는 사실상 무관합니다.

성능 스펙도 차이가 큽니다. 컨텍스트 윈도우는 mini와 nano 모두 400,000 토큰인데,
(출처: OpenAI 공식 발표, 2026.03.17 / 나무위키 GPT-5 항목, 2026.03.18)

▲ 목차로 돌아가기

ChatGPT에서 nano를 쓸 수 없는 이유

많은 사람이 “nano가 나왔다”는 소식을 듣고 ChatGPT에서 바로 써보려 할 텐데,
실제로는 열리지 않습니다. OpenAI의 공식 입장은 명확합니다.
“GPT-5.4 nano는 API에서만 이용 가능하며, 입력 토큰 1M당 $0.20, 출력 토큰 1M당 $1.25입니다.”
(출처: OpenAI 공식 발표, 2026.03.17)

이건 설계 의도입니다. OpenAI는 nano를 “속도와 비용이 가장 중요한 작업”을 위한 모델로 정의했습니다.
분류, 라우팅, 단순 코딩 서브에이전트처럼 수십만~수백만 건의 호출이 반복되는 파이프라인에서
비용을 최소화하는 용도입니다.
대화형 인터페이스보다는 자동화 시스템 안에서 조용히 돌아가는 구조에 어울립니다.

mini는 사정이 다릅니다. ChatGPT에서 무료·Go 사용자에게 ‘+’ 메뉴 → ‘잘 생각하기’를 누르면 쓸 수 있고,
Plus 이상 사용자는 GPT-5.4 Thinking 한도를 초과했을 때 자동 전환됩니다.
ChatGPT 내에서의 공식 이름은 ‘GPT-5.4 Thinking mini’입니다.
(출처: 나무위키 GPT-5 항목, 2026.03.18)

💡 기존 GPT-5 Thinking mini는 2026년 4월 18일(KST)에 지원 종료됩니다.
무료 사용자 입장에서는 사실상 GPT-5 Thinking mini가 GPT-5.4 Thinking mini로 업그레이드되는 것과 같습니다.
(출처: 나무위키 GPT-5 항목, 2026.03.18)

결론부터 말씀드리면, nano는 ChatGPT 구독 요금제와 무관합니다.
API 키가 없으면 쓸 수 없습니다. 이 점을 모르고 “nano 써봐야지” 했다가 허탕 치는 경우가 생길 것 같아서 먼저 짚었습니다.

▲ 목차로 돌아가기

가격이 싸다고요? 이전 세대와 비교해 봤습니다

$0.20이라는 숫자만 보면 저렴해 보입니다. 하지만 이전 세대 GPT-5 nano와 직접 비교하면 이야기가 달라집니다.
나무위키 GPT-5 항목(2026.03.18 기준)에 따르면,
출력 토큰 가격은 3.125배 올랐습니다.
오히려 mini보다 nano의 인상폭이 더 큽니다.

mini도 비슷한 흐름입니다. 입력 토큰이 이전 세대 대비 3배, 출력 토큰은 2.25배 올랐습니다.
이 수치는 “저렴한 소형 모델”이라는 인상과 꽤 다릅니다.
Hacker News에서도 한 개발자가 “저가 구간 가격이 확실히 올랐다(the lowest end pricing has been thoroughly hiked)”고 지적했습니다.
(출처: Hacker News, GPT-5.4 mini and nano 스레드, 2026.03.18)

모델 입력 (/1M) 출력 (/1M) 접근 경로
GPT-5.4 $2.50 $15.00 API / Codex / ChatGPT
GPT-5.4 mini $0.75 $4.50 API / Codex / ChatGPT
GPT-5.4 nano $0.20 $1.25 API 전용
Claude Haiku 4.5 $1.00 $5.00 API
Gemini 3.1 Flash-Lite $0.25 $1.50 API

(출처: OpenAI 공식 발표 2026.03.17 / Simon Willison 분석 2026.03.17 / Hacker News 스레드 2026.03.18)

위 표에서 눈에 띄는 건 Gemini 3.1 Flash-Lite입니다.
입력 $0.25, 출력 $1.50으로 nano보다 출력 가격이 오히려 높지만,
절대적인 가격대는 엇비슷합니다. Simon Willison은 자신의 분석에서
“GPT-5.4 nano는 Gemini 3.1 Flash-Lite보다 눈에 띄게 저렴하다”고 평가했지만,
실제로 계산해 보면 입력 기준 $0.05 차이입니다. 의미 있는 차이인지는 사용 규모에 따라 다릅니다.

직접 계산해 볼 수 있는 수치:
Simon Willison이 사진 1장 설명(2,751 입력 토큰 + 112 출력 토큰)에 약 $0.00069(0.069센트)가 들었다고 실측했습니다.
76,000장 사진 전체에 $52.44 정도입니다.
같은 작업을 GPT-5.4 기본 모델($2.50 입력)로 하면 약 $687 — 약 13배 차이가 납니다.
즉 nano의 가치는 대량 반복 작업에서 비로소 드러납니다.
(출처: Simon Willison, 2026.03.17, simonwillison.net)

▲ 목차로 돌아가기

긴 문서를 넘기면 mini도 흔들립니다

mini가 코딩이나 컴퓨터 사용 벤치마크에서 GPT-5.4에 근접한 성능을 보인다고 해서
모든 작업에서 그렇다고 생각하면 막히는 부분이 생깁니다.
바로 긴 컨텍스트 구간입니다.

OpenAI 공식 벤치마크 중 MRCR v2(8바늘, 128K~256K 구간)를 보면:
절반도 아니고 절반의 절반 수준입니다.
같은 구간에서 GPT-5 mini(이전 세대)는 19.4%이므로 mini가 개선된 건 맞지만,
“GPT-5.4에 근접”한다는 설명은 이 구간에서는 해당이 안 됩니다.
(출처: OpenAI 공식 발표, 2026.03.17)

구간 (MRCR v2 8-needle) GPT-5.4 GPT-5.4 mini GPT-5.4 nano
64K~128K 86.0% 47.7% 44.2%
128K~256K 79.3% 33.6% 33.1%

(출처: OpenAI 공식 발표, 2026.03.17 / 단위: 정확도 %)

이 수치가 의미하는 건 간단합니다.
긴 문서 전체를 깊이 이해해야 하는 작업 — 예를 들어 300페이지 PDF 분석, 대형 코드베이스 전체 리뷰,
긴 대화 맥락 유지 — 에는 mini나 nano를 쓰면 안 됩니다.
Beam.ai의 분석도 같은 결론입니다. “이 구간에서 mini는 적합하지 않습니다.
잘 범위가 좁혀진 서브태스크에서만 성능 프로필이 유지됩니다.”
(출처: Beam.ai 분석, 2026.03.18)

nano는 더 심합니다. OSWorld-Verified(컴퓨터 사용 벤치마크)에서 mini가 72.1%인 반면 nano는 39.0%입니다.
흥미롭게도 이전 세대 GPT-5 mini(42.0%)보다도 낮은 수치입니다.
컴퓨터 사용 작업에서 nano를 쓰면 이전 세대보다 오히려 못할 수 있다는 뜻입니다.
(출처: OpenAI 공식 발표, 2026.03.17)

▲ 목차로 돌아가기

Codex에서 mini가 갖는 의미

Codex 사용자에게 mini 출시가 반가운 건 가격 구조 때문입니다.
공식 발표에 따르면, Codex에서 GPT-5.4 mini는 GPT-5.4 쿼터의 단 30%만 소비합니다.
(출처: OpenAI 공식 발표, 2026.03.17)

OpenAI가 의도하는 구조는 이렇습니다.
mini 서브에이전트들이 코드베이스 검색, 대형 파일 리뷰, 지원 문서 처리 같은 세부 작업을 병렬로 처리합니다.
이 구조가 가능해진 건 mini의 도구 호출 정확도가 크게 올랐기 때문입니다.
τ2-bench(텔레콤) 기준으로 mini는 93.4%를 기록했는데, 이전 세대 GPT-5 mini의 74.1%에서 20%포인트 가까이 뛰었습니다.

💡 공식 Codex 쿼터 구조와 서브에이전트 설계를 함께 보면 이런 그림이 나옵니다 —
mini 출시 이후 Codex에서는 “하나의 큰 작업을 쪼개서 mini에게 넘기는” 것이 비용 효율적인 기본 전략이 됩니다.
단순히 “싼 버전”을 쓰는 게 아니라, 아키텍처 자체가 바뀌는 겁니다.
(출처: OpenAI 공식 발표 및 Beam.ai 분석, 2026.03.17~18)

다만 솔직히 말하면, 이 구조는 개발 경험이 있는 사람에게나 의미 있습니다.
Codex를 처음 쓰는 분들에게는 “어떤 작업을 mini에게 넘길 것인가”를 판단하는 것 자체가
또 다른 학습 곡선입니다.

▲ 목차로 돌아가기

경쟁 모델과 가격·성능 직접 비교

가장 직접적인 경쟁 상대는 Gemini 3.1 Flash-Lite와 Claude Haiku 4.5입니다.

속도 면에서는 nano가 Hacker News 실측 기준 약 200 토큰/초를 기록했습니다.
같은 스레드에서 Gemini 3 Flash는 API 기준 약 130 토큰/초로 측정됐습니다.
즉 nano가 Gemini Flash보다 약 50% 이상 빠릅니다.
(출처: Hacker News, GPT-5.4 mini and nano 스레드, 2026.03.18)

그러나 가격 면에서는 Gemini 3.1 Flash-Lite($0.25 입력 / $1.50 출력)와 비교해
nano($0.20 입력 / $1.25 출력)의 우위가 크지 않습니다.
1M 입력 토큰당 $0.05 차이가 실제로 의미 있는 절감이 되려면
수억 토큰 이상의 고용량 워크로드여야 합니다.
소규모 프로젝트에서는 차이가 거의 없습니다.

코딩 성능 기준(SWE-Bench Pro)으로 보면:
nano가 52.4%로 이전 세대 GPT-5 mini(45.7%)를 제쳤습니다.
이 수치는 nano 가격대에서 이전에 불가능했던 코딩 서브에이전트 구성이 가능해졌다는 걸 의미합니다.
(출처: OpenAI 공식 발표, 2026.03.17)

제 판단: nano는 “GPT 계열에서 가장 싼 모델”이라는 프레임으로 접근해야 하지,
nano는 명확하게 API 개발자 전용 파이프라인 모델입니다.

▲ 목차로 돌아가기

자주 나오는 질문 5가지

Q1. ChatGPT 무료 요금제에서 nano를 쓸 수 있나요?
아니요. nano는 API 전용입니다. ChatGPT 무료·Go·Plus 요금제 어디서도 nano는 선택할 수 없습니다.
ChatGPT에서 새로 쓸 수 있는 건 mini(GPT-5.4 Thinking mini라는 이름으로)뿐입니다.
무료·Go 사용자는 ‘+’ 메뉴 → ‘잘 생각하기’로 접근 가능합니다.
(출처: OpenAI 공식 발표 및 나무위키 GPT-5 항목, 2026.03.18)
Q2. nano가 이전 세대보다 정말 4배 비싸진 건가요?
입력 토큰 기준으로 맞습니다. 나무위키 GPT-5 항목(2026.03.18)에 따르면
출력은 3.125배 올랐습니다. mini도 입력 3배, 출력 2.25배 상승했습니다.
다만 성능도 비례해서 올랐기 때문에, 비용 대비 성능 비율(cost-efficiency)이
실제로 나빠졌는지는 작업 유형에 따라 다릅니다.
Q3. mini와 nano 중 어떤 걸 써야 할까요?
OpenAI의 공식 권장 기준을 그대로 옮기면:
mini는 코딩, 컴퓨터 사용, 멀티모달 작업, 도구 호출 등 “판단이 필요한 서브태스크”에,
nano는 분류, 데이터 추출, 순위 매기기, 단순 반복 코딩 서브에이전트에 적합합니다.
64K 토큰을 넘어가는 컨텍스트가 있으면 mini도 성능이 급락하므로,
그 이상이면 GPT-5.4 본 모델을 써야 합니다.
(출처: OpenAI 공식 발표, 2026.03.17)
Q4. 기존 GPT-5 Thinking mini는 계속 쓸 수 있나요?
2026년 4월 18일(KST)에 지원 종료됩니다.
(출처: 나무위키 GPT-5 항목, 2026.03.18)
Q5. nano로 이미지 작업도 할 수 있나요?
API에서 nano도 이미지 입력을 지원합니다.
Simon Willison이 실측한 결과, 사진 1장 설명에 약 $0.00069(0.069센트)가 들었고
7만 6,000장 설명에 총 $52.44 수준이었습니다.
다만 멀티모달 벤치마크(MMMUPro)에서 nano(66.1%)는 mini(76.6%)보다 10%포인트 이상 낮으므로
이미지 이해 품질이 중요한 작업은 mini 이상을 권장합니다.
(출처: Simon Willison 2026.03.17 / OpenAI 공식 발표 2026.03.17)

▲ 목차로 돌아가기

마치며

이전 세대 대형 모델에서나 볼 수 있던 코딩 성능(SWE-Bench Pro 52.4%)을
API 기준 입력 $0.20에 쓸 수 있다는 건 실제로 의미 있는 변화입니다.
200 토큰/초 수준의 속도도 체감이 될 만합니다.

그런데 막상 써보려 하면 걸리는 지점이 있습니다.
ChatGPT에서는 아예 쓸 수 없고, API 개발자 전용입니다.
“저렴하다”는 인상과 달리 이전 세대 대비 가격이 4배 올랐습니다.
긴 컨텍스트 구간에서는 예상보다 훨씬 성능이 떨어집니다.
컴퓨터 사용 작업에서는 nano가 이전 세대 GPT-5 mini보다 오히려 낮은 수치를 보입니다.

정리하면, nano는 “범용 저렴이 모델”이 아닙니다.
대량 반복, 단순 분류, 좁게 정의된 서브에이전트 작업에서만 진가가 나옵니다.
그 범위 안에서라면, 현재 시점에서 API 기준 가장 빠르고 저렴한 GPT 계열 선택지입니다.

본 포스팅은 2026.03.18 09:58 KST 기준으로 작성됐습니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano

    https://openai.com/index/introducing-gpt-5-4-mini-and-nano/
  2. OpenAI 공식 발표 (한국어) — GPT-5.4 소개

    https://openai.com/ko-KR/index/introducing-gpt-5-4/
  3. Simon Willison — GPT-5.4 mini and nano 실측 분석 (2026.03.17)

    https://simonwillison.net/2026/Mar/17/mini-and-nano/
  4. Beam.ai — GPT-5.4 Mini & Nano: Multi-Model Architecture Validated (2026.03.18)

    https://beam.ai/agentic-insights/
  5. 나무위키 GPT-5 항목 (2026.03.18 기준)

    https://namu.wiki/w/GPT-5

※ 본 포스팅 작성 이후 서비스 정책·UI·기능·가격이 변경될 수 있습니다.
IT/AI 서비스 특성상 OpenAI의 모델 업데이트 및 정책 변경으로 내용이 달라질 수 있습니다.
최신 정보는 OpenAI 공식 홈페이지를 통해 반드시 재확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기