GPT-5.4 mini nano, 싸다는 말이 맞는 경우는 따로 있습니다

Published on

in

GPT-5.4 mini nano, 싸다는 말이 맞는 경우는 따로 있습니다

2026.03.17 기준
GPT-5.4 mini · nano 공식 출시
OpenAI API / Codex / ChatGPT 적용

GPT-5.4 mini nano, 싸다는 말이 맞는 경우는 따로 있습니다

OpenAI가 2026년 3월 17일 GPT-5.4 mini와 nano를 공개했습니다. 공식 발표는 “더 작고, 더 빠르고, 더 저렴하다”는 문구로 시작하는데, 막상 가격표를 보면 이야기가 좀 달라집니다. GPT-5.4 mini nano를 어디에서 어떻게 쓰느냐에 따라 체감이 완전히 갈립니다.

$0.75
mini 입력(100만 토큰)
$0.20
nano 입력(100만 토큰)
최대 4배
이전 세대 대비 가격 인상
400K
컨텍스트 윈도우

결론부터 말씀드리면: mini와 nano, 쓸 곳이 다릅니다

GPT-5.4 mini nano는 2026년 3월 17일 공개된 GPT-5.4의 경량 버전입니다. OpenAI는 이 두 모델이 “코딩 보조, 서브에이전트, 컴퓨터 제어에 최적화”되어 있다고 설명합니다. (출처: OpenAI 공식 발표, 2026.03.17)

mini는 API, Codex, ChatGPT 모두에서 사용 가능하고, nano는 API 전용입니다. 이 차이 하나가 실제 활용 범위를 크게 가릅니다. ChatGPT 앱에서 쓰는 분이라면 nano는 직접 선택 자체가 안 됩니다.

가격·성능·접근 방식 세 가지를 한 번에 보지 않으면, 발표 내용만 읽고 잘못 판단하기 쉬운 모델입니다.

가격이 올랐는데 왜 “저렴하다”고 할까요?

이 부분이 처음에 제일 헷갈렸습니다. 공식 발표는 “저렴하다”고 강조하는데, 막상 이전 세대와 비교하면 얘기가 다릅니다.

모델 입력 (100만 토큰) 출력 (100만 토큰) 이전 대비 입력 인상
GPT-5.4 mini $0.75 $4.50 +3.0배
GPT-5.4 nano $0.20 $1.25 +4.0배
GPT-5 mini (이전) $0.25 $2.00
GPT-5 nano (이전) $0.05 $0.40

(출처: OpenAI 공식 가격 페이지 / The Decoder, 2026.03.17)

nano 기준으로 입력 가격만 놓으면 4배 비싸집니다. 100만 토큰 입력에 이전엔 $0.05였던 게 지금은 $0.20입니다. 대량 처리 파이프라인에 이미 GPT-5 nano를 쓰고 있다면, 설정 파일을 그대로 복사하다가 비용이 4배로 뛸 수 있습니다.

그럼에도 “저렴하다”는 말이 틀린 건 아닙니다. 비교 기준이 GPT-5.4 풀 모델이기 때문입니다. GPT-5.4 기본 모델은 입력 $2.50, 출력 $15.00인데, mini는 입력 $0.75로 GPT-5.4 대비 확실히 저렴합니다. 요컨대 “이전 mini보다는 비싸지만, 풀 모델 대비해서는 저렴하다”는 의미입니다.

💡 공식 발표문과 가격표를 같이 놓고 보니 이런 차이가 보였습니다.
OpenAI가 말하는 “저렴”의 기준은 이전 세대가 아니라 GPT-5.4 풀 모델입니다. 이미 GPT-5 nano를 대량으로 쓰고 있다면 반드시 가격 재검토가 필요합니다.

nano는 최신 세대인데 이 항목에선 뒤집힙니다

가격보다 더 흥미로운 부분이 있습니다. GPT-5.4 nano가 GPT-5.4 시리즈의 최신 경량 모델임에도 불구하고, 특정 벤치마크에서 이전 세대인 GPT-5 mini보다 낮은 점수를 기록합니다.

OSWorld-Verified는 AI가 실제 PC 화면을 보고 마우스·키보드를 조작하는 능력을 평가하는 벤치마크입니다. 여기서 GPT-5.4 nano의 점수는 39.0%입니다. GPT-5 mini는 42.0%였습니다. 숫자가 클수록 좋은 벤치마크에서, 이전 세대보다 3%p 낮습니다. (출처: The Decoder / OpenAI 공식 발표, 2026.03.17)

벤치마크 GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini
SWE-Bench Pro (코딩) 57.7% 54.4% 52.4% 45.7%
Terminal-Bench 2.0 75.1% 59.3% 46.3% 38.2%
GPQA Diamond (지능) 93.0% 85.5% 82.8% 81.6%
OSWorld-Verified (CUA) 75.0% 72.1% 39.0% ⚠️ 42.0%
Toolathlon (도구 사용) 54.6% 40.4% 35.5% 26.9%

(출처: OpenAI 공식 발표 / The Decoder, 2026.03.17)

코딩(SWE-Bench), 추론(GPQA), 도구 사용(Toolathlon)에서는 nano가 이전 세대를 전부 앞섭니다. 그런데 컴퓨터 직접 조작(OSWorld-Verified) 하나에서만 뒤집힙니다. 이 수치가 의미하는 바는 명확합니다. AI 에이전트에게 마우스·키보드를 맡겨서 PC를 자동화하는 용도라면, GPT-5.4 nano는 이전 mini보다 못한 선택지입니다.

💡 OpenAI 공식 발표문도 nano에 대한 OSWorld 점수를 별도 각주로 처리했습니다. 발표 자료에 “-“로 표시된 항목이 있고, The Decoder 분석에서 39%가 확인됩니다. nano를 컴퓨터 자동화 에이전트 서브모델로 쓸 계획이라면, mini가 더 나은 선택입니다.

ChatGPT 앱에서 mini를 직접 고를 수 없는 구조입니다

이 부분이 가장 많이 간과됩니다. 발표 내용을 읽으면 “ChatGPT에서 mini를 쓸 수 있다”고 되어 있는데, 실제 구조는 좀 다릅니다.

GPT-5.4 mini는 ChatGPT에서 모델을 직접 선택하는 방식이 아니라 자동 전환 방식으로 제공됩니다. Plus/Go 사용자가 GPT-5.3 사용 한도(3시간당 160회)를 초과하면 시스템이 자동으로 mini 버전으로 전환합니다. Free 사용자는 5시간당 10회 한도 초과 시 동일하게 자동 전환됩니다. (출처: OpenAI 헬프센터 GPT-5.3/5.4 가이드, 2026.03.17)

📌 ChatGPT 플랜별 GPT-5.4 mini 접근 방식

  • Free: 한도 소진 후 자동 전환만 가능. 직접 선택 불가.
  • Go / Plus: 한도 초과 시 자동 전환. 직접 선택 불가.
  • API 개발자: gpt-5.4-mini로 직접 호출 가능.
  • Codex 사용자: 직접 선택 가능. GPT-5.4 대비 30% quota 소모.
  • nano: API 전용. ChatGPT 앱에서는 사용 불가.

ChatGPT Plus를 월 $20 내고 쓰는 분 입장에서는 mini를 의도적으로 선택할 방법이 없습니다. 한도를 채워야 자동으로 전환되는 구조입니다. 반면 API를 직접 다루는 개발자에게는 모델명으로 정확히 선택할 수 있으니 활용 맥락이 완전히 다릅니다.

OpenAI가 설계한 “큰 뇌 + 작은 뇌” 분업 구조

GPT-5.4 mini와 nano가 출시된 진짜 맥락은 여기 있습니다. OpenAI는 Codex 사용 시나리오에서 GPT-5.4(또는 5.4 Pro)가 계획과 조율, 최종 검토를 담당하고, 병렬 서브태스크는 mini나 nano가 처리하는 분업 구조를 공식적으로 제안합니다. (출처: OpenAI 공식 발표, 2026.03.17)

💡 발표문과 실제 Codex quota 소모 비율을 교차해서 보면 이런 흐름이 보입니다.
GPT-5.4 mini는 Codex에서 GPT-5.4 quota의 30%만 소모합니다. 즉 같은 예산으로 mini 작업을 약 3배 더 실행할 수 있습니다. OpenAI가 이 모델을 단독 메인 모델이 아니라 에이전트 파이프라인의 서브 노드로 쓰길 원한다는 게 수치에서 드러납니다.

속도 면에서도 확인이 됩니다. 실사용자들의 API 측정 결과, GPT-5.4 mini는 초당 약 180~190 토큰, nano는 약 200 토큰을 출력합니다. 이전 GPT-5 mini의 55~60 토큰/초 대비 3배 이상 빠릅니다. 실시간 스트리밍이나 UI 반응성이 중요한 앱이라면 이 차이가 큽니다. (출처: Hacker News GPT-5.4 mini/nano 스레드, 2026.03.18)

단, Hacker News 토론에서 반복적으로 등장한 지적이 있습니다. 에이전틱 코딩 외 일반 대화나 복잡한 다단계 지시를 따르는 작업에서는 GPT 계열이 Claude(특히 Sonnet, Opus)보다 지시 준수력이 약하다는 실사용 후기가 많습니다. 벤치마크 수치와 실제 워크플로우 체감이 다를 수 있다는 점은 확인이 필요합니다.

경쟁 모델과 가격을 직접 놓고 보면

같은 기간 경쟁 모델들의 가격과 비교했을 때 GPT-5.4 mini와 nano의 포지션이 좀 더 선명해집니다. Simon Willison의 직접 비교 자료를 기준으로 정리했습니다. (출처: simonwillison.net, 2026.03.17)

모델 입력 ($/ 1M) 출력 ($/ 1M) 비고
GPT-5.4 mini $0.75 $4.50 캐시 $0.075
GPT-5.4 nano $0.20 $1.25 캐시 $0.02
Claude Haiku 4.5 $1.00 $5.00 Anthropic
Gemini 3.1 Flash-Lite $0.25 $1.50 Google
Claude Sonnet 4.6 $3.00 $15.00 Anthropic

GPT-5.4 nano는 입력 기준 $0.20으로, Google의 Gemini 3.1 Flash-Lite($0.25)보다 저렴합니다. Simon Willison의 실측 테스트에서 nano로 사진 2,751 토큰을 묘사하는 데 든 비용은 0.069센트 미만이었습니다. 76,000장 분량의 사진 전체를 설명하면 약 $52.44로 추산됩니다. 대규모 분류·태깅 작업에서 nano의 비용 효율은 실제로 경쟁력이 있습니다. (출처: simonwillison.net, 2026.03.17)

다만 이미지 처리 품질을 보면 nano의 OmniDocBench 1.5 점수(낮을수록 우수, 0.2419)가 이전 GPT-5 mini(0.1791)보다 나쁩니다. 문서 OCR이나 복잡한 PDF 처리에는 nano가 적합하지 않다는 의미입니다.

자주 묻는 것들

GPT-5.4 mini와 nano, ChatGPT 무료 계정에서 쓸 수 있나요?

직접 선택은 불가능합니다. Free 사용자는 5시간당 10회의 GPT-5.3 사용 한도가 소진되면 자동으로 mini 버전으로 전환됩니다. nano는 현재 API 전용으로, ChatGPT 앱에서는 아예 노출되지 않습니다. (출처: OpenAI 헬프센터, 2026.03.17)

이미 GPT-5 nano를 쓰고 있는데, 5.4 nano로 자동 업그레이드가 되나요?

자동 업그레이드는 되지 않습니다. API에서 모델을 gpt-5-nano로 명시했다면 그 모델을 계속 씁니다. gpt-5.4-nano로 변경해야 새 버전을 사용할 수 있습니다. 단, 가격이 4배 인상되므로 반드시 비용을 재산하고 전환할 것을 권합니다.

코딩 에이전트 서브모델로 mini와 nano 중 뭐가 나은가요?

코드베이스 검색, 대용량 파일 스캔, 지원 문서 처리처럼 단순 반복 작업은 nano로 충분합니다. 하지만 컴퓨터 화면 직접 조작(CUA)이 필요한 에이전트라면 mini를 선택해야 합니다. OSWorld-Verified 기준 nano(39%)가 mini(72.1%)보다 33%p 낮기 때문입니다.

Gemini 3.1 Flash-Lite와 GPT-5.4 nano 중 뭐가 저렴한가요?

입력 토큰 기준으로는 GPT-5.4 nano($0.20/1M)가 Gemini 3.1 Flash-Lite($0.25/1M)보다 저렴합니다. 출력 기준으로는 Gemini 3.1 Flash-Lite($1.50/1M)가 GPT-5.4 nano($1.25/1M)보다 비쌉니다. 실제 비용은 요청당 입출력 비율에 따라 달라지므로, 실제 프롬프트로 직접 비교 테스트가 필요합니다.

긴 문서를 처리할 때 컨텍스트 한도가 충분한가요?

mini와 nano 모두 400,000 토큰 컨텍스트를 지원합니다. 단, 장문 컨텍스트 벤치마크(MRCR v2 128K~256K)에서 mini의 점수는 33.6%로 GPT-5.4 풀 모델(79.3%)보다 크게 낮습니다. 수십만 토큰에 달하는 장문 분석은 mini/nano보다 GPT-5.4 풀 모델이 적합합니다.

마치며

GPT-5.4 mini와 nano는 분명히 성능이 좋아졌습니다. 이전 세대 mini 대비 코딩, 추론, 속도 세 항목 모두에서 확실한 진전이 있습니다. 솔직히 말하면 mini의 OSWorld 72.1%는 인상적입니다. GPT-5 mini(42%)를 30%p 이상 끌어올린 건 에이전트 파이프라인에 실질적인 의미가 있습니다.

그런데 “저렴한 경량 모델”이라는 포지셔닝은 이전 세대 사용자에게는 반드시 검토가 필요한 말입니다. nano가 이전 nano 대비 입력 가격이 4배 올랐고, 컴퓨터 조작 능력에서 이전 mini보다 낮다는 점은 발표 자료에서 강조되지 않습니다.

정리하면: API 개발자에게 mini는 에이전트 서브모델로 충분히 고려할 만합니다. nano는 분류·태깅·데이터 추출처럼 화면 조작이 불필요한 반복 작업에 한정해서 쓰는 게 맞습니다. ChatGPT 앱 사용자라면 mini를 직접 쓸 수 없고, nano는 선택지 자체가 없습니다.

본 포스팅 참고 자료

  1. OpenAI 공식 발표 — Introducing GPT‑5.4 mini and nano
    openai.com
  2. OpenAI 헬프센터 — GPT-5.3 and GPT-5.4 in ChatGPT
    help.openai.com
  3. The Decoder — OpenAI ships GPT-5.4 mini and nano, up to 4x pricier
    the-decoder.com
  4. Simon Willison — GPT-5.4 mini and nano pricing analysis
    simonwillison.net

※ 본 포스팅은 2026년 3월 18일 기준 공개된 공식 자료를 바탕으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 모든 가격 및 사양은 OpenAI 공식 페이지에서 최신 정보를 직접 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기