GPT-5.4 미니·나노, 싸다고 쓰면 이 조건에서 막힙니다

Published on

in

GPT-5.4 미니·나노, 싸다고 쓰면 이 조건에서 막힙니다

2026.03.18 출시 기준
GPT-5.4 mini & nano

GPT-5.4 미니·나노, 싸다고 쓰면
이 조건에서 막힙니다

2026년 3월 18일, OpenAI가 GPT-5.4 mini와 nano를 공개했습니다. “가격은 낮고 성능은 준플래그십에 가깝다”는 말이 돌고 있는데, 공식 수치를 직접 들여다보면 그게 전부가 아닙니다.

180~190
tokens/s (mini API)
GPT-5 mini 대비 3배
mini 입력 가격 인상
33.6%
128K~256K 구간 MRCR 성능

GPT-5.4 mini·nano가 뭔데 이렇게 떠드나요

GPT-5.4 mini와 nano는 2026년 3월 17일(한국 시간 3월 18일) OpenAI가 공개한 경량 모델입니다. GPT-5.4 mini는 API·Codex·ChatGPT 세 채널에서, nano는 API 전용으로 제공됩니다. (출처: OpenAI 공식 발표, 2026.03.17)

두 모델 모두 에이전트 워크플로우, 코딩 보조, 스크린샷 해석 같은 반복·속도 민감 작업을 겨냥해 만들어졌습니다. OpenAI는 이 모델들을 가리켜 “최고의 모델이 항상 가장 큰 모델은 아니다”라고 했는데, 이건 마케팅 문구가 아니라 실제 설계 철학을 담은 말입니다. 대형 모델이 계획·판단을 맡고, mini·nano가 하위 작업을 빠르게 처리하는 다단계 에이전트 구조를 염두에 둔 것입니다.

SWE-Bench Pro 기준 GPT-5.4 mini는 54.4%로, 플래그십 GPT-5.4(57.7%)에 2.6%포인트 못 미칩니다. (출처: OpenAI 공식 발표, 2026.03.17) 코딩 능력의 차이가 생각보다 작습니다.

💡 공식 발표문과 실제 요금표를 같이 놓고 보니 이런 차이가 보였습니다.
성능 수치가 ‘준플래그십’에 가까운 건 사실인데, 가격 구조는 이전 mini 세대와 꽤 다르게 바뀌었습니다.

모델 SWE-Bench Pro Terminal-Bench 2.0 GPQA Diamond OSWorld-Verified
GPT-5.4 57.7% 75.1% 93.0% 75.0%
GPT-5.4 mini 54.4% 60.0% 88.0% 72.1%
GPT-5.4 nano 52.4% 46.3% 82.8% 39.0%
GPT-5 mini (구 세대) 45.7% 38.2% 81.6% 42.0%

출처: OpenAI 공식 발표 (2026.03.17), xhigh reasoning_effort 기준

▲ 목차로 돌아가기

가격이 싸다는 말, 직접 계산해봤습니다

GPT-5.4 mini의 API 가격은 입력 1M 토큰당 $0.75, 출력 1M 토큰당 $4.50입니다. GPT-5.4 nano는 입력 $0.20, 출력 $1.25입니다. (출처: OpenAI API 공식 가격표, 2026.03.17)

그런데 이게 “싸다”인지는 기준점에 따라 다릅니다. 이전 세대인 GPT-5 mini의 입력 가격이 $0.25였으니, mini 기준으로는 정확히 3배 오른 것입니다. 이 점을 언급하지 않고 “저렴한 모델”이라고만 쓴 자료들이 많습니다. 플래그십 GPT-5.4($2.50/$15.00)와 비교하면 싼 건 맞지만, 직전 mini 세대와 비교하면 3배 비싸졌다는 게 정확한 그림입니다.

💡 GPT-5 mini에서 GPT-5.4 mini로 바꾸면 그냥 비용 3배입니다.
기존 API 설정에 drop-in 교체는 예산 계획을 다시 해야 합니다. (Reddit r/OpenAI 사용자 반응, 2026.03.17)

실제 비용 계산 예시

월 입력 토큰 1억 개(100M), 출력 토큰 2천만 개(20M) 기준으로 직접 계산해봤습니다.

모델 입력 비용 출력 비용 월 합계
GPT-5 mini (구) $25.00 $40.00 $65.00
GPT-5.4 mini (신) $75.00 $90.00 $165.00
GPT-5.4 nano (신) $20.00 $25.00 $45.00

계산 기준: 입력 100M 토큰, 출력 20M 토큰 / 출처: OpenAI 공식 가격표 (2026.03.17)

GPT-5.4 mini로 넘어가면 GPT-5 mini 대비 약 2.5배 비용이 늘어납니다. GPT-5.4 nano는 구 세대보다 오히려 저렴한 유일한 선택지입니다.

▲ 목차로 돌아가기

400K 컨텍스트 창, 절반 넘으면 다릅니다

GPT-5.4 mini와 nano는 모두 400K 토큰 컨텍스트 창을 제공합니다. “긴 문서도 통째로 넣을 수 있다”는 식으로 많이 알려졌는데, 공식 벤치마크를 보면 이야기가 달라집니다.

OpenAI가 공식 발표에 포함한 MRCR v2(8-needle) 기준, GPT-5.4 mini의 64K~128K 구간 성능은 47.7%입니다. 그런데 128K~256K 구간으로 넘어가면 33.6%로 떨어집니다. (출처: OpenAI 공식 발표, 2026.03.17) 컨텍스트가 절반을 넘는 순간 롱컨텍스트 정확도가 30% 이상 떨어진다는 뜻입니다.

⚠️ 400K 창이 있다고 400K 전체를 신뢰하면 안 됩니다.
128K 이상 구간에서 needle 찾기 정확도가 33.6%로 급락합니다. 대용량 문서 분석 목적이라면 mini·nano보다 플래그십 GPT-5.4를 써야 하는 구간이 생깁니다.

모델 64K~128K 128K~256K 변화폭
GPT-5.4 (플래그십) 86.0% 79.3% -6.7%p
GPT-5.4 mini 47.7% 33.6% -14.1%p
GPT-5.4 nano 44.2% 33.1% -11.1%p

출처: OpenAI MRCR v2 8-needle 벤치마크, OpenAI 공식 발표 (2026.03.17)

플래그십은 128K→256K 구간에서 -6.7%p 하락하는 반면, mini는 -14.1%p 하락합니다. 긴 컨텍스트 안정성에서 두 배 이상 차이가 납니다.

▲ 목차로 돌아가기

nano가 mini보다 못한 조건이 따로 있습니다

“mini보다 싼 nano가 mini보다 약하다”는 건 당연한 말처럼 들립니다. 그런데 단순 서열이 무너지는 구간이 하나 있습니다. 바로 화면 자동화(Computer Use) 작업입니다.

OSWorld-Verified 벤치마크 기준, GPT-5.4 nano의 점수는 39.0%입니다. 그런데 구 세대인 GPT-5 mini가 42.0%였습니다. (출처: OpenAI 공식 발표, 2026.03.17) nano는 화면 조작 자동화에서 자기 직전 세대보다 오히려 3%p 낮습니다. 비용을 줄이려고 nano를 쓰다가 오히려 성능이 퇴보하는 경우가 생기는 셈입니다.

💡 발표 수치와 실제 쓰임새를 교차해보니 이런 결과가 나왔습니다.
nano를 “작은 mini”라고 생각하면 CUA 작업에서 기대치와 다른 결과를 만날 수 있습니다.

어떤 작업에 어떤 모델이 맞는지

작업 유형 mini 추천 nano 추천 이유
코드 리뷰·수정 ⚠️ SWE-Bench 차이 2%p, mini가 안정적
화면 자동화(CUA) nano 39% vs GPT-5 mini 42% — 구 세대보다 낮음
데이터 분류·추출 ⚠️ nano가 OpenAI 공식 권장 용도, 비용 최소화
128K 초과 문서 분석 둘 다 급락, 플래그십 GPT-5.4 사용 권장
에이전트 서브태스크 Codex에서 공식 지원, 비용 각 30%·약 10% 수준

▲ 목차로 돌아가기

ChatGPT에서 직접 선택은 안 됩니다

많은 분들이 “GPT-5.4 mini가 나왔다니 ChatGPT에서 바로 써야지”라고 생각할 수 있는데, 상황이 다릅니다. OpenAI 공식 발표에 정확히 이렇게 나와 있습니다.

“ChatGPT에서 GPT-5.4 mini는 Free·Go 계정의 경우 + 메뉴의 Thinking 기능을 통해 이용할 수 있습니다. 그 외 계정에서는 GPT-5.4 Thinking의 사용 한도 초과 시 자동 대체 모델로만 제공됩니다.”

출처: OpenAI 공식 발표, 2026.03.17

Plus, Pro 계정 사용자라면 GPT-5.4 Thinking의 한도를 다 쓴 뒤에야 mini가 자동으로 등장합니다. 직접 “mini로 답해줘”라고 선택하는 메뉴는 현재 없습니다. nano는 처음부터 API 전용으로, ChatGPT UI에서는 접근 자체가 불가합니다.

Free / Go
Thinking 메뉴에서 선택 가능
Plus / Pro
GPT-5.4 한도 소진 후 자동 대체만
nano
API 전용 — ChatGPT UI 접근 불가

Codex에서는 mini가 플래그십 GPT-5.4 쿼터의 30% 만 소비합니다. API 비용을 줄이면서 코딩 작업을 처리하고 싶다면 ChatGPT 대신 Codex CLI·앱을 활용하는 게 실용적입니다.

▲ 목차로 돌아가기

경쟁 모델과 나란히 놓으면 보이는 것

GPT-5.4 mini·nano를 단독으로 보면 “우수하다”로 끝납니다. 경쟁 모델과 같이 놓으면 다른 그림이 나옵니다.

Terminal-Bench 2.0 코딩 성능에서, GPT-5.4 mini는 60.0%로 Gemini 3 Flash(47.6%)를 앞섭니다. 하지만 가격은 mini($0.75 입력)가 Gemini 3 Flash($0.50 입력)보다 50% 비쌉니다. GPT-5.4 nano(46.3%)는 Gemini 3 Flash보다 살짝 낮으면서 가격은 $0.20으로 더 저렴합니다. (출처: 공식 API 가격표, Terminal-Bench 2.0 공개 수치, 2026.03.17)

모델 Terminal-Bench 2.0 입력 가격(/1M) 출력 가격(/1M)
GPT-5.4 mini 60.0% $0.75 $4.50
Gemini 3 Flash 47.6% $0.50 $3.00
GPT-5.4 nano 46.3% $0.20 $1.25
Claude Haiku 4.5 — (미공개) $1.00 $5.00

출처: 각 공식 API 가격표 (2026.03.17 기준) / Claude Haiku 4.5 Terminal-Bench 수치는 Anthropic이 공식 공개하지 않은 항목입니다.

코딩 성능이 최우선이면 mini가 낫고, 비용이 최우선이면 nano가 낫습니다. 그런데 Gemini 3 Flash는 코딩 성능과 가격 모두에서 중간 지점을 잡고 있어, “어중간하게 비싼” mini보다 특정 용도에서 더 실용적일 수 있습니다.

실사용 측면에서, Hacker News 실측 기준 GPT-5.4 mini API 처리 속도는 180~190 tokens/s, nano는 약 200 tokens/s입니다. Gemini 3 Flash가 약 130 tokens/s인 것과 비교하면 속도만큼은 OpenAI가 앞섭니다. (출처: Hacker News, HN #47415441, 2026.03.17)

▲ 목차로 돌아가기

Q&A

Q1. ChatGPT Plus 쓰는데 GPT-5.4 mini를 직접 선택할 수 있나요?

안 됩니다. Plus 계정에서는 GPT-5.4 Thinking의 사용 한도를 다 썼을 때 자동으로 mini가 등장하는 구조입니다. 직접 선택 메뉴는 현재 제공되지 않습니다. (출처: OpenAI 공식 발표, 2026.03.17)

Q2. GPT-5 mini를 쓰던 API 설정에 GPT-5.4 mini를 그냥 적용해도 되나요?

성능은 올라가지만 비용이 3배 뜁니다. GPT-5 mini 입력이 $0.25/1M이었던 반면 GPT-5.4 mini는 $0.75/1M입니다. 교체 전 월 예상 비용을 반드시 다시 계산해야 합니다.

Q3. nano가 mini보다 나은 경우도 있나요?

데이터 분류·추출·랭킹처럼 단순하고 대량으로 처리하는 작업에서는 nano가 낫습니다. OpenAI가 공식 권장 용도로 명시한 항목이고, 가격은 mini 대비 약 73% 저렴합니다. 화면 자동화(CUA)에는 nano를 쓰지 않는 게 좋습니다.

Q4. 400K 컨텍스트 창을 다 활용할 수 있나요?

기술적으로는 입력 가능하지만, 128K 이상 구간에서 정확도가 급락합니다. OpenAI 공식 MRCR v2 기준으로 mini는 128K~256K 구간에서 33.6%로 떨어집니다. 대용량 문서 분석 시에는 플래그십 GPT-5.4를 쓰는 것이 안전합니다.

Q5. Codex에서는 mini를 어떻게 쓰나요?

Codex 앱·CLI·IDE 확장·웹 전 채널에서 사용 가능합니다. GPT-5.4 쿼터의 30%만 소비하므로 단순 코딩 서브태스크는 mini에 위임하고, 복잡한 판단은 플래그십에 맡기는 방식이 효율적입니다. Codex 공식 문서(developers.openai.com/codex/subagents)에 구체적인 서브에이전트 설정법이 나와 있습니다.

▲ 목차로 돌아가기

마치며

GPT-5.4 mini·nano는 분명히 잘 만들어진 모델입니다. 속도 면에서는 Gemini 3 Flash를 제치고, 코딩 성능은 플래그십의 90% 수준에 근접합니다. 그런데 “싸고 빠르다”는 말 뒤에 붙어야 할 조건들이 있습니다.

구 세대 mini 대비 입력 가격이 3배 오른 점, 400K 창이 있어도 128K를 넘으면 성능이 절반 이하로 떨어지는 점, nano가 화면 자동화에서는 이전 세대보다 오히려 낮은 점. 이 세 가지는 실제 도입 결정에 직접 영향을 주는 수치입니다.

솔직히 말하면, 단순·반복·대량 작업에는 nano가 매력적입니다. 코딩 에이전트에는 mini가 실용적입니다. 단, ChatGPT UI에서 직접 쓰는 게 목적이라면 예상보다 제약이 많습니다. API 개발자가 아닌 일반 사용자라면 지금 당장 체감이 크지 않을 수 있습니다.

본 포스팅 참고 자료

  1. ① OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (openai.com/index/introducing-gpt-5-4-mini-and-nano/)
  2. ② OpenAI API 공식 가격표 (developers.openai.com/api/docs/pricing/)
  3. ③ ZDNET — OpenAI’s GPT-5.4 mini and nano launch (zdnet.com/article/gpt-5-4-mini-and-nano/)
  4. ④ Hacker News — GPT-5.4 Mini and Nano 실측 속도 토론 (news.ycombinator.com/item?id=47415441)
  5. ⑤ Reddit r/OpenAI — Introducing GPT-5.4 mini and nano (reddit.com/r/OpenAI/comments/1rwcn2y/)

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 가격과 벤치마크 수치는 2026년 3월 17일 OpenAI 공식 발표 기준이며, 이후 OpenAI 정책 변경에 따라 달라질 수 있습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기