GPT-5.4 nano, ‘4배 더 비싸진 이유’ 직접 확인했습니다

Published on

in

GPT-5.4 nano, ‘4배 더 비싸진 이유’ 직접 확인했습니다

2026.03.17 기준
GPT-5.4 nano / mini 동시 출시
API 전용 모델

GPT-5.4 nano, ‘4배 더 비싸진 이유’ 직접 확인했습니다

결론부터 말씀드리면, GPT-5.4 nano는 “싼 모델”이 아닙니다. 전 세대인 GPT-5 nano 대비 입력 토큰 가격이 4배 올랐습니다. OpenAI 공식 가격표에 그대로 나와 있는 수치입니다. 그럼에도 쓸 이유가 있는지, 반대로 절대 쓰면 안 되는 상황은 무엇인지, 공식 벤치마크 수치를 직접 교차해봤습니다.

$0.20
입력 1M 토큰 (전 세대 $0.05)
39.0%
OSWorld-Verified (컴퓨터 제어)
API 전용
ChatGPT 미지원 (출시 시점 기준)

mini vs nano — 무엇이 다른가

GPT-5.4 nano와 GPT-5.4 mini는 이름만 보면 ‘크기 차이’처럼 보이지만, 실제로는 설계 목적 자체가 다릅니다. mini는 “작지만 플래그십에 근접한 성능”을 목표로 만들어졌고, nano는 “속도와 단가를 최우선으로 한 대량 처리용”입니다. OpenAI 공식 발표문에 이 두 줄이 명확히 구분되어 있습니다. (출처: OpenAI 공식 블로그, 2026.03.17)

공식 발표 당일 공개된 벤치마크 표를 직접 정리하면 아래와 같습니다.

벤치마크 GPT-5.4 GPT-5.4 mini GPT-5.4 nano GPT-5 mini(전세대)
SWE-Bench Pro (코딩) 57.7% 54.4% 52.4% 45.7%
OSWorld-Verified (컴퓨터 제어) 75.0% 72.1% 39.0% 42.0%
GPQA Diamond (과학 추론) 93.0% 88.0% 82.8% 81.6%
Terminal-Bench 2.0 (터미널 에이전트) 75.1% 60.0% 46.3% 38.2%
Toolathlon (도구 호출) 54.6% 42.9% 35.5% 26.9%

(출처: OpenAI 공식 발표문 — Introducing GPT-5.4 mini and nano, 2026.03.17)

OSWorld-Verified 수치에서 nano(39.0%)가 전 세대 mini(42.0%)보다도 낮다는 점이 눈에 띕니다. 컴퓨터 제어 작업에서 nano는 오히려 한 세대 뒤처집니다.

▲ 목차로 돌아가기

전 세대보다 4배 비싸진 가격, 배경이 있습니다

💡 공식 가격표와 전 세대 가격을 나란히 놓고 보니 이런 차이가 보였습니다.

OpenAI API 공식 가격 페이지에 나온 수치를 그대로 정리합니다. (출처: developers.openai.com/api/docs/pricing/, 2026.03.17 기준)

모델 입력 (1M 토큰) 출력 (1M 토큰) 전 세대 대비
GPT-5.4 mini $0.75 $4.50 +200%
GPT-5 mini (전 세대) $0.25 $2.00
GPT-5.4 nano $0.20 $1.25 +300%
GPT-5 nano (전 세대) $0.05 $0.40

nano 입력 가격이 $0.05에서 $0.20으로 올랐습니다. 같은 1,000만 토큰짜리 파이프라인을 돌리면 비용이 4배입니다. OpenAI는 2023년 이후 매 세대마다 소형 모델 가격을 내려왔는데, 이번에는 반대 방향입니다. 커뮤니티 개발자들이 즉각 계산을 올리며 문제를 제기한 이유가 여기 있습니다. (출처: OpenAI Community 공식 포럼, 2026.03.17)

OpenAI 측은 “가격 대비 성능으로 보면 더 유리하다”는 입장입니다. 토큰당 가격이 아니라 태스크 완료 비용으로 재정의하면 성능 향상이 가격 인상을 상쇄한다는 논리입니다. 하지만 이미지 분류·텍스트 요약처럼 태스크 자체가 단순한 파이프라인은 SWE-Bench 성능 향상이 비용 계산에 반영되지 않습니다. 이런 워크로드는 가격이 그냥 4배 오른 겁니다.

▲ 목차로 돌아가기

nano가 절대 쓰면 안 되는 작업 하나

⚠️ 컴퓨터 제어(Computer Use) 에이전트에 nano를 쓰면 mini 대비 성능이 절반 이하로 떨어집니다.

GPT-5.4가 3월 5일 출시하며 화제가 된 기능이 네이티브 Computer Use입니다. 스크린샷을 보고 마우스·키보드 명령을 직접 내리는 기능입니다. nano도 멀티모달을 지원하기 때문에 “nano로도 되겠지”라고 생각하기 쉬운 지점입니다. 하지만 공식 벤치마크가 다른 말을 합니다.

OSWorld-Verified 점수를 보면 mini는 72.1%, nano는 39.0%입니다. (출처: OpenAI 공식 발표문, 2026.03.17) mini는 인간 평균(72.4%)과 거의 같은 수준이고, nano는 그 절반 수준입니다. 같은 비용 대비 성능 논리를 여기에 적용하면, nano로 컴퓨터 제어 에이전트를 돌리는 것은 성공률 절반짜리 파이프라인을 4배 싸게 쓰는 게 아니라, 실질 처리 비용이 오히려 더 비쌀 수도 있습니다.

더 구체적으로 계산하면, nano로 100번 시도해 성공 39건을 얻는 비용이 mini로 100번 시도해 72건을 얻는 비용보다 낮으려면, nano 단가가 mini의 39/72 = 54% 이하여야 합니다. 실제 nano 입력 단가는 mini의 27%($0.20/$0.75)이므로 단순 시도 수 기준으로는 nano가 더 쌀 수 있습니다. 그러나 실패한 시도가 낳는 후속 처리 비용, 재시도 로직, 디버깅 비용까지 포함하면 이야기가 달라집니다. Computer Use 파이프라인에서 실패한 액션은 대부분 수동 처리로 이어집니다.

▲ 목차로 돌아가기

nano가 오히려 유리한 딱 한 가지 상황

nano가 빛나는 구간은 명확합니다. 대량의 단순 텍스트·이미지 처리입니다. OpenAI 발표 당일, 개발자 Simon Willison이 공개 계산한 수치가 있습니다. GPT-5.4 nano로 사진 76,000장의 설명을 생성하는 데 드는 비용이 $52입니다. (출처: simonwillison.net, 2026.03.17) 이커머스 상품 이미지 캡셔닝, 대규모 분류 파이프라인, 단순 요약 작업이 여기에 해당합니다.

💡 이 계산이 현장에서 어떤 의미인지 직접 따져보면

사진 1장당 설명 생성 비용 = $52 ÷ 76,000 ≈ $0.00068. 이전 GPT-5 nano($0.05/1M 토큰) 기준이었다면 동일 작업이 약 $13였을 것이나, GPT-5.4 nano는 단순 텍스트 생성 토큰 효율이 높아졌습니다. 동일 설명 품질을 GPT-5.4 mini로 처리하면 비용은 $0.20 기준 약 $195로 약 3.75배 차이가 납니다. (직접 계산, OpenAI 공식 가격 기준 추정치)

그러나 nano의 GPQA Diamond 점수가 82.8%로 높다는 점도 짚을 필요가 있습니다. 추론 자체가 완전히 나쁜 모델은 아닙니다. 단지 멀티모달 + 실시간 액션(Computer Use)이 필요한 작업에서는 쓰지 않는 게 맞습니다.

▲ 목차로 돌아가기

Codex에서 mini 쓰면 GPT-5.4 쿼터가 30%만 소모됩니다

ChatGPT와 Codex에서 GPT-5.4를 쓰다가 한도가 걱정되는 분들에게 실용적인 내용입니다. OpenAI 공식 발표에 따르면, Codex에서 GPT-5.4 mini를 사용하면 GPT-5.4 쿼터의 30%만 차감됩니다. (출처: OpenAI 공식 발표문, 2026.03.17) 플래그십 모델을 10번 쓸 수 있는 쿼터로, mini를 약 33번 쓸 수 있다는 뜻입니다.

실제로 코딩 에이전트 워크플로우에서 모든 작업에 GPT-5.4가 필요한 건 아닙니다. 파일 검색, 코드베이스 탐색, 대용량 문서 처리 같은 서브태스크는 mini로도 충분히 처리됩니다. SWE-Bench Pro에서 mini가 54.4%를 기록했는데, 이 점수는 대부분의 실무 코딩 서브태스크를 커버합니다.

💡 Codex 사용 흐름을 공식 구조와 나란히 놓고 보니 이런 패턴이 보였습니다

GPT-5.4(플래그십) → 계획·판단·최종 검토 담당. GPT-5.4 mini(서브에이전트) → 파일 탐색·코드 수정·병렬 작업 담당. 이 구조가 OpenAI가 공식적으로 권장하는 방식입니다. nano는 Codex에 아직 정식 통합되지 않았습니다.

nano는 출시 시점 기준으로 API 전용입니다. ChatGPT에서 쓸 수 없고, Codex에도 통합이 발표되지 않은 상태입니다. 직접 파이프라인을 API로 구성하는 개발자 전용 모델입니다. nano를 “ChatGPT에서 쓸 수 있는 저렴한 옵션”으로 알고 있다면, 현재는 그렇지 않습니다.

▲ 목차로 돌아가기

Gemini 3 Flash와 비교하면 그림이 달라집니다

💡 GPT-5.4 nano를 단독으로 보지 않고 현재 경쟁 모델과 놓고 비교하면 가격 인상의 맥락이 달리 보입니다.

GPT-5.4 mini의 입력 단가는 $0.75/1M 토큰입니다. Gemini 3 Flash는 $0.50/1M 토큰입니다. mini가 약 50% 더 비쌉니다. (출처: letsdatascience.com, OpenAI API 가격 페이지 기준, 2026.03.17) 기존에 GPT-5 mini를 쓰던 파이프라인이라면, Gemini 3 Flash로 전환을 검토하는 게 합리적인 선택지가 됩니다.

다만 Computer Use 벤치마크에서 GPT-5.4 mini(72.1%)가 Gemini 시리즈를 앞서는 건 실측된 차이입니다. 코딩 에이전트, 스크린샷 기반 자동화처럼 Computer Use가 핵심인 파이프라인이라면 프리미엄을 내고 mini를 선택하는 이유가 생깁니다. 이미지 분류·텍스트 요약처럼 Computer Use가 필요 없는 작업이라면 GPT-5.4 nano나 Gemini 3 Flash가 더 현실적입니다.

결국 이번 소형 모델 출시가 전달하는 메시지는 하나로 좁혀집니다. “mini/nano라는 이름이 저렴하다는 뜻이 아니라, 플래그십보다 싸다는 뜻”입니다. 이 기준으로 모델을 고르면 선택이 훨씬 명확해집니다.

▲ 목차로 돌아가기

Q&A

Q1. GPT-5.4 nano를 ChatGPT 무료 계정에서 쓸 수 있나요?

현재(2026.03.17 기준) nano는 API 전용입니다. ChatGPT 어느 요금제에서도 직접 사용할 수 없습니다. ChatGPT Free/Go 사용자는 GPT-5.4 mini를 Thinking 기능으로 쓸 수 있습니다. nano의 ChatGPT 통합 일정은 OpenAI가 아직 발표하지 않은 상태입니다.

Q2. nano와 mini 중 어떤 걸 써야 하나요?

단순 분류·추출·요약·이미지 캡셔닝처럼 대량 처리가 목적이면 nano. 코딩 에이전트, Computer Use 자동화, 멀티스텝 도구 호출이 필요하면 mini. 두 모델의 성능 차이가 가장 극명하게 드러나는 구간이 OSWorld(컴퓨터 제어)이기 때문에 이 기준 하나로 대부분의 선택이 갈립니다.

Q3. 기존에 GPT-5 nano 파이프라인을 운영 중인데 그냥 5.4 nano로 올려도 되나요?

성능은 올라가지만 가격도 4배 올라갑니다. 먼저 기존 파이프라인의 월 토큰 사용량을 확인하고, 4배 비용 증가를 감당할 수 있는지 계산한 뒤 전환 여부를 판단하는 게 맞습니다. 단순 작업이라면 Gemini 3 Flash-Lite($0.25/1M)도 비교 대상으로 올려볼 만합니다.

Q4. Codex에서 mini를 쓰면 실제로 얼마나 쿼터를 아낄 수 있나요?

GPT-5.4 mini는 Codex에서 GPT-5.4 쿼터의 30%를 소모합니다. 예를 들어 GPT-5.4 기준 10회 쿼터가 있으면, mini로 약 33회 사용 가능합니다. 파일 탐색·코드 리뷰 같은 서브태스크를 mini로 위임하면 실질 쿼터 효율이 크게 올라갑니다. 공식 출처: OpenAI Introducing GPT-5.4 mini and nano(2026.03.17).

Q5. GPT-5.4 nano가 API에서 vision(이미지)을 지원하나요?

지원합니다. nano도 멀티모달 입력을 받습니다. 다만 OpenAI 커뮤니티 개발자들이 실측한 결과, 이미지 토큰 과금 배율(1.2x)과 최대 해상도 처리 방식에서 공식 문서 설명과 실제 청구 결과 사이에 일부 불일치가 보고된 상태입니다. 이미지 집약적인 파이프라인은 소량 테스트 후 실제 청구금액을 확인하고 확장하는 걸 권장합니다.

▲ 목차로 돌아가기

마치며

솔직히 말하면, GPT-5.4 nano는 기대하던 것과 좀 달랐습니다. “초경량 초저가 모델”이라는 포지셔닝이지만, 전 세대 대비 4배 오른 가격표가 그 수식어를 그대로 받아들이기 어렵게 만듭니다. 특히 단순 반복 작업 파이프라인을 운영하는 쪽에서는 체감 비용 인상이 꽤 클 수 있습니다.

그럼에도 nano가 정말 잘 맞는 구간은 있습니다. 대량의 이미지 설명 생성, 분류, 정형 텍스트 추출처럼 토큰 수 자체를 줄이기 어렵고 건당 작업이 단순한 파이프라인에서는 여전히 경쟁력 있는 선택지입니다. mini는 Computer Use와 코딩 에이전트에서 플래그십 수준의 성능을 낸다는 점에서 실용성이 높습니다.

이번 세대부터는 “mini/nano = 싼 모델”이라는 공식이 더 이상 자동으로 성립하지 않습니다. 모델 이름보다 워크로드 특성과 토큰 단가를 직접 계산해보는 게 더 빠른 판단 기준이 될 것 같습니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. OpenAI 공식 — Introducing GPT‑5.4 mini and nano (2026.03.17)
  2. OpenAI API 공식 가격표 (2026.03.17 기준)
  3. OpenAI Community 공식 포럼 — 출시 스레드 및 가격 비교 실측 (2026.03.17~18)
  4. Simon Willison — GPT-5.4 mini and nano (사진 76,000장 $52 계산, 2026.03.17)
  5. ZDNet — OpenAI’s GPT-5.4 mini and nano launch (2026.03.17)

※ 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 모든 수치는 2026.03.17 기준 OpenAI 공식 발표 및 가격 페이지를 기반으로 합니다. GPT-5.4 nano, GPT-5.4 mini는 출시 초기 모델로 이후 가격 및 기능이 업데이트될 수 있습니다. 투자·비용 결정 전 반드시 최신 공식 문서를 직접 확인하세요.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기