GPT-5.4 nano API, 써보니 이게 막혔습니다

Published on

in

GPT-5.4 nano API, 써보니 이게 막혔습니다

2026.03.17 출시 기준
GPT-5.4 nano (gpt-5.4-nano-2026-03-17)

GPT-5.4 nano API, 써보니 이게 막혔습니다

3월 17일 출시된 GPT-5.4 nano — “싸다”는 말은 맞는데, ChatGPT 앱에서 직접 선택이 안 되고, GPT-5 nano 대비 가격은 4배 올랐습니다. 공식 발표문과 실제 API 사양을 같이 놓고 보니 이런 차이가 보였습니다.

$0.20
입력 / 100만 토큰
400K
컨텍스트 윈도우
API 전용
ChatGPT 앱 미지원

GPT-5.4 nano가 뭔지 30초 정리

GPT-5.4 nano는 OpenAI가 2026년 3월 17일 공식 발표한 경량 모델입니다. 같은 날 GPT-5.4 mini와 함께 출시됐고, OpenAI는 두 모델을 “지금껏 나온 소형 모델 중 가장 뛰어난 성능”이라고 소개했습니다. (출처: OpenAI 공식 블로그 Introducing GPT-5.4 mini and nano, 2026.03.17)

모델 포지셔닝은 명확합니다. 분류(Classification), 데이터 추출, 순위 매기기, 서브에이전트 같이 반복적이고 대용량으로 처리해야 하는 작업에 최적화됐다고 공식 문서에 딱 이렇게 나옵니다. GPT-5.4 mini보다 작고 빠르며, 가격도 낮습니다.

그런데 “경량이니까 싸다”는 첫인상만 갖고 GPT-5 nano 쓰던 코드를 그대로 바꿔 넣으면 몇 가지에서 막힙니다. 아래에서 하나씩 확인해봤습니다.

▲ 목차로 돌아가기

가격이 4배 오른 이유, 공식 수치로 확인

GPT-5.4 nano의 API 가격은 입력 100만 토큰당 $0.20입니다. 출력은 100만 토큰당 $1.25입니다. (출처: OpenAI API Pricing 공식 페이지, 2026.03.17)

얼핏 “저렴하다”는 느낌이 들지만, 직전 세대인 GPT-5 nano($0.05/1M 입력)와 비교하면 정확히 4배 인상입니다. Reddit r/OpenAI 스레드에서도 개발자들이 즉시 경고를 달았습니다. “nano는 $0.05에서 $0.20으로 올랐다. 설정 파일에서 바꾸지 마라.” 점진적 인상이 아니라 한 번에 4배 뛴 겁니다.

💡 공식 발표문과 가격 페이지를 같이 놓고 보니 이런 차이가 보였습니다

모델명에 “5.4”가 들어간다는 이유만으로 성능 대비 가격을 GPT-5 nano 기준으로 기대하면, 실제 청구 금액이 예상의 4배가 나옵니다. “더 좋아졌으니 더 비싸다”는 원칙이 적용됐고, OpenAI는 이 부분을 발표문에서 별도 강조 없이 가격 페이지에만 명시했습니다.

모델 입력 /1M 토큰 출력 /1M 토큰 캐시 입력
GPT-5.4 nano 신규 $0.20 $1.25 $0.02
GPT-5 nano (구세대) $0.05 $0.40
GPT-5.4 mini $0.75 $4.50 $0.075
GPT-5.4 $2.50 $15.00 $0.25

(출처: OpenAI API 공식 가격 페이지 — openai.com/ko-KR/api/pricing/, 2026.03.17 기준)

예를 들어 하루 1,000만 토큰 입력 기준으로 GPT-5 nano를 쓸 때 하루 비용이 약 $0.50이었다면, GPT-5.4 nano로 그대로 교체하면 하루 $2.00이 됩니다. 월 단위로는 약 $45 차이가 생깁니다.

▲ 목차로 돌아가기

ChatGPT 앱에서 직접 못 고르는 이유

GPT-5.4 nano는 API 전용 모델입니다. ChatGPT 웹 또는 앱에서 모델 선택기를 열어봐도 GPT-5.4 nano가 나타나지 않습니다. OpenAI 공식 발표문에도 “GPT-5.4 nano는 API에서만 사용 가능하다”고 명시돼 있습니다. (출처: OpenAI Introducing GPT-5.4 mini and nano, 2026.03.17)

이 구조는 GPT-5.4 mini와 다릅니다. mini는 ChatGPT Free/Go 요금제에서도 GPT-5.4 사용량 초과 시 자동 폴백(fallback)으로 적용되지만, nano는 ChatGPT UI에서 아예 노출되지 않습니다. Reddit에서 실제로 ChatGPT 앱에 nano가 뜨길 기다리던 사용자가 “API 전용이라 안 나온다”는 답변을 받은 사례가 그대로 올라와 있습니다.

💡 발표 흐름을 같이 보면 이런 그림이 나옵니다

GPT-5.4 nano는 처음부터 엔드유저 대상이 아닙니다. 개발자나 기업이 대용량 자동화 파이프라인에 박아 쓰도록 설계된 모델이고, OpenAI도 이걸 감추지 않았습니다. ChatGPT 구독자에게는 사실상 해당 없는 모델입니다.

공식 API 문서 기준으로 Free 티어는 GPT-5.4 nano를 아예 사용할 수 없습니다. Tier 1부터 분당 500 RPM, 20만 TPM으로 시작하고, 가장 높은 Tier 5는 분당 30,000 RPM, 1억 8,000만 TPM까지 허용됩니다. (출처: developers.openai.com/api/docs/models/gpt-5.4-nano, 2026.03.17)

▲ 목차로 돌아가기

벤치마크에서 GPT-5 mini에 뒤지는 항목

OpenAI 공식 발표문에서 GPT-5.4 nano가 전반적으로 GPT-5 mini를 앞선다고 나와 있지만, 벤치마크 표를 자세히 보면 한 곳에서 역전됩니다.

벤치마크 GPT-5.4 nano GPT-5 mini GPT-5.4 mini
SWE-bench Pro (코딩) 52.4% 45.7% 54.4%
GPQA Diamond (이해) 82.8% 81.6% 88.0%
OSWorld (컴퓨터 사용) ⚠️ 역전 39.0% 42.0% 72.1%
Terminal-Bench 2.0 46.3% 38.2% 60.0%

(출처: OpenAI 공식 발표문 Introducing GPT-5.4 mini and nano, 2026.03.17 / 모두 xhigh reasoning 기준)

OSWorld-Verified 벤치마크에서 GPT-5.4 nano(39.0%)가 GPT-5 mini(42.0%)에 3%p 뒤집니다. Computer Use, 즉 에이전트가 실제 화면을 보면서 마우스·키보드를 조작하는 시나리오에서 구세대 mini보다 성능이 낮습니다.

반면 nano가 Computer Use 자체를 지원하지 않는다는 사실도 공식 문서에 나와 있습니다. developers.openai.com 모델 사양 페이지를 보면 “Computer use: Not supported”라고 적혀 있습니다. 에이전트 자동화 파이프라인에서 nano를 써도 화면 조작은 불가능하다는 뜻입니다.

▲ 목차로 돌아가기

Batch API 쓰면 실질 가격 절반까지 낮아집니다

GPT-5.4 nano를 비동기 Batch API로 호출하면 표준 가격에서 50% 추가 할인을 받습니다. 이건 OpenAI API 가격 페이지에서 “Batch API 50% 할인, 24시간 이내 처리”라고 공식 안내하고 있습니다. (출처: OpenAI API Pricing, openai.com/ko-KR/api/pricing/, 2026.03.17)

📐 직접 계산해봤습니다

• 표준 API: 입력 100만 토큰당 $0.20

• Batch API 적용 시: 100만 토큰당 $0.10 (50% 인하)

• 캐시 입력(반복 프롬프트): 표준 $0.02 → Batch+Cache 결합 시 최저 $0.01 수준 (추정)

→ 대용량 분류·추출 작업이라면 실질 입력 단가는 GPT-5 nano($0.05)보다 오히려 낮아질 수 있습니다.

단, Batch API는 24시간 이내 처리를 보장하는 구조입니다. 즉시 응답이 필요한 실시간 서비스에는 쓸 수 없습니다. 대용량 데이터 전처리, 하루 한 번 돌리는 리포팅 파이프라인, 비동기 콘텐츠 분류 등 즉각성보다 비용이 중요한 워크로드에 맞습니다.

Simon Willison의 실측 사례를 보면 GPT-5.4 nano로 사진 한 장(약 2,751 입력 + 112 출력 토큰)을 설명하는 데 0.069센트가 들었습니다. 76,000장 전체를 처리해도 약 $52.44. (출처: simonwillison.net, 2026.03.17) Batch API를 쓰면 이 비용이 절반 수준으로 줄어듭니다.

▲ 목차로 돌아가기

경쟁 모델과 가격·성능 직접 비교

GPT-5.4 nano를 선택해야 할지 고민된다면 같은 가격대 경쟁 모델과 함께 보는 게 빠릅니다. (출처: simonwillison.net 가격 비교표 + OpenAI·Anthropic·Google 공식 가격 페이지 교차 확인, 2026.03.17 기준)

모델 입력 /1M 출력 /1M 특이사항
GPT-5.4 nano $0.20 $1.25 API 전용, Computer Use 불가
Gemini 3.1 Flash-Lite $0.25 $1.50 Preview 상태, Terminal-Bench 51.7%
Claude Haiku 4.5 $1.00 $5.00 Anthropic 경량 모델
Gemini 3 Flash $0.50 $3.00 Terminal-Bench 47.6%, Preview

(출처: simonwillison.net 2026.03.17 + 각 공식 가격 페이지 교차 확인)

코딩(Terminal-Bench 2.0) 기준으로 GPT-5.4 nano(46.3%)는 Gemini 3 Flash(47.6%)보다 약간 낮고, Gemini 3.1 Flash-Lite(51.7%)보다도 낮습니다. 반면 가격은 GPT-5.4 nano($0.20)가 Gemini 3 Flash($0.50)보다 낮습니다. 비용 우선이라면 nano, 코딩 정확도 우선이라면 Gemini Flash 계열이 합리적인 선택입니다.

개인적으로는 GPT-5.4 nano의 포지션이 꽤 명확하다고 봅니다. 분류·추출처럼 정답이 단순하고 볼륨이 큰 작업에선 지금 시점에서 가장 현실적인 가격대입니다. 하지만 코딩 자동화나 화면 기반 에이전트로 쓰려 한다면 mini나 GPT-5.4로 올려야 합니다.

▲ 목차로 돌아가기

자주 묻는 것들

Q

ChatGPT Plus 구독으로는 접근이 안 됩니다. GPT-5.4 nano는 API 전용 모델이라, OpenAI API 계정(platform.openai.com)에서 별도 결제 후 API 키로만 사용할 수 있습니다. ChatGPT Plus는 GPT-5.4, GPT-5.4 mini(Thinking) 등 UI 모델을 사용하는 구독이고, nano는 개발자 대상 API입니다.

Q

모델 ID 교체 자체는 됩니다. 하지만 가격이 4배(입력 기준 $0.05→$0.20) 올랐고, 성능이 올라간 만큼 응답 패턴도 달라질 수 있어 구조화 출력(Structured Output) 프롬프트를 그대로 쓰면 예상과 다른 결과가 나올 수 있습니다. Reddit에서 실제로 “5-mini에서 잘 되던 structured output이 5.4-mini로 바꿨더니 불안정해졌다”는 사례가 보고됐습니다.

Q
knowledge cutoff는 언제까지인가요?

2025년 8월 31일입니다. OpenAI 공식 개발자 문서(developers.openai.com/api/docs/models/gpt-5.4-nano)에 명시돼 있습니다. 2025년 9월 이후 발생한 사건이나 데이터를 실시간으로 알지 못하므로, 최신 정보 검색이 필요한 워크로드에는 Web Search 도구와 함께 사용해야 합니다.

Q
Fine-tuning이 지원되나요?

GPT-5.4 nano는 Fine-tuning이 지원되지 않습니다. 공식 모델 사양 페이지에 “Fine-tuning: Not supported”라고 명시돼 있습니다. 대신 Distillation(증류)은 지원됩니다. 특정 도메인 성능을 높이려면 프롬프트 엔지니어링이나 상위 모델 파인튜닝 후 증류 방식을 고려해야 합니다.

Q
데이터 레지던시(Data Residency) 처리 시 가격이 달라지나요?

달라집니다. GPT-5.4 nano의 데이터 레지던시 엔드포인트는 표준 가격 대비 10% 추가 요금이 붙습니다. 예를 들어 입력 100만 토큰 기준으로 표준 $0.20이라면 레지던시 적용 시 $0.22가 됩니다. 개인정보 규정상 데이터를 특정 지역에서만 처리해야 하는 기업은 이 비용을 미리 예산에 반영해야 합니다. (출처: OpenAI API Pricing 각주, 2026.03.17)

▲ 목차로 돌아가기

마치며

GPT-5.4 nano를 한 문장으로 평하면 “대용량 API 파이프라인 전용으로는 합리적이지만, ChatGPT 구독자나 에이전트 UI 사용자에게는 해당 없는 모델”입니다. 공식 발표문의 제목만 읽으면 새 경량 모델이 나왔고 싸다는 인상을 받지만, 실제 사양을 파고들면 사용 환경 제약(API 전용, Free 티어 미지원), 가격 인상(GPT-5 nano 대비 4배), 컴퓨터 사용 불가라는 세 가지 제한이 명확하게 나옵니다.

Batch API를 활용하면 실질 가격을 $0.10/1M까지 낮출 수 있어서, 실시간성이 필요 없는 대용량 분류·추출 워크로드에서는 꽤 경쟁력이 있습니다. 반면 그 외 케이스라면 GPT-5.4 mini나 경쟁사 모델과 비교를 먼저 해보는 쪽이 낫습니다. 발표 직후라 아직 실사용 피드백이 쌓이는 중이라, 향후 성능 검증 사례가 나오면 선택 기준이 더 구체화될 것 같습니다.

본 포스팅 참고 자료

  1. OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (2026.03.17)
  2. OpenAI 공식 API 가격 페이지 (2026.03.17 기준)
  3. OpenAI 개발자 문서 — GPT-5.4 nano 모델 사양 (2026.03.17)
  4. Simon Willison — GPT-5.4 mini and nano 실측 비용 분석 (2026.03.17)
  5. Reddit r/OpenAI — 가격 인상 경고 및 개발자 반응 스레드 (2026.03.17)

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 모든 가격 및 사양은 2026년 3월 17~22일 기준 OpenAI 공식 문서를 바탕으로 작성됐으며, 이후 업데이트에 따라 달라질 수 있습니다. 투자 또는 상업적 의사 결정 전 반드시 공식 문서를 직접 확인하세요.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기