GPT-5.4 nano 공식 출시
GPT-5.4 nano, API에서만 쓸 수 있습니다
ChatGPT Free 사용자는 mini까지입니다. nano는 앱이 아닌 API 전용 — 이 차이가 생각보다 크게 작동합니다. 가격이 이전 세대보다 4배 올랐다는 사실도 아직 모르는 분이 많습니다.
nano가 mini와 다른 결정적 차이
GPT-5.4 nano는 2026년 3월 18일(KST 기준 오전 3시) OpenAI가 mini와 동시에 공식 출시한 최소형 모델입니다. 이름만 보면 mini의 축소판처럼 느껴지지만, 실제 접근 방식은 완전히 다릅니다. mini는 ChatGPT Free·Go 사용자도 ‘+’ 메뉴 → ‘잘 생각하기’를 통해 쓸 수 있고, Plus 이상 사용자에게는 GPT-5.4 Thinking 한도 소진 시 자동 전환됩니다. 반면 nano는 API에서만 사용 가능하고, ChatGPT 앱 어디에서도 직접 선택할 수 없습니다(출처: OpenAI 공식 릴리스노트, 2026.03.18).
이 차이가 의미하는 건 단순합니다. nano는 “앱 사용자를 위한 저렴한 대안”이 아니라, 개발자가 파이프라인을 설계할 때 대량 처리용 서브에이전트로 집어넣는 모델입니다. OpenAI는 공식 발표에서 “분류, 데이터 추출, 랭킹, 단순 코딩 서브에이전트”를 대표 용도로 명시했습니다. 써야 할 자리가 처음부터 정해져 있는 셈입니다.
💡 공식 발표문과 실제 접근 경로를 같이 놓고 보니 이런 차이가 보였습니다 — nano는 ChatGPT 어느 요금제를 써도 앱에서는 직접 선택할 수 없습니다. mini가 Free 사용자에게 열린 것과 완전히 다른 포지션입니다.
가격이 오른 게 맞습니다 — 4배 인상의 실체
“nano니까 당연히 이전 모델보다 싸겠지”라고 생각했다면, 공식 가격표가 그 예상을 뒤집습니다. OpenAI의 API 가격 페이지 기준, GPT-5.4 nano의 입력 가격은 1M 토큰당 $0.20입니다(출처: openai.com/ko-KR/api/pricing/, 2026.03.18 기준). 전 세대인 GPT-5 nano의 입력 가격은 $0.05였습니다. 4배 올랐습니다. 출력 가격도 $0.40에서 $1.25로 3.125배 상승했습니다. 나무위키에 정리된 수치와 OpenAI 공식 가격 페이지가 일치합니다.
| 모델 | 입력 (1M 토큰) | 출력 (1M 토큰) | 컨텍스트 |
|---|---|---|---|
| GPT-5.4 | $2.50 | $15.00 | 1,050K |
| GPT-5.4 mini | $0.75 | $4.50 | 400K |
| GPT-5.4 nano | $0.20 | $1.25 | 400K |
| GPT-5 nano (이전 세대) | $0.05 | $0.40 | — |
| Claude Haiku 4.5 (비교) | $1.00 | $5.00 | — |
출처: OpenAI 공식 가격 페이지 (openai.com/ko-KR/api/pricing/), 2026.03.18 기준
인상폭만 놓고 보면 nano가 mini(입력 3배, 출력 2.25배 상승)보다 오히려 더 큰 폭으로 올랐습니다. 그럼에도 Claude Haiku 4.5($1.00 입력)와 비교하면 nano가 5분의 1 수준으로 여전히 저렴합니다. “이전 세대보다 저렴하다”가 아니라 “경쟁사보다 저렴하다”는 맥락으로 읽어야 합니다.
벤치마크로 보는 성능 — 잘 되는 것과 안 되는 것
OpenAI가 공개한 벤치마크 수치 중 눈에 띄는 항목은 코딩과 도구 호출입니다. SWE-Bench Pro에서 nano는 52.4%를 기록했고, 이는 이전 세대 최상위 소형 모델이었던 GPT-5 mini(45.7%)보다 높습니다(출처: OpenAI 공식 릴리스노트, 2026.03.18). 가장 저렴한 nano가 전 세대 mini를 코딩 벤치마크에서 뛰어넘는다는 뜻입니다.
도구 호출 성능도 주목할 만합니다. τ2-bench(통신 영역) 기준으로 nano는 92.5%를 기록했는데, 이는 GPT-5 mini의 74.1%보다 18.4%p 높습니다. 에이전트 시스템에서 도구 호출 오류가 디버깅을 가장 어렵게 만드는 실패 유형이라는 점을 고려하면, 이 수치가 벤치마크 순위보다 실용적으로 더 중요합니다.
반면 장문 컨텍스트 처리에서는 mini와 nano 모두 GPT-5.4 본 모델과 격차가 큽니다. MRCR v2 기준 128K~256K 구간에서 GPT-5.4가 79.3%인 반면 nano는 33.1%에 그칩니다. 긴 문서를 깊게 읽어야 하는 작업에 nano를 쓰면 절반에도 못 미치는 정확도가 나온다고 보면 됩니다.
💡 코딩 지표와 장문 처리 지표를 함께 놓고 보면 nano의 적합 범위가 보입니다 — 짧고 명확하게 정의된 서브태스크에서는 경쟁력이 있고, 긴 문서를 다루는 작업은 mini 이상을 써야 합니다.
Computer Use에서 nano를 쓰면 생기는 문제
GPT-5.4 시리즈 전체가 Computer Use 기능을 지원한다고 알려져 있지만, nano의 OSWorld-Verified 점수는 39.0%입니다. 같은 5.4 시리즈의 mini가 72.1%인 것과 비교하면 거의 절반 수준입니다(출처: OpenAI 공식 릴리스노트, 2026.03.18). 33%p 차이는 벤치마크 오차 범위로 넘어갈 수준이 아닙니다.
실제로 DataCamp의 비교 분석도 같은 결론을 냅니다. “GPT-5.4 nano는 Computer Use 용도로 설계된 모델이 아니라는 것이 명확하다”고 직접 언급하고 있습니다(출처: datacamp.com/blog/gpt-5-4-mini-nano). nano가 API에서만 쓸 수 있는 구조이니, 서버 사이드에서 스크린샷을 해석하거나 GUI를 자동화하는 파이프라인을 만들 때 nano를 선택하면 성능 손실이 상당히 큽니다.
더 흥미로운 점은, nano의 OSWorld-Verified 39.0%가 Claude Haiku 4.5의 표준 OSWorld 점수 50.7%보다도 낮다는 것입니다. Computer Use 목적이라면 nano는 경쟁사 경량 모델에도 뒤집니다. 비용을 아끼려다 오히려 더 많은 재시도 비용이 나올 수 있습니다.
Codex 내 nano 사용 — 쿼터 절약의 진짜 구조
OpenAI Codex에서 mini는 GPT-5.4 쿼터의 30%만 소비합니다. 하지만 nano는 Codex에서 직접 사용할 수 없고, API를 통해서만 접근 가능합니다(출처: OpenAI 공식 릴리스노트, 2026.03.18). Codex 문서에서도 mini를 서브에이전트로 사용하는 패턴만 설명하고 있습니다. nano를 Codex 쿼터 절약 수단으로 활용하려는 계획이라면, 공식 문서에 해당 흐름이 없다는 점을 먼저 확인해야 합니다.
Codex가 채택하는 구조는 이렇습니다. GPT-5.4가 계획을 세우고 최종 판단을 맡고, mini 서브에이전트가 코드베이스 검색, 대형 파일 검토, 보조 문서 처리 같은 병렬 작업을 처리합니다. 이 분업 구조에서 mini 여러 개를 동시에 돌려도 쿼터 소비가 GPT-5.4 하나의 30% × N에 그칩니다. 실질적인 쿼터 효율화는 nano가 아니라 mini를 통해 이뤄지는 구조입니다.
⚠️ Codex 내 nano 서브에이전트 기능은 공식 문서에서 별도로 이유를 밝히지 않은 채 mini에만 해당되는 설명으로 작성되어 있습니다. nano를 Codex에서 쓰려면 추가 확인이 필요합니다.
nano가 실제로 빛나는 워크로드 3가지
가격과 성능의 균형을 고려하면 nano가 경쟁력 있는 상황은 세 가지로 좁혀집니다.
첫째, 대규모 분류 파이프라인입니다. 수만 건의 문서를 스팸/정상, 긍정/부정 같은 이분법 레이블로 처리할 때 nano의 $0.20/1M 입력 가격은 Claude Haiku 4.5의 5분의 1입니다. 콘텐츠 모더레이션, 이메일 필터링, 텍스트 라우팅 같은 시나리오에서 비용 차이가 직접 수익에 영향을 줍니다.
둘째, 단순 데이터 추출입니다. 인보이스에서 날짜와 금액을 뽑거나, 상품 설명에서 카테고리 키워드를 추출하는 작업은 GPQA Diamond 82.8%의 추론 능력이 과잉입니다. nano가 여기서 충분하고, 속도도 빠릅니다.
셋째, 히어라키 에이전트 시스템의 최하단 실행자입니다. GPT-5.4나 Gemini 3.1 Pro가 계획을 세우고, nano가 단순 정보 조회·포맷 변환·필터링을 맡는 구조에서 전체 파이프라인 비용이 크게 낮아집니다. Beam AI의 분석 기준으로 “좁고 잘 정의된 서브태스크에서는 nano의 성능 프로파일이 유지된다”고 정리됩니다(출처: beam.ai/agentic-insights, 2026.03.18).
💡 nano를 쓸 자리는 “저렴한 ChatGPT 대체재”가 아닙니다. 잘 정의된 좁은 작업을 대량으로 처리하는 API 파이프라인에서만 nano의 가격 우위가 실제로 드러납니다.
Q&A — 자주 나오는 질문 5개
마치며
GPT-5.4 nano를 한 줄로 정리하면 이렇습니다. API에서 대량 처리하는 개발자에게는 강력한 카드지만, 앱에서 쓰는 일반 사용자에게는 접근 자체가 불가능한 모델입니다.
가격이 이전 세대보다 4배 올랐다는 사실은 “nano = 항상 저렴”이라는 생각을 점검하게 만듭니다. 정작 중요한 포인트는 경쟁사 대비 저렴함이고, 그 안에서도 Computer Use처럼 nano가 취약한 영역이 있습니다. 코딩 서브에이전트, 분류, 데이터 추출이라는 명확한 용도가 있을 때 nano는 의미 있는 선택입니다. 그 범위를 벗어나면 mini로 올라가는 것이 더 합리적입니다.
OpenAI가 모델 라인업을 점점 계층화하면서, 어떤 모델을 어느 레이어에 배치할지가 요금 이상의 설계 문제가 되고 있습니다. nano는 그 계층 구조의 맨 아래를 채우는 모델입니다. 잘 정의된 자리에 넣으면 비용 대비 효과가 납니다.
본 포스팅 참고 자료
- OpenAI 공식 릴리스노트 — Introducing GPT-5.4 mini and nano (openai.com/index/introducing-gpt-5-4-mini-and-nano/)
- OpenAI 공식 API 가격 페이지 (openai.com/ko-KR/api/pricing/)
- DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (datacamp.com/blog/gpt-5-4-mini-nano)
- Beam AI — GPT-5.4 Mini & Nano: Multi-Model Architecture Validated (beam.ai/agentic-insights)
- 나무위키 GPT-5 항목 (namu.wiki/w/GPT-5)
본 포스팅은 GPT-5.4 nano 공식 출시 기준(2026.03.18)으로 작성되었습니다. OpenAI의 서비스 정책·UI·가격·기능은 업데이트로 언제든 변경될 수 있습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 최신 정보는 반드시 OpenAI 공식 페이지에서 확인하세요.







댓글 남기기