GPT-5.4 nano
OpenAI 공식 발표 기준
GPT-5.4 nano, API 전용이라는 말이 절반만 맞습니다
“역대 최저가 AI”라는 말이 연일 돌고 있는데, 정작 ChatGPT 앱에서는 nano를 선택조차 할 수 없습니다. 가격은 구형 대비 최대 4배 인상됐고, 화면 조작 벤치마크에서는 이전 세대 mini보다 낮은 점수가 나옵니다. 공식 문서와 수치로 직접 확인했습니다.
ChatGPT 앱에서는 nano를 쓸 수 없습니다
GPT-5.4 nano, 모델 목록에 아예 없는 이유
GPT-5.4 nano가 출시됐다는 소식을 보고 ChatGPT 앱 모델 선택기를 열어봤다면 nano가 보이지 않아 당황했을 수 있습니다. OpenAI 공식 발표문(2026.03.17)에 한 줄로 딱 나와 있습니다. “GPT-5.4 nano API 전용.” ChatGPT 앱, Codex 에이전트 에서도 nano는 선택지로 나타나지 않습니다. API로 직접 호출해야만 사용할 수 있습니다.
GPT-5.4 mini와 비교하면 이 차이는 더 뚜렷합니다. mini는 ChatGPT Free, Go 요금제 사용자의 ‘Thinking’ 기본 모델로도 제공됩니다. Free 계정도 한도 내에서 mini를 Thinking 모드로 쓸 수 있습니다. nano는 그 경로 자체가 없습니다. 개발자 계정이 없거나 OpenAI API에 접근하지 않는다면 nano는 현실적으로 선택지가 아닙니다.
💡 공식 발표문과 요금제 페이지를 같이 놓고 보니 이런 차이가 보였습니다.
많은 국내 포스팅이 “무료 사용자도 nano를 쓸 수 있다”고 썼는데, 이는 mini와 혼동한 것입니다. nano는 API 호출만 지원합니다.
싸다고 알려진 nano, 가격이 4배 오른 이유
절대 가격이 낮다고 “저렴해진 게” 아닙니다
GPT-5.4 nano의 가격은 입력 토큰 100만 개당 $0.20입니다. 업계 최저가 수준인 건 맞습니다. 그런데 직전 세대인 GPT-5 nano는 입력 $0.05, 출력 $0.40였습니다. 숫자를 직접 나눠보면 nano의 입력 단가는 4.0배, 출력 단가는 3.125배 올랐습니다. (출처: The Decoder, 2026.03.17)
| 모델 | 입력 (100만 토큰) | 출력 (100만 토큰) | 입력 가격 변화 |
|---|---|---|---|
| GPT-5.4 nano | $0.20 | $1.25 | +4.0배 |
| GPT-5 nano (구형) | $0.05 | $0.40 | 기준 |
| GPT-5.4 mini | $0.75 | $4.50 | +3.0배 |
| GPT-5 mini (구형) | $0.25 | $2.00 | 기준 |
GPT-5 nano 기반으로 비용을 계산해온 프로젝트라면 같은 요청을 처리하는 비용이 4배까지 늘어납니다. 실제로 Simon Willison이 공개한 계산에 따르면 GPT-5.4 nano로 사진 76,000장을 설명하는 데 드는 비용은 약 $52입니다. (출처: simonwillison.net, 2026.03.17) 구형 nano($0.05/1M)를 적용하면 동일 작업은 약 $13 수준으로, 4배 차이가 그대로 실비에 반영됩니다.
📌 “저렴한 AI”라는 말 뒤에 가격 인상 폭이 숨어 있습니다.
절대 단가는 경쟁 제품보다 낮지만, 전 버전에서 업그레이드하는 기존 사용자 기준으로는 비용 계획을 처음부터 다시 짜야 합니다.
벤치마크가 말해주지 않는 진짜 격차
화면 조작 능력에서 nano는 이전 세대보다 낮습니다
OpenAI가 공개한 벤치마크 표 어디서나 순서는 GPT-5.4 > GPT-5.4 mini > GPT-5.4 nano > GPT-5 mini입니다. 하지만 딱 하나 순서가 뒤집히는 항목이 있습니다. OSWorld-Verified입니다. 이 벤치마크는 AI가 실제 컴퓨터 화면에서 앱을 실행하고 버튼을 누르며 작업을 완료하는 능력을 측정합니다.
| 벤치마크 | GPT-5.4 | 5.4 mini | 5.4 nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (코딩) | 57.7% | 54.4% | 52.4% | 45.7% |
| GPQA Diamond (지식) | 93.0% | 88.0% | 82.8% | 81.6% |
| OSWorld-Verified (⚠️ 화면조작) | 75.0% | 72.1% | 39.0% | 42.0% |
| Toolathlon (도구 호출) | 54.6% | 42.9% | 35.5% | 26.9% |
OSWorld-Verified에서 GPT-5.4 nano(39%)가 구형 GPT-5 mini(42%)보다 낮습니다. 3.0%포인트 차이지만 방향이 반대입니다. (출처: OpenAI 공식 발표, 2026.03.17) 화면을 보고 앱을 작동시키는 에이전트 작업에 nano를 쓸 계획이라면 이전 세대 mini보다 결과가 나빠질 수 있습니다.
DataCamp의 분석도 같은 결론입니다. “nano가 비전 및 컴퓨터 조작 영역에서 구형 mini에 뒤처지는 것은 nano의 설계 목표가 아니기 때문이다.” (출처: DataCamp, 2026.03.17) nano는 CUA(Computer Use Agent) 작업에 적합하지 않습니다.
GPT-5.4 nano가 실제로 빛나는 작업
잘 쓰려면 어디에 써야 하는지가 중요합니다
OpenAI는 nano의 최적 사용처로 분류, 데이터 추출, 랭킹, 그리고 코딩 서브에이전트를 명시했습니다. (출처: OpenAI 공식 발표, 2026.03.17) Codex 안에서 작동하는 구조를 보면 GPT-5.4 같은 큰 모델이 계획과 최종 판단을 맡고, nano가 코드베이스 검색이나 파일 스캔처럼 반복적이고 단순한 병렬 작업을 처리합니다. 이른바 “big brain plans, small brain grinds” 구조입니다.
코딩 벤치마크(SWE-Bench Pro)에서는 nano가 52.4%로 GPT-5.4(57.7%)와 5.3%포인트 차이입니다. nano로 코드 서브태스크를 위임하면 GPT-5.4 할당량의 30%만 소모합니다. 플래그십 모델 한 번 호출 비용으로 nano는 세 번 넘게 호출할 수 있다는 뜻입니다. 대량 코딩 파이프라인에서 비용을 실질적으로 줄이는 데 유리합니다.
📌 nano를 쓰면 좋은 작업 유형
① 텍스트 분류·레이블링 (대규모 데이터셋)
② 비정형 데이터에서 필드 추출 (이름, 날짜, 금액 파싱)
③ 코딩 에이전트 서브태스크 (파일 탐색, 검색, 요약)
④ 실시간 응답이 필요한 경량 챗봇 백엔드
❌ 화면 조작 에이전트(CUA), 복잡한 시각 추론, 긴 문서 분석은 비추
사진 한 장을 설명하는 데 nano는 약 0.069센트가 듭니다. 76,000장이면 $52. 이 단가에서 대규모 이미지 캡션 생성, 상품 설명 자동화 같은 작업이 현실적인 비용 범위에 들어옵니다. (출처: simonwillison.net, 2026.03.17)
컨텍스트 창 400K, 플래그십 1.05M과 어떻게 다른가
숫자 차이가 실제 작업에서 어떤 벽으로 나타나는지
GPT-5.4 nano(그리고 mini)의 컨텍스트 창은 400,000 토큰입니다. 플래그십 GPT-5.4는 1,050,000 토큰입니다. (출처: 나무위키 GPT-5 문서 / OpenAI API 가이드) 단순 비율로 nano는 플래그십 대비 약 38% 수준입니다.
400K 토큰은 한국어 기준으로 약 30만 자 내외입니다. 단행본 한 권 분량이 대략 25~30만 자이니, 책 한 권은 간신히 들어갑니다. 그런데 대형 코드베이스 전체를 한 번에 컨텍스트에 넣거나 여러 문서를 병합해 분석하는 용도라면 400K가 금방 한계에 닿습니다.
장기 컨텍스트 벤치마크(OpenAI MRCR v2, 128K-256K 구간)를 보면 GPT-5.4 nano가 33.1%인 반면 플래그십은 79.3%입니다. 긴 문서를 처리하는 정확도가 거의 절반 이하로 떨어집니다. 파이프라인에서 컨텍스트를 넉넉히 쓰는 작업이라면 nano보다 mini를, 또는 플래그십을 고려해야 합니다.
💡 컨텍스트 요구량에 따른 모델 선택 기준
• 단건 요청이 짧고 반복적 → nano (비용 효율 최대)
• 중간 길이 문서 + 코딩 에이전트 → mini (400K, 가성비)
• 대형 코드베이스 전체 or 장문 분석 → GPT-5.4 (1.05M 필요)
경쟁 모델과 가격·성능 직접 비교
nano가 정말 “가장 싼 선택”인지 따져보니
Simon Willison이 공개한 비교표를 토대로 nano 주변 경쟁 모델의 가격을 확인했습니다. nano($0.20 입력)는 Google Gemini 3.1 Flash-Lite($0.25 입력)보다 저렴합니다. Claude Haiku 4.5($1.00 입력)보다는 5배 저렴합니다. 절대 입력 단가만 보면 nano가 이 가격대에서 가장 낮습니다. (출처: simonwillison.net, 2026.03.17)
| 모델 | 입력 (1M토큰) | 출력 (1M토큰) | GPQA Diamond |
|---|---|---|---|
| GPT-5.4 nano | $0.20 | $1.25 | 82.8% |
| Gemini 3.1 Flash-Lite | $0.25 | $1.50 | — |
| Claude Haiku 4.5 | $1.00 | $5.00 | — |
| GPT-5.4 mini | $0.75 | $4.50 | 88.0% |
| GPT-5.4 (플래그십) | $2.50 | $15.00 | 93.0% |
단, DataCamp 분석에서 지적한 것처럼 Claude Haiku 4.5와 OSWorld 비교는 주의가 필요합니다. Haiku 4.5는 표준 OSWorld에서 50.7%를 기록했고 nano는 더 어려운 OSWorld-Verified에서 39.0%를 기록했습니다. 벤치마크 버전이 달라 직접 비교가 어렵습니다. 화면 조작 능력에서 nano가 Haiku 4.5보다 낫다고 단정할 수 없습니다. (출처: DataCamp, 2026.03.17)
결론적으로 분류·추출·서브에이전트 용도에서 nano의 가성비는 현재 시점 기준으로 업계 최고 수준입니다. 다만 전 세대에서 올라오는 비용이나 화면 조작 성능에서는 “최고 가성비”가 아닌 지점도 있습니다.
자주 나오는 질문들
마치며
GPT-5.4 nano는 분류, 추출, 서브에이전트처럼 반복적이고 단순한 작업을 대규모로 처리해야 하는 개발자에게 현재 가장 저렴한 선택지 중 하나입니다. GPQA Diamond 82.8%, SWE-Bench Pro 52.4% 같은 수치는 이전 세대 mini를 실질적으로 앞서고 있습니다.
그런데 세 가지는 반드시 짚고 가야 합니다. 첫째, nano는 API 전용입니다. ChatGPT 앱에서 접근이 안 됩니다. 둘째, 구형 nano 대비 가격이 4배 올랐습니다. 예산 계획을 새로 짜야 합니다. 셋째, 화면 조작 에이전트 작업에서는 구형 mini보다도 낮은 벤치마크가 나왔습니다. nano를 쓸 곳과 쓰면 안 될 곳이 이 세 가지로 상당 부분 정리됩니다.
OpenAI가 공식적으로 이유를 밝히지 않은 부분이 있습니다. 가격 인상 배경과 nano의 CUA 성능이 왜 이전 세대보다 낮게 나왔는지는 아직 공개된 설명이 없습니다. 업데이트가 나오면 내용을 보완하겠습니다.
📚 본 포스팅 참고 자료
- OpenAI 공식 발표 — GPT-5.4 mini 및 nano 출시 (openai.com, 2026.03.17)
- OpenAI API 가격표 (openai.com/api/pricing)
- OpenAI 헬프센터 — ChatGPT 요금제별 GPT-5.3/5.4 사용 안내 (help.openai.com)
- ChatGPT 공식 요금제 비교 페이지 (chatgpt.com/ko-KR/pricing)
- Simon Willison — GPT-5.4 nano 실측 비용 ($52/76,000장) (simonwillison.net, 2026.03.17)
- The Decoder — 가격 인상 비교 분석 (the-decoder.com, 2026.03.17)
- DataCamp — 벤치마크 및 경쟁 모델 비교 (datacamp.com, 2026.03.17)
본 포스팅은 2026년 3월 22일 기준으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능·가격이 변경될 수 있습니다. 최신 정보는 OpenAI 공식 가격 페이지에서 직접 확인하세요. 본 포스팅에 포함된 수치는 OpenAI 공식 발표 기준이며, 실제 운영 환경에 따라 달라질 수 있습니다.

댓글 남기기