GPT-5.4 nano, API 전용인 이유 따로 있습니다

Published on

in

GPT-5.4 nano, API 전용인 이유 따로 있습니다

2026.03.18 출시 기준
OpenAI 공식 발표 기반

GPT-5.4 nano, API 전용인 이유 따로 있습니다

OpenAI가 2026년 3월 18일 GPT-5.4 mini와 nano를 동시에 출시했습니다. mini는 ChatGPT 무료 플랜에서도 쓸 수 있지만, nano는 API 전용입니다. 왜 nano는 ChatGPT에 없을까요? 공식 벤치마크를 직접 들여다보니 그 이유가 보였습니다.

$0.20
nano 입력 토큰 / 1M
$0.75
mini 입력 토큰 / 1M
200 t/s
nano 응답 속도 (실측)

GPT-5.4 nano가 뭔지부터 — mini와 뭐가 다른가

(출처: OpenAI 공식 발표, 2026.03.17)

공식 발표문에 딱 이렇게 나옵니다. “분류, 데이터 추출, 랭킹, 그리고 단순 보조 작업을 처리하는 코딩 서브에이전트에 권장한다.” 즉, nano는 처음부터 사람이 직접 대화하는 용도가 아니라, AI 시스템 안에서 다른 AI의 지시를 받아 부분 작업을 처리하는 역할로 설계됐습니다.

API 기능 지원 범위도 다릅니다. mini는 텍스트·이미지 입력, 툴 사용, 함수 호출, 웹 검색, 컴퓨터 사용(computer use), 스킬까지 전부 지원합니다. nano는 이미지 입력, 툴 사용, 함수 호출, 구조화 출력(structured outputs)까지만 됩니다. 웹 검색과 컴퓨터 사용은 nano에서 쓸 수 없습니다.
(출처: OpenAI 공식 발표, 2026.03.17)

▲ 목차로 돌아가기

벤치마크를 직접 봤더니 — 성능 격차가 생각보다 큽니다

공식 발표 벤치마크 수치를 직접 확인해 보면, nano가 ‘최신 모델이니 이전 것보다 전반적으로 낫겠지’라는 예상이 완전히 들어맞지 않는 항목이 있습니다. 특히 OSWorld-Verified(데스크톱 환경을 스크린샷과 마우스/키보드로 조작하는 능력 측정)에서 nano는 39.0%를 기록했는데, 이전 세대 모델인 GPT-5 mini가 42.0%입니다. 최신 nano가 구버전 mini보다 이 항목에서 더 낮은 것입니다.

💡 공식 발표문과 실제 수치를 같이 놓고 보니 이런 차이가 보였습니다

OSWorld-Verified에서 GPT-5.4 nano(39.0%) < GPT-5 mini(42.0%). DataCamp 분석에서 “컴퓨터 사용 작업이 nano의 목표 영역이 아님이 명확하다”고 명시했습니다. nano는 화면을 보면서 UI를 조작하는 작업에는 애초에 맞지 않습니다.
(출처: OpenAI 공식 발표 + DataCamp 분석, 2026.03.17)

코딩과 추론 항목에서는 다릅니다. SWE-Bench Pro(실제 소프트웨어 엔지니어링 작업 평가)에서는 nano 52.4%, mini 54.4%, 플래그십 GPT-5.4 57.7%로 세 모델 모두 50% 이상입니다. GPT-5 mini는 45.7%였으니 nano가 이 항목에서는 구세대보다 확실히 올라왔습니다. GPQA Diamond(대학원 수준 지식 질문) 기준으로는 nano 82.8%로, 플래그십 GPT-5.4의 93.0%와 약 10% 차이입니다.
(출처: OpenAI 공식 발표, 2026.03.17)

벤치마크 GPT-5.4 5.4 mini 5.4 nano GPT-5 mini
SWE-Bench Pro 57.7% 54.4% 52.4% 45.7%
OSWorld-Verified 75.0% 72.1% 39.0% 42.0%
GPQA Diamond 93.0% 88.0% 82.8% 81.6%
Terminal-Bench 2.0 75.1% 60.0% 46.3% 38.2%

출처: OpenAI 공식 발표(2026.03.17), reasoning_effort=xhigh 기준 / OSWorld 빨간색 = nano가 GPT-5 mini보다 낮음

▲ 목차로 돌아가기

nano가 API 전용인 진짜 이유

nano는 ChatGPT 인터페이스에 없습니다. 공식 발표에서도 “API에서만 사용 가능하다”고 명시했는데, OpenAI가 그 이유를 별도로 설명하지는 않았습니다. 하지만 벤치마크 수치와 공식 권장 용도를 같이 놓고 보면 이유가 보입니다. nano는 사람과 대화하는 용도가 아닙니다. 분류, 데이터 추출, 랭킹, 단순 보조 코딩 같은 반복적 작업 처리가 설계 목표입니다.
(출처: OpenAI 공식 발표, 2026.03.17)

ChatGPT는 사람이 직접 쓰는 인터페이스입니다. 대화 흐름, 맥락 이해, 웹 검색 연동이 중요합니다. 그런데 nano는 웹 검색도 지원하지 않고, 앞서 확인했듯 UI를 보고 작업하는 OSWorld 항목에서 이전 세대 mini보다도 낮습니다. 사람 입장에서 직접 nano를 쓰면 체감 품질이 mini보다 나쁜 상황이 생길 수 있는 겁니다. nano는 200 토큰/초 수준의 속도(Hacker News 실측, 2026.03.17)가 진짜 장점인데, 이 속도는 사람과의 대화보다 AI 시스템 내부 파이프라인에서 의미가 있습니다.

💡 nano의 200 t/s가 실제로 의미하는 것

(출처: Hacker News 실측, 2026.03.17)

▲ 목차로 돌아가기

Codex에서 mini 쓰면 비용이 3분의 1로 줄어드는 구조

nano는 API 전용이지만, mini는 Codex(OpenAI 코딩 에이전트)에서 쓸 때 특별한 이점이 있습니다. 공식 발표 기준으로, Codex에서 GPT-5.4 mini를 사용하면 GPT-5.4 쿼터의 30%만 소모합니다. 플래그십 모델 작업 3개를 처리할 비용으로 mini 작업 10개를 처리할 수 있다는 뜻입니다.
(출처: OpenAI 공식 발표, 2026.03.17)

그냥 저렴한 게 아닙니다. 구조가 다릅니다. 공식 설명에 따르면 Codex 안에서 큰 모델(GPT-5.4)이 계획·조율·최종 판단을 맡고, mini 서브에이전트들이 코드베이스 검색, 대용량 파일 검토, 지원 문서 처리 같은 병렬 작업을 처리하는 방식으로 쓸 수 있습니다. 시니어 엔지니어 1명이 주니어 여러 명에게 작업을 분배하는 구조와 비슷합니다.

💡 비용 계산을 직접 해보면

(출처: OpenAI API 가격표, 2026.03.17)

▲ 목차로 돌아가기

long context에서 mini도 무너지는 구간이 있습니다

mini가 400K 컨텍스트 윈도우를 지원한다고 해서 400K 전 구간에서 성능이 일정하지는 않습니다. OpenAI 공식 MRCR v2 벤치마크(8개 정보를 긴 문서에서 찾아내는 테스트)를 보면, mini는 64K~128K 구간에서 47.7%, 128K~256K 구간에서 33.6%입니다. 플래그십 GPT-5.4는 같은 구간에서 86.0%, 79.3%입니다. 단순히 컨텍스트 창이 넓다고 성능이 유지되는 게 아닙니다.
(출처: OpenAI 공식 발표, 2026.03.17)

nano는 더 큽니다. nano의 128K~256K 구간 MRCR v2 점수는 33.1%로 mini(33.6%)와 비슷하지만, 64K~128K 구간에서는 nano 44.2% vs mini 47.7%로 mini가 약간 높습니다. 두 모델 모두 컨텍스트가 64K를 넘어가는 순간부터 성능이 급격히 떨어집니다. 여러 파일을 동시에 참조하는 긴 작업에는 mini도 nano도 적합하지 않을 수 있습니다.
(출처: OpenAI 공식 발표, 2026.03.17)

솔직히 말하면, 400K 컨텍스트 지원이라는 숫자 자체는 마케팅 수치에 가깝고 실제 성능 유지 구간은 그보다 훨씬 짧습니다. 긴 코드베이스 전체를 한 번에 넣고 분석시키는 작업은 mini보다 플래그십 GPT-5.4가 맞습니다. mini와 nano는 짧고 명확하게 정의된 작업 단위에서 빛납니다.

▲ 목차로 돌아가기

가격 비교 — Claude Haiku 4.5보다 nano가 싼 이유

소형 모델 시장에서 직접적인 경쟁 상대는 Anthropic의 Claude Haiku 4.5입니다. 가격부터 보면 Haiku 4.5는 입력 $1.00/1M, 출력 $5.00/1M입니다. GPT-5.4 nano는 입력 $0.20/1M, 출력 $1.25/1M으로 입력 기준 5배 저렴합니다.
(출처: Hacker News 가격 비교 스레드, 2026.03.17 / OpenAI 공식 가격표, 2026.03.17)

그럼 성능도 nano가 낫냐는 질문이 자연스럽게 나옵니다. 정확한 비교는 어렵습니다. 두 모델이 서로 다른 벤치마크 버전을 사용했기 때문입니다. DataCamp 분석에 따르면, 비교적 신뢰할 수 있는 GPQA Diamond 기준으로 nano(82.8%)가 Haiku 4.5보다 약 9.8% 높고, τ2-bench Telecom에서도 nano가 9.5% 높습니다.
(출처: DataCamp GPT-5.4 mini/nano 분석, 2026.03.17)

단, 컴퓨터 사용(OSWorld) 항목에서는 Haiku 4.5(표준 OSWorld 기준 50.7%)가 nano(OSWorld-Verified 기준 39.0%)보다 높아 보입니다. 다만 OSWorld-Verified가 더 어려운 버전이라 단순 비교는 조심스럽습니다. 이 부분은 아직 공식적으로 동일 기준 비교가 없습니다.

모델 입력 (1M) 출력 (1M) GPQA Diamond
GPT-5.4 nano $0.20 $1.25 82.8%
GPT-5.4 mini $0.75 $4.50 88.0%
Claude Haiku 4.5 $1.00 $5.00 약 73%
GPT-5.4 (플래그십) $2.50 $15.00 93.0%

출처: OpenAI 공식 가격표(2026.03.17), Hacker News 커뮤니티 실측(2026.03.17), DataCamp 분석(2026.03.17)

▲ 목차로 돌아가기

Q&A — 5가지 핵심 질문

Q1. GPT-5.4 nano를 ChatGPT에서 쓸 수 있는 방법이 없나요?
현재는 없습니다. OpenAI 공식 발표 기준으로 nano는 API 전용입니다. ChatGPT에서 무료·Go 플랜 사용자는 GPT-5.4 mini Thinking(무료 플랜의 경우 + 메뉴의 Thinking 기능)을 쓸 수 있습니다. nano를 쓰려면 OpenAI API 계정을 만들고 직접 호출해야 합니다. (출처: OpenAI 공식 발표, 2026.03.17)
Q2. nano가 mini보다 무조건 더 빠른가요?
토큰/초 기준으로는 nano 약 200 t/s, mini 약 180~190 t/s로 nano가 약간 빠릅니다. 하지만 OpenAI가 공개한 지연 시간 수치는 생산 환경이 아닌 모델링 추정치입니다. 실제 환경에서는 많은 요인에 따라 달라집니다. (출처: OpenAI 공식 발표 주석 + Hacker News 실측, 2026.03.17)
Q3. Codex에서 mini를 쓰면 쿼터가 30%만 쓰인다는 게 실제로 체감되나요?
공식 발표에 명시된 내용입니다. “Codex에서 GPT-5.4 mini는 GPT-5.4 쿼터의 30%만 사용해 약 3분의 1 비용으로 처리한다”고 나옵니다. 개발자 입장에서 단순 작업(파일 검색, 코드 리뷰 보조)을 mini로 위임하면 더 중요한 작업에 쿼터를 아낄 수 있습니다. (출처: OpenAI 공식 발표, 2026.03.17)
Q4. nano는 이미지 입력이 되나요?
이미지 입력 자체는 됩니다. 그러나 화면을 보고 UI를 조작하는 컴퓨터 사용(computer use)은 지원하지 않습니다. OSWorld-Verified 벤치마크에서 39%로 낮은 이유도 이와 연결됩니다. 스크린샷 분류나 이미지에서 텍스트 추출 같은 작업에는 쓸 수 있지만, UI 자동화 에이전트 용도로는 mini를 쓰는 게 맞습니다. (출처: OpenAI 공식 발표, 2026.03.17)
Q5. GPT-5.4 nano와 mini, 일반 개인 사용자에게 실질적으로 의미 있는 변화가 있나요?
nano는 API 개발자 외에 개인 사용자에게는 직접적인 체감이 없습니다. mini는 ChatGPT 무료·Go 플랜에서 Thinking 기능으로 쓸 수 있어서, 이전보다 빠른 응답과 향상된 추론 능력을 무료로 경험할 수 있습니다. 유료 플랜 사용자에게는 GPT-5.4 Thinking 사용량 한도에 도달했을 때 mini가 자동으로 fallback으로 동작합니다. (출처: OpenAI 공식 발표, 2026.03.17)

▲ 목차로 돌아가기

마치며 — 모델 선택보다 용도 구분이 먼저입니다

mini는 실용적인 선택지입니다. 플래그십 대비 코딩 성능 차이가 3~4% 수준이고, 속도는 2배 이상 빠르며, Codex 안에서 쿼터를 3분의 1만 씁니다. 일반 ChatGPT 사용자라면 mini를 무료로 쓸 수 있다는 점도 의미 있습니다. DataCamp의 분석처럼, 지금 시점에서 많은 제품의 새로운 기본값은 mini가 될 가능성이 높습니다. 작년 플래그십이 올해 무료 티어가 되는 속도가, AI 생태계에서 가장 빠른 ‘감가상각’이라는 말이 나오는 게 이제는 과장이 아닙니다.

nano와 mini 중에서 고민하기 전에 먼저 물어볼 게 있습니다. 사람이 직접 쓰는 건지, 아니면 AI 파이프라인 안에서 자동으로 돌리는 건지. 그 질문 하나면 어느 모델을 써야 하는지 거의 정해집니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. ① OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (https://openai.com/index/introducing-gpt-5-4-mini-and-nano/)
  2. ② OpenAI 공식 발표 — Introducing GPT-5.4 (https://openai.com/index/introducing-gpt-5-4/)
  3. ③ OpenAI API 가격표 (https://openai.com/api/pricing/)
  4. ④ DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (https://www.datacamp.com/blog/gpt-5-4-mini-nano)
  5. ⑤ ZDNET — OpenAI’s GPT-5.4 mini and nano launch (https://www.zdnet.com/article/gpt-5-4-mini-and-nano/)
  6. ⑥ Hacker News — GPT-5.4 Mini and Nano 속도 실측 스레드 (https://news.ycombinator.com/item?id=47415441)

본 포스팅 작성 이후 OpenAI 서비스 정책·UI·기능·가격이 변경될 수 있습니다. 최신 정보는 OpenAI 공식 사이트에서 확인하시기 바랍니다. 본문의 모든 벤치마크 수치는 OpenAI 공식 발표(2026.03.17) 기준이며, reasoning_effort=xhigh 조건에서 측정된 값입니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기