GPT-5.4 mini · nano
OpenAI 공식 발표 기준
GPT-5.4 mini, 속도 빠른데
이 조건에선 nano가 이깁니다
결론부터 말씀드리면, GPT-5.4 mini는 분명 강력합니다. GPT-5 mini 대비 2배 이상 빠르고, SWE-Bench Pro 54.4%로 이전 플래그십 모델에 근접했습니다. 그런데 막상 어떤 작업에 어느 모델을 써야 할지 따져보면, nano가 mini를 앞서는 구간이 생각보다 넓습니다. 가격 차이가 3.75배인데 성능 차이가 2%포인트에 불과한 코딩 벤치마크 수치가 그걸 보여줍니다.
GPT-5.4 mini는 뭐가 달라졌을까요?
2026년 3월 17일, OpenAI가 GPT-5.4 mini와 GPT-5.4 nano를 동시에 출시했습니다. (출처: OpenAI 공식 발표, 2026.03.17) GPT-5.4 mini의 핵심 변화는 두 가지입니다. 속도가 GPT-5 mini 대비 2배 이상 빨라졌고, 코딩·추론·멀티모달·도구 사용 전 영역에서 전 세대를 앞섭니다.
기능 스펙을 보면, API에서 텍스트·이미지 입력, 도구 호출(function calling), 웹 검색, 파일 검색, 컴퓨터 사용(computer use), 스킬(skills)을 모두 지원합니다. 컨텍스트 윈도우는 400k 토큰이며 가격은 입력 $0.75/1M 토큰, 출력 $4.50/1M 토큰입니다.
ChatGPT에서는 Free·Go 사용자가 Thinking 기능을 통해 접근 가능합니다. Codex에서는 GPT-5.4 할당량의 30%만 소비하므로, 같은 예산으로 GPT-5.4 대비 약 3배 더 많은 코딩 작업을 처리할 수 있다는 의미입니다.
nano가 mini를 이기는 구간이 있습니다
보통 “mini가 더 비싸니까 nano보다는 낫겠지”라고 생각하기 쉽습니다. 그런데 OpenAI가 발표한 벤치마크를 실제로 보면 다른 이야기가 나옵니다. SWE-Bench Pro(코딩) 기준으로 mini는 54.4%, nano는 52.4%로 그 차이가 2%포인트에 불과합니다. 입력 토큰 가격 기준으로 mini는 $0.75/1M, nano는 $0.20/1M인데, 이 비용 차이는 3.75배입니다. 성능이 2%포인트 더 좋기 위해 3.75배 더 내는 셈입니다.
실제 사용자 벤치마크(Reddit, r/AI_Agents, 2026.03.17)에서는 gpt-5.4가 80% 정확도, gpt-5.4-nano가 70% 정확도를 기록했는데, 비용은 10,000회 호출 기준 gpt-5.4 약 $20.30, gpt-5.4-nano 약 $1.64로 12.3배 차이가 났습니다. 정확도 10%포인트 차이에 12배 넘는 비용을 지불하는 게 맞는 선택인지 작업별로 따져볼 필요가 있다는 뜻입니다.
분류(classification), 데이터 추출(extraction), 랭킹, 간단한 코딩 서브에이전트 작업에서는 nano가 mini보다 훨씬 유리합니다. 여기서 mini를 쓰면 필요 이상의 비용이 발생합니다.
벤치마크, 직접 따져봤습니다
OpenAI 공식 발표(2026.03.17) 수치를 보면 한 가지 흥미로운 패턴이 있습니다. 거의 모든 벤치마크에서 순서가 GPT-5.4 > GPT-5.4 mini > GPT-5.4 nano > GPT-5 mini 순으로 동일합니다. 그런데 딱 하나 예외가 있습니다. OSWorld-Verified(컴퓨터 사용) 벤치마크에서 GPT-5.4 nano(39.0%)가 GPT-5 mini(42.0%)보다 오히려 낮습니다. nano는 컴퓨터 사용 작업에는 적합하지 않다는 걸 공식 수치가 직접 보여줍니다.
| 벤치마크 | GPT-5.4 | mini | nano | GPT-5 mini |
|---|---|---|---|---|
| SWE-Bench Pro (코딩) | 57.7% | 54.4% | 52.4% | 45.7% |
| Terminal-Bench 2.0 | 75.1% | 60.0% | 46.3% | 38.2% |
| GPQA Diamond (지능) | 93.0% | 88.0% | 82.8% | 81.6% |
| OSWorld-Verified (컴퓨터 사용) | 75.0% | 72.1% | 39.0% ⚠ | 42.0% |
| Toolathlon (도구 호출) | 54.6% | 42.9% | 35.5% | 26.9% |
(출처: OpenAI 공식 발표, 2026.03.17. ⚠ nano는 컴퓨터 사용 작업에서 GPT-5 mini에 뒤집니다. 이 작업에서만큼은 nano가 더 저렴한 선택지가 아닙니다.)
76,000장 사진 설명에 $52? 계산이 맞습니다
개발자 Simon Willison이 GPT-5.4 nano로 사진 한 장을 설명하는 데 2,751 입력 토큰 + 112 출력 토큰을 사용했고, 비용은 약 0.069센트(0.00069달러)였습니다. (출처: Simon Willison, 2026.03.17) 이 수치로 역산하면 사진 76,000장을 처리하는 데 약 $52.44입니다.
= $0.000550 + $0.000140 = $0.000690
76,000장 기준 = $0.000690 × 76,000 = $52.44
같은 76,000장을 GPT-5.4 mini($0.75 입력 / $4.50 출력)로 처리하면 약 $196.74 — nano 대비 약 3.75배 더 듭니다. 이미지 설명처럼 출력이 짧고 반복적인 작업에서 nano의 이점이 극대화됩니다.
이 수치가 의미하는 건 단순한 가격 비교가 아닙니다. 대용량 비정형 데이터를 처리해야 하는 파이프라인 — 사진 태깅, 문서 분류, 로그 분석 같은 작업에서 nano가 실질적인 선택지가 된다는 뜻입니다.
GPT-5 mini 쓰던 분들은 어디로 가야 할까요?
GPT-5 mini에서 GPT-5.4 mini로 그냥 업그레이드하는 게 당연한 것처럼 보이지만, 막상 가격을 보면 다릅니다. GPT-5 mini 입력 가격은 $0.25/1M 토큰이었는데, GPT-5.4 mini는 $0.75/1M — 3배 인상입니다. (출처: OpenAI 공식 발표, 2026.03.17) 단순 드롭인 교체를 하면 비용 구조가 크게 달라집니다.
GPT-5.4 nano의 입력 가격은 $0.20/1M — GPT-5 mini($0.25)보다 오히려 20% 더 쌉니다. 그런데 SWE-Bench Pro 기준 성능은 52.4%로 GPT-5 mini(45.7%)를 앞섭니다. 비용은 내려가고 성능은 올라가는 드문 경우입니다.
물론 nano는 컴퓨터 사용, 복잡한 멀티턴 추론 같은 작업에는 적합하지 않습니다. 작업의 성격을 먼저 분류한 다음, 간단한 분류·추출·랭킹 작업이라면 nano를 우선 고려하는 게 맞습니다.
Claude Haiku 4.5와 비교하면 어떻게 될까요?
GPT-5.4 nano의 경쟁 상대로 가장 직접적으로 거론되는 건 Anthropic의 Claude Haiku 4.5입니다. 가격을 보면 Haiku 4.5는 입력 $1.00/1M, 출력 $5.00/1M인데, GPT-5.4 nano는 입력 $0.20/1M, 출력 $1.25/1M입니다. 가격은 nano가 명확하게 유리합니다.
성능 비교는 좀 복잡합니다. Haiku 4.5는 SWE-bench Verified에서 73.3%, GPT-5.4 nano는 SWE-Bench Pro에서 52.4%를 기록했는데, Verified와 Pro는 다른 버전의 테스트입니다. 일반적으로 Pro가 더 어려운 버전이어서 수치를 직접 비교하면 안 됩니다. (출처: DataCamp, 2026.03.17)
동일 기준으로 비교 가능한 벤치마크인 GPQA Diamond에서는 GPT-5.4 nano가 82.8%, Claude Haiku 4.5가 확인 필요 수준이며, τ2-bench Telecom에서는 GPT-5.4 nano 92.5%로 앞선다는 수치가 있습니다. 컴퓨터 사용(OSWorld) 쪽에서는 Haiku 4.5가 표준 OSWorld 50.7%로 nano(OSWorld-Verified 39.0%)보다 높게 나오는데, 이 또한 테스트 버전이 달라 단순 비교는 어렵습니다.
모델을 하나만 쓰면 이제 손해입니다
GPT-5.4 mini·nano 출시의 진짜 의미는 단일 모델에서 멀티 모델 조합으로의 전환입니다. Microsoft Azure 공식 자료(2026.03.17)에 따르면, GPT-5.4 Pro가 계획·판단을 맡고, GPT-5.4가 복잡한 추론을 처리하고, GPT-5.4 mini가 빠른 실행을, nano가 분류·추출 같은 반복 작업을 담당하는 계층 구조가 실제로 권장되고 있습니다. (출처: Microsoft Azure, 2026.03.17)
| 작업 유형 | 권장 모델 | 가격(입력/1M) |
|---|---|---|
| 분류·추출·랭킹 | GPT-5.4 nano | $0.20 |
| IDE 코딩 보조·멀티모달 | GPT-5.4 mini | $0.75 |
| 복잡한 추론·에이전트 | GPT-5.4 | $2.50 |
실제로 한 개발자의 실측 데이터를 보면, 에이전트 워크플로의 80%를 소형 모델로 처리하고 복잡한 추론 단계만 대형 모델에 위임했을 때 비용이 5분의 1로 줄었고 구조화된 작업의 품질 차이는 거의 없었다고 합니다. (Reddit, r/AI_Agents, 2026.03.17) 이건 이미 프로덕션에서 검증된 패턴입니다.
자주 묻는 질문
마치며
GPT-5.4 mini는 확실히 강력합니다. 이전 세대 mini보다 2배 빠르고 성능도 플래그십에 근접했습니다. 그런데 막상 써보면 이 모델이 최선인 상황과 아닌 상황이 나뉩니다.
코딩 서브에이전트, 이미지 처리, 멀티모달 작업에서는 mini가 맞습니다. 반면 분류·추출·랭킹처럼 단순하고 반복적인 작업은 nano가 훨씬 경제적이고, GPT-5 mini보다도 성능이 좋습니다. 그리고 GPT-5 mini를 쓰고 있었다면 nano가 같은 가격에 더 나은 선택이 될 수 있습니다.
이번 출시의 핵심은 어느 하나의 모델이 아니라 조합입니다. 큰 모델이 판단하고 작은 모델이 빠르게 실행하는 구조가 실제 프로덕션에서 비용과 성능을 동시에 잡는 방법입니다. 모델을 선택하는 게 아니라 모델을 배치하는 시대가 됐습니다.
본 포스팅 참고 자료
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 모든 가격 및 벤치마크 수치는 2026년 3월 17일 OpenAI 공식 발표 기준이며, 이후 변경될 수 있습니다. 가격은 API 이용 기준이며 실제 과금은 사용량·지역·플랜에 따라 다를 수 있습니다. 불확실한 내용은 OpenAI 공식 문서에서 직접 확인하시기 바랍니다.


댓글 남기기