GPT-5.4 mini, 싸다고요? 가격 3배 직접 따져봤습니다

Published on

in

GPT-5.4 mini, 싸다고요? 가격 3배 직접 따져봤습니다

2026.03.17 기준
gpt-5.4-mini-2026-03-17 기준
OpenAI 공식 발표 기반

GPT-5.4 mini, 싸다고요? 가격 3배 직접 따져봤습니다

결론부터 말씀드리면, GPT-5.4 mini는 GPT-5.4 풀 모델 대비 싸습니다. 그런데 전 세대 GPT-5 mini와 비교하면 입력 토큰 기준으로 3배 비쌉니다. OpenAI 공식 발표문에 그대로 나와 있는 수치인데, 한국어로 이 부분을 제대로 짚은 글이 없어서 직접 정리했습니다.

$0.75/1M
입력 토큰 단가
54.4%
SWE-Bench Pro
72.1%
OSWorld-Verified
400K
컨텍스트 윈도우

GPT-5.4 mini가 뭔지 30초에 정리

GPT-5.4 mini는 2026년 3월 17일 OpenAI가 공식 출시한 소형 모델로, 전 세대 GPT-5 mini를 대체합니다. GPT-5.4 풀 모델의 성능을 최대한 유지하면서 속도와 비용을 낮춘 것이 핵심 포지션입니다. (출처: OpenAI 공식 발표, 2026.03.17)

ChatGPT의 Free·Go 플랜에서는 기본 ‘Thinking’ 모델로 자동 배정됩니다. GPT-5.4 Thinking 사용량을 다 쓰면 상위 플랜 사용자에게도 대체 모델로 동작하고요. API, Codex, ChatGPT 세 곳에서 모두 쓸 수 있습니다.

모델 스냅샷 이름은 gpt-5.4-mini-2026-03-17입니다. 지식 커트오프는 2025년 8월 31일이고, 최대 출력 토큰은 128,000개, 컨텍스트 윈도우는 400,000 토큰입니다. (출처: OpenAI Developers API 문서)

▲ 목차로 돌아가기

전 세대보다 3배 비싼 이유 — 숫자로 비교

💡 공식 가격표와 전 세대 단가를 나란히 놓고 보니 이런 구조가 보였습니다. 단순히 “GPT-5.4보다 싸다”는 표현만으로는 놓치는 부분이 있습니다.

OpenAI가 발표한 공식 가격을 전 세대와 직접 비교하면 이렇습니다. (출처: OpenAI Developers API 문서, 2026.03.17)

모델 입력(1M 토큰) 출력(1M 토큰) 전 세대 대비
GPT-5 mini (구) $0.25 $2.00
GPT-5.4 mini (신) $0.75 $4.50 +3배
GPT-5 nano (구) $0.05 $0.40
GPT-5.4 nano (신) $0.20 $1.25 +4배
GPT-5.4 (풀) $2.50 $15.00

GPT-5.4 mini는 GPT-5.4 풀 모델보다는 약 70% 저렴합니다. 이 숫자만 보면 “역시 mini는 싸다”는 인상을 받습니다. 그런데 실제로 기존 파이프라인이 GPT-5 mini 기준으로 예산을 짜둔 팀이라면, 동일한 요청량을 처리할 때 청구서가 3배가 됩니다. 능력이 올랐어도 예산 충격은 즉각적입니다.

2023년부터 이어진 AI 모델 가격 하락 추세 — GPT-4 Turbo → GPT-4o → GPT-4o mini 순으로 단가가 계속 내려갔던 그 흐름 — 이 GPT-5 mini 세대에서는 반대로 꺾였습니다. OpenAI는 공식 발표에서 이 가격 상승에 대한 별도 이유를 밝히지 않았습니다. 개발사 커뮤니티에서는 “에이전트 워크로드 수요가 충분히 높아졌다고 판단한 것”이라는 해석이 나오고 있습니다.

▲ 목차로 돌아가기

벤치마크 실제 수치 — 점수 차이가 큰 곳과 작은 곳

OpenAI가 공개한 공식 벤치마크 수치입니다. 카테고리별로 mini와 풀 모델의 격차가 다르게 나타납니다. (출처: OpenAI 공식 발표, 2026.03.17)

벤치마크 GPT-5.4 GPT-5.4 mini 격차 GPT-5 mini(구)
SWE-Bench Pro
코딩 실무
57.7% 54.4% -3.3%p 45.7%
OSWorld-Verified
컴퓨터 제어
75.0% 72.1% -2.9%p 42.0%
GPQA Diamond
과학 추론
93.0% 88.0% -5.0%p 81.6%
Terminal-Bench 2.0
터미널 에이전트
75.1% 60.0% -15.1%p 38.2%
Toolathlon
도구 호출
54.6% 42.9% -11.7%p 26.9%
MMMUPro
멀티모달 비전
81.2% 76.6% -4.6%p 67.5%

눈에 띄는 부분은 OSWorld-Verified 72.1%입니다. 이 벤치마크에서 인간 전문가 기준점은 72.4%로, GPT-5.4 mini와 사실상 같은 수준입니다. (출처: OpenAI 공식 발표, 2026.03.17) mini 모델이 데스크톱 조작에서 사람과 비슷한 성공률을 보인다는 뜻입니다.

반면 터미널 작업(Terminal-Bench 2.0)과 도구 호출(Toolathlon)에서는 풀 모델과 격차가 15%p 안팎으로 벌어집니다. 멀티스텝 터미널 작업이 핵심인 파이프라인이라면 mini보다 풀 모델이 더 나은 선택일 수 있습니다.

▲ 목차로 돌아가기

Codex 서브에이전트 구조에서 비용이 달라지는 이유

💡 공식 발표문과 Codex 서브에이전트 동작 방식을 같이 놓고 보니 토큰 단가만으로 비용을 계산하면 틀리는 경우가 있습니다.

OpenAI 공식 발표에 이런 내용이 있습니다. “GPT-5.4 mini는 Codex에서 GPT-5.4 할당량의 30%만 소비한다.” (출처: OpenAI 공식 발표, 2026.03.17) 이게 실질적으로 어떤 의미냐면, 풀 모델이 처리하던 작업 하나를 mini에 넘기면 같은 할당량으로 작업을 약 3배 더 돌릴 수 있다는 뜻입니다.

구조를 구체적으로 보면 이렇습니다. GPT-5.4 풀 모델이 전체 계획 수립과 최종 검토를 담당하고, 코드 파일 탐색·터미널 명령 실행·간단한 패치 적용 같은 반복 작업은 mini가 병렬로 처리합니다. 이 구조에서 개별 서브태스크당 실제 비용은 토큰 단가가 아닌 할당량 소비율로 결정됩니다. mini 서브에이전트 하나를 쓰는 비용이 풀 모델 대비 약 3분의 1이 됩니다.

단, 이 구조는 Codex 플랫폼 안에서의 이야기입니다. 단순 API 호출로 mini를 쓰는 경우에는 이 30% 할인 구조가 적용되지 않고 토큰 단가 그대로 청구됩니다. Codex 외부에서 mini를 서브에이전트로 활용하는 커스텀 파이프라인이라면 비용 계산 방식을 별도로 검토해야 합니다.

▲ 목차로 돌아가기

nano와 mini 중 어떤 걸 골라야 할까

GPT-5.4 nano는 API 전용입니다. ChatGPT UI에서는 쓸 수 없고, OpenAI가 ChatGPT 통합 일정을 아직 공개하지 않았습니다. (출처: OpenAI 공식 발표, 2026.03.17) 개발자 파이프라인 용도로만 고려하면 됩니다.

성능 프로필이 완전히 다릅니다. mini는 OSWorld-Verified에서 72.1%를 기록해 컴퓨터 제어 작업에도 충분히 씁니다. nano는 같은 벤치마크에서 39.0%에 그칩니다. nano는 처음부터 컴퓨터 제어 용도로 만들어진 모델이 아니기 때문입니다. (출처: OpenAI 공식 발표, 2026.03.17) 반면 GPQA Diamond(과학 추론)는 nano가 82.8%로 가격 대비 꽤 견고합니다.

실무 판단 기준을 정리하면 이렇습니다.

✅ GPT-5.4 mini가 맞는 상황

  • IDE 코딩 어시스턴트, 코드 리뷰
  • 컴퓨터 제어·UI 자동화
  • Codex 서브에이전트 구조
  • ChatGPT 무료·Go 플랜 사용자

✅ GPT-5.4 nano가 맞는 상황

  • 이미지 분류·대용량 캡셔닝
  • 데이터 추출·텍스트 분류
  • 단순 에이전트 서브태스크
  • 비용 절감이 최우선인 파이프라인

nano로 76,000장 이미지를 설명하는 데 드는 비용이 약 $52라는 계산이 있습니다. (출처: letsdatascience.com, 2026.03.18, OpenAI 공식 가격 기반 추정) 대용량 비전 파이프라인에서 nano의 가성비가 확실히 보이는 수치입니다.

▲ 목차로 돌아가기

경쟁 모델과 비교 — Gemini, Claude Haiku 4.5

GPT-5.4 mini vs Claude Haiku 4.5

Claude Haiku 4.5의 공식 가격은 입력 $1.00/1M, 출력 $5.00/1M입니다. (출처: Anthropic API 문서) GPT-5.4 mini($0.75/$4.50)가 단가는 낮습니다. Haiku 4.5는 SWE-bench Verified에서 73.3%를 기록했는데, 이건 GPT-5.4 mini의 SWE-Bench Pro 54.4%와 직접 비교가 안 됩니다. 두 테스트가 다른 버전이라 수치만 보고 우열을 판단하면 틀립니다.

GPQA Diamond와 τ2-bench Telecom 두 벤치마크에서는 GPT-5.4 mini가 각각 88.0% vs 81.6%, 93.4% vs — 으로 앞섭니다. Computer use, tool search, hosted shell 등 OpenAI 생태계 도구 지원 면에서는 GPT-5.4 mini가 넓고, Claude 생태계(Projects, Artifacts)와의 연동이 중요하다면 Haiku 4.5가 더 자연스럽습니다.

GPT-5.4 mini vs Gemini 3.1 Flash-Lite

가격 면에서는 Gemini 3.1 Flash-Lite가 $0.50/1M 입력으로 GPT-5.4 mini보다 약 33% 저렴합니다. (출처: html6.tistory.com, 2026.03.19, Google AI 공식 가격 기반) GPQA Diamond는 Gemini 3.1 Flash-Lite 86.9% vs GPT-5.4 mini 88.0%로 격차가 작습니다. 반면 Computer use, tool search, apply patch 등 OpenAI 전용 에이전트 도구 지원은 GPT-5.4 mini 쪽이 확실히 넓습니다. 비용 중심이면 Gemini, 에이전트 생태계 연동이 중요하면 mini가 유리한 선택입니다.

▲ 목차로 돌아가기

자주 묻는 질문 5가지

Q1. GPT-5.4 mini는 ChatGPT 무료 플랜에서 쓸 수 있나요?

Free 플랜과 Go 플랜에서는 기본 Thinking 모델로 GPT-5.4 mini가 배정됩니다. 단, 상위 플랜 사용자는 GPT-5.4 Thinking 한도를 다 쓴 후에 mini로 전환됩니다. (출처: OpenAI 공식 발표, 2026.03.17)

Q2. 컨텍스트 윈도우 400K는 GPT-5.4 풀 모델과 같은 수준인가요?

같지 않습니다. GPT-5.4 풀 모델의 컨텍스트 윈도우는 1.05M 토큰이고, mini와 nano는 400K입니다. (출처: OpenAI Developers API 문서) 장문 코드베이스를 통째로 넘기는 작업이라면 이 차이가 체감됩니다.

Q3. GPT-5 mini로 돌리던 기존 파이프라인을 그냥 mini로 바꿔도 되나요?

API 파라미터 호환은 되지만 출력 스타일이 달라질 수 있습니다. GPT-5.4 mini는 더 구조화된 긴 응답을 기본으로 생성하는 경향이 있어서, 특정 출력 형식에 의존하는 파싱 로직이 있다면 사전에 검증이 필요합니다. 비용도 토큰 단가 기준 3배로 오르니 예산 재검토도 같이 해야 합니다.

Q4. GPT-5.4 nano는 언제 ChatGPT에서 쓸 수 있나요?

출시일 기준(2026.03.17) nano는 API 전용입니다. OpenAI가 ChatGPT 통합 시점을 공개하지 않은 상태입니다. fine-tuning 지원 여부도 아직 발표가 없습니다.

Q5. Codex가 아닌 일반 API에서도 서브에이전트 구조로 비용을 줄일 수 있나요?

Codex 플랫폼 내 30% 할당량 소비 규칙은 Codex 전용 메커니즘입니다. 일반 API 호출에서는 적용되지 않고 토큰 단가 그대로 청구됩니다. 커스텀 에이전트 프레임워크를 쓰는 경우에는 별도 비용 계산이 필요합니다.

▲ 목차로 돌아가기

마치며 — 어떤 상황에서 진짜 이득인지

GPT-5.4 mini는 분명히 능력이 좋아진 모델입니다. 코딩과 컴퓨터 제어 쪽에서 전 세대 대비 뚜렷하게 오른 수치를 공식 벤치마크로 확인했습니다. 그런데 “작은 모델은 당연히 싸다”는 생각을 그대로 갖고 있다면, 이번 세대에서는 예상과 다른 청구서를 받을 수 있습니다.

Codex 서브에이전트 구조에서는 할당량 30% 소비 덕분에 실질 비용이 달라지고, 에이전트 워크플로우가 핵심이라면 이 구조를 적극적으로 설계에 반영할 이유가 있습니다. 반면 단순 분류·추출·캡셔닝처럼 능력 향상이 워크로드에 기여하지 않는 작업이라면, 토큰 단가 3배 인상이 그대로 비용 부담으로 남습니다.

솔직히 말하면, 가장 현실적인 접근은 현재 파이프라인이 GPT-5 mini에서 어느 영역에서 막히는지를 먼저 파악하는 겁니다. 거기서 막히는 게 없다면 굳이 3배 비싼 걸 쓸 이유가 없습니다. 막히는 게 있고 그게 코딩·에이전트·컴퓨터 제어라면, mini로의 전환이 비용 대비 효과를 낼 가능성이 높습니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. OpenAI 공식 발표 — Introducing GPT-5.4 mini and nano (2026.03.17)
    https://openai.com/ko-KR/index/introducing-gpt-5-4-mini-and-nano/
  2. OpenAI Developers API 문서 — GPT-5.4 mini 모델 스펙
    https://developers.openai.com/api/docs/models/gpt-5.4-mini
  3. DataCamp — GPT-5.4 mini and nano: Benchmarks, Access, and Reactions (2026.03.17)
    https://www.datacamp.com/blog/gpt-5-4-mini-nano
  4. Let’s Data Science — OpenAI’s Smaller Models Are More Capable. They’re Also 4x Pricier. (2026.03.18)
    https://letsdatascience.com/blog/openai-s-smaller-models-are-more-capable-they-re-also-4x-pricier

본 포스팅은 2026년 03월 17일 공개된 OpenAI 공식 발표 및 API 문서를 기준으로 작성됐습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 가격·벤치마크·기능 지원 여부는 반드시 OpenAI 공식 채널에서 최신 정보를 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기