GPT-5.4 mini, 싸다고요? 가격 먼저 보세요

Published on

in

GPT-5.4 mini, 싸다고요? 가격 먼저 보세요

2026.03.18 기준
GPT-5.4 mini 출시 당일
OpenAI 공식 발표 기준

GPT-5.4 mini, 싸다고요?
가격 먼저 보세요

결론부터 말씀드리면, GPT-5.4 mini는 이전 세대인 GPT-5 mini 대비 입력 토큰 가격이 3배 올랐습니다. “경량 모델 = 저렴”이라는 상식이 이번엔 안 통합니다. 성능은 분명 올랐지만, 요금 구조를 먼저 확인하지 않으면 API 비용이 예상을 크게 벗어날 수 있습니다.

3배
입력 토큰 가격 인상
400K
컨텍스트 윈도우 (본 모델 1M)
53.4%
SWE-Bench Pro 점수

GPT-5.4 mini가 뭔지 30초 정리

2026년 3월 18일 오전 3시(한국 시각), OpenAI가 GPT-5.4 mini와 nano를 공식 출시했습니다. (출처: OpenAI 공식 발표문, 2026.03.18) GPT-5.4 mini는 지난 3월 5일 나온 GPT-5.4의 경량화 버전으로, 코딩·추론·멀티모달 이해·도구 사용에 최적화되어 있습니다.

한마디로 “GPT-5.4의 두뇌를 가져왔는데 몸집을 줄였다”는 표현이 맞습니다. 속도는 GPT-5 mini 대비 2배 이상 빠르고, 성능은 GPT-5.4 본 모델에 근접한다는 게 OpenAI의 주장입니다. 다만 이 주장 뒤에 따라붙는 조건들이 생각보다 많습니다.

API, Codex, ChatGPT 세 채널 모두에서 쓸 수 있고, 컨텍스트 윈도우는 400,000 토큰입니다. GPT-5.4 nano는 API 전용이고, 400,000 토큰 동일합니다.

경량 모델인데 왜 이렇게 비싼가요?

써보니까 성능은 만족스러운데, 가격표를 보고 잠깐 멈췄습니다. GPT-5.4 mini의 API 가격은 입력 100만 토큰당 $0.75, 출력 100만 토큰당 $4.50입니다. 전 세대 GPT-5 mini는 입력 $0.25, 출력 $2.00이었습니다. (출처: OpenAI 공식 발표문, 2026.03.18)

💡 공식 발표문과 실제 요금표를 같이 놓고 보니 이런 차이가 보였습니다

“경량 모델”이라는 수식어가 붙어 있지만, 실제 입력 요금은 이전 세대의 정확히 3배입니다. 출력은 2.25배 인상됐습니다. GPT-5.4 nano는 더 가파릅니다: 입력이 4배, 출력이 3.125배 올랐습니다. 이 수치가 의미하는 건, 동일한 API 워크로드를 운영하던 개발자라면 그냥 mini를 교체하는 것만으로도 월 비용이 2~3배 뛸 수 있다는 점입니다.

모델 입력 (1M 토큰) 출력 (1M 토큰) 이전 대비
GPT-5 mini (이전 세대) $0.25 $2.00 기준
GPT-5.4 mini (신규) $0.75 (+3배) $4.50 (+2.25배) ↑ 대폭 인상
GPT-5 nano (이전 세대) $0.05 $0.40 기준
GPT-5.4 nano (신규) $0.20 (+4배) $1.25 (+3.125배) ↑ 더 가파름

출처: OpenAI 공식 발표문 (2026.03.18) / 나무위키 GPT-5 문서

단, Codex 환경에서는 GPT-5.4 쿼터의 30%만 소모해 단순 코딩 작업을 약 1/3 비용으로 처리할 수 있다고 OpenAI는 밝혔습니다. Codex를 메인으로 쓰는 개발자라면 이 구조가 오히려 유리할 수 있습니다.

성능은 얼마나 달라졌을까요?

이게 핵심입니다. 가격이 올랐다는 게 문제가 아니라, 그만큼의 성능이 따라왔느냐가 관건입니다. OpenAI 공식 벤치마크 기준으로 GPT-5.4 mini는 이전 세대 GPT-5 mini를 대부분 항목에서 큰 폭으로 앞섭니다. (출처: OpenAI 공식 발표문, 2026.03.18)

벤치마크 GPT-5.4 mini GPT-5 mini GPT-5.4 (본 모델)
SWE-Bench Pro (코딩) 53.40% 45.69% 57.73%
OSWorld-Verified (UI 조작) 70.60% 42% 75.03%
Terminal-Bench 2.0 59.30% 38.20% 75.10%
GPQA Diamond (과학 추론) 85.48% 81.57% 93.00%
Toolathlon (도구 사용) 40.43% 26.85% 54.63%

출처: OpenAI 공식 발표문 (2026.03.18) / reasoning_effort=xhigh 기준

OSWorld-Verified 수치가 눈에 띕니다. GPT-5 mini가 42%였던 것을 GPT-5.4 mini는 70.60%로 끌어올렸습니다. 화면을 직접 읽고 클릭하는 컴퓨터 사용 능력이 1.68배 향상된 것인데, 에이전트 워크플로우를 구성하는 입장에서는 이게 가장 체감이 큰 변화입니다.

다만 본 모델(GPT-5.4)과의 격차도 확인해야 합니다. Terminal-Bench 2.0에서 mini(59.30%)와 본 모델(75.10%)의 차이는 15.8%p입니다. 빠른 단순 작업엔 mini가 맞고, 복잡한 터미널 자동화엔 본 모델이 여전히 우위입니다.

컨텍스트 윈도우, 여기서 걸립니다

GPT-5.4 본 모델의 컨텍스트 윈도우는 1,050,000 토큰입니다. GPT-5.4 mini와 nano는 400,000 토큰입니다. (출처: OpenAI 공식 발표문, 2026.03.18) 60% 이상 차이가 나기 때문에, 긴 문서를 통째로 넣거나 긴 대화 히스토리를 유지해야 하는 작업에서는 mini가 중간에 잘립니다.

💡 벤치마크 점수만 보면 보이지 않는 부분이 있습니다

OpenAI MRCR v2 8-needle 롱 컨텍스트 테스트에서 GPT-5.4 mini는 128K~256K 구간에서 20.93%를 기록했습니다. 같은 테스트에서 GPT-5.4 본 모델은 79.25%입니다. 즉, 200K짜리 문서를 mini에 넣으면 안에 있는 정보를 5번 중 4번은 제대로 못 찾는다는 의미입니다. 긴 코드베이스나 계약서 전체를 처리하는 용도라면 이 점을 반드시 확인해야 합니다.

대신 64K 이하의 일반적인 대화·코딩·문서 작업에서는 mini도 충분합니다. Graphwalks BFS 0K~128K 구간에서 76.00%로, GPT-5 mini(73.43%)보다 높습니다. 짧고 빠른 반복 작업이 많다면 mini가 오히려 더 실용적입니다.

ChatGPT에서 무료로 쓰는 법

GPT-5.4 mini는 ChatGPT 내에서 “GPT-5.4 Thinking mini”라는 이름으로 제공됩니다. Free 플랜과 Go 플랜 사용자는 대화창 하단의 ‘+’ 버튼을 누르고 ‘잘 생각하기’를 선택하면 됩니다. 바로 GPT-5.4 Thinking mini가 활성화됩니다. (출처: 나무위키 GPT-5 문서)

Plus 요금제 이상은 기본 GPT-5.4 Thinking을 쓰다가 한도가 소진되면 자동으로 GPT-5.4 Thinking mini로 전환됩니다. 즉 Plus 사용자에게는 자동 대체 모델(fallback)로 동작하는 구조입니다.

GPT-5.4 nano는 이 경로로 쓸 수 없습니다. API 전용으로만 제공됩니다. ChatGPT 앱에서 nano를 직접 선택하는 옵션은 현재(2026.03.18 기준) 없습니다.

GPT-5.4 nano와 뭐가 다른가요?

nano는 같은 400K 컨텍스트에 API 전용, 그리고 더 낮은 가격이 특징입니다. 입력 $0.20, 출력 $1.25로 mini보다 훨씬 쌉니다. 분류·데이터 추출·랭킹·간단한 코딩 보조처럼 대량으로 처리해야 하는 단순 작업에 어울립니다. (출처: OpenAI 공식 발표문, 2026.03.18)

항목 GPT-5.4 mini GPT-5.4 nano
입력 가격 (1M 토큰) $0.75 $0.20
출력 가격 (1M 토큰) $4.50 $1.25
컨텍스트 윈도우 400K 토큰 400K 토큰
ChatGPT 접근 Free·Go·Plus 가능 API 전용
SWE-Bench Pro 53.40% 52.39%
OSWorld-Verified 70.60% 측정값 없음

출처: OpenAI 공식 발표문 (2026.03.18)

SWE-Bench Pro 기준으로 mini(53.40%)와 nano(52.39%)의 차이는 1.01%p에 불과합니다. 코딩 성능 자체는 거의 같은데 nano가 약 1/3 가격입니다. 단, UI 조작·컴퓨터 사용 기능이 필요하다면 nano에 OSWorld 수치가 없으므로 mini를 선택해야 합니다.

자주 나오는 질문들

Q. GPT-5.4 mini를 ChatGPT 무료 플랜에서 쓸 수 있나요?
됩니다. ChatGPT Free·Go 플랜에서 ‘+’ 버튼 → ‘잘 생각하기’를 누르면 GPT-5.4 Thinking mini가 활성화됩니다. 다만 사용 횟수 한도는 OpenAI가 별도 공지하며, 한도 초과 시 더 가벼운 모델로 전환될 수 있습니다.
Q. GPT-5 mini를 그냥 쓰는 게 더 저렴하지 않나요?
API 가격만 보면 맞습니다. GPT-5 mini는 입력 $0.25인 반면 GPT-5.4 mini는 $0.75입니다. 그러나 GPT-5 mini는 2026년 4월 18일(KST)부로 ChatGPT Thinking mini 지원이 종료됩니다. API는 계속 사용할 수 있지만, 장기적으로 GPT-5.4 mini로 전환을 고려해야 합니다.
Q. GPT-5.4 nano는 언제 쓰는 게 맞나요?
대량 분류, 텍스트 정제, 데이터 추출처럼 빠르고 단순한 작업을 반복 처리할 때 적합합니다. 코딩 성능은 mini와 1%p 차이밖에 없고 가격은 훨씬 낮습니다. 단, 컴퓨터 사용(화면 조작) 기능이 필요하거나 ChatGPT에서 직접 쓰고 싶다면 nano는 옵션이 없습니다.
Q. Codex에서 mini를 쓰면 비용이 얼마나 줄어드나요?
OpenAI 공식 발표에 따르면 GPT-5.4 mini는 Codex에서 GPT-5.4 쿼터의 30%만 소모합니다. 같은 작업 기준으로 본 모델 대비 약 1/3 비용으로 처리 가능하다는 의미입니다. 단순 코드 검색이나 대형 파일 검토처럼 서브에이전트 역할에 mini를 쓰면 실질 비용 절감 효과가 큽니다.
Q. 긴 문서 처리에 mini를 써도 될까요?
64K 토큰 이하의 문서라면 문제없습니다. 그러나 128K를 넘어가면 주의가 필요합니다. OpenAI MRCR v2 롱 컨텍스트 테스트에서 128K~256K 구간 정보 검색 정확도가 20.93%에 불과합니다. 200K짜리 긴 계약서나 코드베이스를 통째로 넣는 작업에는 GPT-5.4 본 모델(79.25%)이 적합합니다.

마치며 — 이게 진짜 핵심입니다

GPT-5.4 mini는 성능 면에서 분명히 진보했습니다. OSWorld 점수가 GPT-5 mini 대비 1.68배 뛴 것은 벤치마크 수치가 아니라 실제 에이전트 워크플로우에서 체감될 수준입니다. 코딩·멀티모달·도구 사용 모두 이전 경량 세대를 압도합니다.

그런데 이 모델을 “경량이라 저렴하다”는 전제로 접근하면 요금 계획이 틀어집니다. 이전 세대 대비 입력 3배, 출력 2.25배 인상이라는 사실은 공식 발표문 어디에도 크게 강조되어 있지 않습니다. 직접 계산해봐야 보입니다.

64K 이내 작업을 빠르게 반복 처리하거나, Codex 서브에이전트로 쓴다면 mini는 합리적인 선택입니다. 긴 문서 처리나 비용 최소화가 우선이라면 각각 GPT-5.4 본 모델과 nano를 검토하는 게 맞습니다. 어떤 쪽이든 먼저 요금 시뮬레이션을 해보는 걸 권합니다.

📎 본 포스팅 참고 자료

  1. OpenAI 공식 — GPT-5.4 mini 및 nano 출시 발표문 (2026.03.17)
  2. OpenAI 공식 — GPT-5.4 소개 페이지 (2026.03.05)
  3. 나무위키 GPT-5 문서 — 출시 배경 및 가격 변동 정리
  4. GeekNews — GPT-5.4 mini·nano 공개 요약 (2026.03.18)

본 포스팅 작성 이후 서비스 정책·UI·기능·요금이 변경될 수 있습니다. 모든 수치는 OpenAI 공식 발표문(2026.03.18) 기준이며, 최신 정보는 OpenAI 공식 사이트에서 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기