GPT-5.4 mini, 무료로 쓸 수 있다는 말 절반만 맞습니다

Published on

in

GPT-5.4 mini, 무료로 쓸 수 있다는 말 절반만 맞습니다

2026.03.18 출시 기준
GPT-5.4 mini
OpenAI 공식 발표 기반

GPT-5.4 mini, 무료로 쓸 수 있다는 말 절반만 맞습니다

2026년 3월 18일, OpenAI가 GPT-5.4 mini와 nano를 공식 출시했습니다. “무료 사용자도 추론 기능을 쓸 수 있게 됐다”는 반응이 퍼졌지만, 실제로 들어가 보면 조건이 꽤 다릅니다. 모델 선택기에 없고, 한도가 따로 있으며, nano는 ChatGPT 앱에서 아예 없습니다. 공식 발표문과 헬프센터 문서를 직접 확인하고 정리했습니다.

2.1×
GPT-5 mini 대비 코딩 속도
47.7%
64K~128K 문맥 정확도
400K
컨텍스트 윈도우 (API)
0
ChatGPT 앱 내 nano 접근

GPT-5.4 mini가 나온 이유 — 플래그십 성능, 소형 가격

결론부터 말씀드리면, GPT-5.4 mini는 “작게 만든 GPT-5.4″가 아닙니다. OpenAI 공식 발표문에 딱 이렇게 나옵니다 — “플래그십 모델의 강점을 빠르고 효율적인 모델로 가져왔다”(출처: OpenAI 공식 블로그, 2026.03.18). 코딩 벤치마크인 SWE-Bench Pro에서 GPT-5.4 mini는 54.4%를 기록했는데, GPT-5.4 본 모델이 57.7%임을 감안하면 격차는 3.3%p에 불과합니다. 본 모델의 94%에 가까운 코딩 성능을 훨씬 낮은 비용으로 내는 셈입니다.

속도도 중요한 포인트입니다. OpenAI는 GPT-5.4 mini가 GPT-5 mini(이전 세대) 대비 2배 이상 빠르다고 밝혔습니다(출처: OpenAI 공식 블로그, 2026.03.18). 코딩 어시스턴트처럼 응답 속도가 곧 사용자 경험인 환경에서 속도 2배는 체감 차이가 큽니다.

단, API 가격은 이전 세대인 GPT-5 mini와 비교하면 입력 기준 3배(MB당 $0.25 → $0.75), 출력 기준 2.25배(MB당 $2 → $4.50)로 올랐습니다. 성능 대비 가성비가 오른 건 맞지만, 순수 비용만 놓고 보면 이전보다 비싸졌습니다.(출처: 나무위키 GPT-5 항목, 2026.03.22 접속 기준)

▲ 목차로 돌아가기

선택기에 없는 모델 — 접근 구조 정확히 이해하기

💡 공식 발표문과 헬프센터 문서를 같이 보니 이런 차이가 보였습니다. 발표는 “무료 사용자도 쓸 수 있다”고 했지만, 실제 접근 경로는 꽤 다릅니다.

GPT-5.4 mini는 모델 선택기에 표시되지 않습니다. OpenAI 공식 릴리스 노트에 “GPT-5.4 mini는 모델 선택기에서 선택 가능한 옵션으로 표시되지 않는다”고 명시되어 있습니다(출처: OpenAI ChatGPT Release Notes, 2026.03.18). 즉, 이름을 보고 직접 고를 수 없는 모델입니다.

대신 두 가지 경로로 접근됩니다. 첫째, 무료(Free)·Go 요금제 사용자가 메시지 입력창 왼쪽 ‘+’ 메뉴에서 ‘잘 생각하기(Thinking)’를 선택하면 GPT-5.4 mini가 동작합니다. 둘째, Plus 이상 요금제 사용자가 GPT-5.4 Thinking의 주간 한도(3,000건)를 다 소진했을 때 자동 폴백(fallback)으로 mini가 투입됩니다. 자신이 mini를 쓰고 있다는 걸 의식하지 못하는 경우가 생깁니다.

기존 GPT-5 Thinking mini는 이 모델의 출시에 따라 2026년 4월 18일(한국 시간 기준)에 지원이 종료됩니다. 30일도 안 남았습니다.(출처: 나무위키 GPT-5 항목, 2026.03.22 접속 기준)

▲ 목차로 돌아가기

Free·Plus·Pro 요금제별 실제 사용 방법

요금제마다 접근 방식과 한도가 다릅니다. OpenAI 헬프센터 공식 문서(2026.03.22 기준)를 기반으로 정리했습니다.

요금제 접근 방법 GPT-5.4 mini 한도 컨텍스트 윈도우
Free + 메뉴 → 잘 생각하기 GPT-5.3 10건/5h 소진 후 자동 전환 16K
Go + 메뉴 → 잘 생각하기 10건/5h (Thinking 직접 선택 시)
Plus GPT-5.4 Thinking 한도 소진 시 자동 폴백 주간 3,000건 초과 후 폴백 무제한 256K
Pro Thinking 한도 소진 시 자동 폴백 폴백 시 무제한(abuse 가드레일 적용) 400K

여기서 중요한 포인트가 하나 있습니다. Plus 플랜에서 GPT-5.4 Thinking을 주간 3,000건 다 쓰면 선택기에서 Thinking을 고를 수 없게 됩니다. 그런데 자동 전환(Instant가 복잡한 질문을 Thinking으로 라우팅하는 것)은 이 주간 한도와 별개로 동작합니다. 3,000건을 다 소진해도 자동 전환은 계속 작동한다는 뜻입니다. 이 부분은 OpenAI 헬프센터 공식 문서에 그대로 나와 있습니다(출처: OpenAI Help Center, GPT-5.3 and GPT-5.4 in ChatGPT, 2026.03.22 기준).

Free 사용자 입장에서는 GPT-5.3을 5시간에 10건 쓰고 나면 자동으로 mini 버전으로 넘어갑니다. 주간 한도 이야기와 다른 구조입니다. 추론 기능을 Free 요금제에서 쓰려면 한도 소진을 기다리는 게 아니라, ‘+’ 메뉴에서 직접 Thinking을 켜는 게 맞습니다.

▲ 목차로 돌아가기

벤치마크로 보는 진짜 강점과 놓치면 안 될 약점

GPT-5.4 mini가 앞서는 구간

OSWorld-Verified(컴퓨터 사용 자동화 벤치마크)에서 GPT-5.4 mini는 72.1%를 기록했습니다. 이전 세대 GPT-5 mini가 42.0%였으니 30%p 이상 뛴 겁니다(출처: OpenAI 공식 발표, 2026.03.18). 스크린샷을 인식해서 UI를 조작하는 작업에서는 mini와 본 모델의 차이가 생각보다 작습니다.

도구 호출(Tool-calling) 벤치마크인 Toolathlon에서도 GPT-5.4 mini는 42.9%로 이전 GPT-5 mini의 26.9%에서 16%p 올랐습니다. MCP, 함수 호출이 들어가는 에이전트 워크플로에서 mini를 써도 예전보다 훨씬 믿을 만합니다.

긴 문맥에서 성능이 절반 아래로 떨어지는 문제

💡 공식 벤치마크 수치를 본 모델과 나란히 놓고 보니, 긴 문서를 다루는 작업에서는 mini 선택이 생각보다 큰 손해일 수 있습니다.

장문 문맥에서는 격차가 심해집니다. OpenAI 공식 벤치마크 자료에 따르면, 64K~128K 구간에서 GPT-5.4 본 모델의 정확도가 86.0%인 반면 mini는 47.7%에 그칩니다(출처: OpenAI 공식 발표, introducing-gpt-5-4-mini-and-nano, 2026.03.18). 절반 조금 넘는 수준입니다. 128K~256K 구간은 더 벌어져서 79.3% vs 33.6%입니다. 이 수치는 mini가 수십 만 토큰짜리 긴 문서를 분석하거나, 대규모 코드베이스를 끝까지 따라가야 하는 작업에는 적합하지 않다는 뜻입니다.

컨텍스트 윈도우도 차이가 있습니다. API 기준으로 GPT-5.4 본 모델은 1,050,000 토큰인데, mini와 nano는 400,000 토큰으로 제한됩니다. 창이 더 좁은 데다 긴 문맥에서 성능도 낮아지는 이중 제한입니다.

▲ 목차로 돌아가기

Codex에서 mini가 특히 유리한 이유

💡 ChatGPT 앱 기준이 아닌 Codex 환경에서 보면, mini의 쿼터 절약 효과가 본 모델과의 성능 차이보다 실질적으로 더 중요하게 느껴집니다.

OpenAI Codex에서 GPT-5.4를 쓸 때, mini는 GPT-5.4 본 모델 쿼터의 30%만 소모합니다(출처: OpenAI 공식 발표, introducing-gpt-5-4-mini-and-nano, 2026.03.18). 같은 쿼터로 본 모델 1번 쓸 돈으로 mini는 3번 넘게 쓸 수 있다는 계산입니다. 실제로 코딩 작업에서는 플래닝이나 최종 검토 같은 단계에는 본 모델을, 파일 검색이나 단순 로직 작성 같은 반복 작업에는 mini를 쓰는 패턴이 비용 효율 면에서 유리합니다.

Terminal-Bench 2.0이라는 터미널 에이전트 벤치마크에서 GPT-5.4 mini는 60.0%를 기록했습니다. GPT-5.4 본 모델이 75.1%인데 반해 15%p 낮지만, GPT-5 mini(38.2%)와 비교하면 약 22%p 높습니다(출처: OpenAI 공식 발표, 2026.03.18). 터미널 에이전트 작업에 mini를 써도 이전 세대보다 훨씬 안정적입니다.

Codex는 mini 서브에이전트를 병렬로 돌릴 수도 있습니다. 큰 모델이 계획을 짜고, mini가 동시에 여러 하위 작업(파일 검색, 문서 요약 등)을 나눠 처리하는 구조입니다. 이 패턴에서는 mini가 느리거나 틀리는 것보다 빨리 끝나고 적게 쓰는 게 더 중요합니다.

▲ 목차로 돌아가기

nano는 ChatGPT 앱에 없습니다 — API 전용 구조

“GPT-5.4 mini 와 nano“라는 타이틀로 출시됐지만, nano는 API 전용입니다. OpenAI 공식 발표에 “GPT-5.4 nano는 API에서만 사용 가능하다”고 명시되어 있습니다(출처: OpenAI 공식 발표, introducing-gpt-5-4-mini-and-nano, 2026.03.18). ChatGPT 앱 어디에서도 nano를 직접 선택하거나 자동 폴백으로 받을 수 없습니다.

구분 GPT-5.4 mini GPT-5.4 nano
ChatGPT 앱 ✔ 가능 (폴백/Thinking) ✘ 없음
Codex ✔ 사용 가능 ✘ 없음
API (gpt-5.4-mini) ✔ 가능, $0.75/1M in ✔ 가능, $0.20/1M in
컨텍스트 윈도우 400K 토큰 400K 토큰
이미지 입력 ✔ 지원 ✘ 미지원

nano는 이미지 처리 기능도 없습니다. 텍스트 기반 분류, 데이터 추출, 랭킹, 단순한 하위 에이전트 작업처럼 속도와 비용이 최우선인 워크플로 전용입니다. SWE-Bench Pro에서 52.4%를 기록하며 이전 세대보다 성능이 올랐지만, 멀티모달 작업에는 쓸 수 없습니다(출처: OpenAI 공식 발표, 2026.03.18). nano 가격($0.20/1M 입력)만 보고 ChatGPT 앱에서 쓸 수 있는 모델로 오해하지 않는 게 중요합니다.

API 가격을 이전 세대와 비교하면, nano는 GPT-5 nano 대비 입력 4배, 출력 3.125배 인상됐습니다. mini보다 인상 폭이 더 크지만, 절대 금액으로는 여전히 가장 저렴한 GPT-5.4 계열 모델입니다.

▲ 목차로 돌아가기

자주 묻는 질문 5가지

Q1. GPT-5.4 mini를 무료 사용자가 직접 선택할 수 있나요?

직접 선택은 안 됩니다. Free 사용자는 ‘+’ 메뉴에서 Thinking(잘 생각하기)을 켜거나, GPT-5.3의 5시간 한도(10건)를 소진하면 자동으로 mini 버전이 사용됩니다. 모델 선택기에는 표시되지 않습니다.(출처: OpenAI ChatGPT Release Notes, 2026.03.18)

Q2. Plus 요금제에서 주간 3,000건 한도를 다 쓰면 Thinking을 아예 못 쓰나요?

수동 선택은 안 됩니다. 그런데 Instant 모드에서 복잡한 질문을 받을 때 ChatGPT가 자동으로 Thinking으로 전환하는 것은 이 주간 한도와 별도로 작동합니다. 즉, 3,000건 소진 후에도 자동 전환은 계속됩니다.(출처: OpenAI Help Center, 2026.03.22)

Q3. GPT-5.4 nano를 ChatGPT 앱에서 쓸 수 없나요?

맞습니다. nano는 API 전용입니다. ChatGPT 앱, Codex 어디에서도 nano에 접근할 수 없습니다. 이미지 입력도 지원하지 않습니다.(출처: OpenAI 공식 발표, 2026.03.18)

Q4. 긴 문서 분석에 mini를 써도 되나요?

64K를 넘어가는 긴 문맥에서는 주의가 필요합니다. 공식 벤치마크에서 64K~128K 구간 정확도가 47.7%로 본 모델(86.0%)의 절반 수준입니다. 짧은 문서 분석이나 코딩 하위 작업에는 적합하지만, 전체 코드베이스나 긴 PDF 분석에는 본 모델을 쓰는 게 낫습니다.(출처: OpenAI 공식 발표, 2026.03.18)

Q5. GPT-5 Thinking mini는 언제까지 쓸 수 있나요?

GPT-5.4 mini 출시에 따라 기존 GPT-5 Thinking mini는 2026년 4월 18일(한국 시간 기준)에 지원 종료됩니다. 현재 기준으로 약 27일 남았습니다.(출처: 나무위키 GPT-5 항목, 2026.03.22 접속 기준)

▲ 목차로 돌아가기

마치며 — 어떤 상황에서 mini를 써야 할까

솔직히 말하면, GPT-5.4 mini는 기대 이상으로 잘 만든 모델입니다. 코딩 벤치마크에서 본 모델의 94%에 달하는 성능을 내면서 속도는 2배 이상 빠르고, Codex에서는 쿼터도 3분의 1만 씁니다. 단순 반복 작업, 짧은 문서 처리, 스크린샷 기반 UI 자동화에서는 굳이 본 모델을 쓸 이유가 없는 경우도 있습니다.

그런데 “무료로 추론 기능을 쓸 수 있다”는 식의 표현은 절반만 맞습니다. 접근 경로가 간접적이고, 직접 선택은 불가능하며, nano는 ChatGPT 앱에서 아예 없습니다. 긴 문맥 작업에서는 본 모델 대비 성능이 절반 이하로 떨어지는 구간이 존재합니다. 이 부분을 모르고 쓰면 생각보다 아쉬운 결과가 나올 수 있습니다.

이 글이 GPT-5.4 mini를 쓸지 말지 결정할 때 기준이 됐으면 합니다. 서비스 정책과 수치는 바뀔 수 있으므로, 중요한 결정 전에는 아래 공식 출처를 직접 확인하는 것을 권장합니다.

본 포스팅 참고 자료

  1. OpenAI 공식 발표: Introducing GPT-5.4 mini and nano — openai.com/index/introducing-gpt-5-4-mini-and-nano/
  2. OpenAI Help Center: GPT-5.3 and GPT-5.4 in ChatGPT — help.openai.com/en/articles/11909943
  3. OpenAI ChatGPT Release Notes — help.openai.com/ko-kr/articles/9624314
  4. 나무위키 GPT-5 항목 (2026.03.22 접속) — namu.wiki/w/GPT-5


⚠️ 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 본문의 수치는 2026년 3월 18일~22일 공개된 OpenAI 공식 발표 자료 및 헬프센터 문서 기준이며, 이후 업데이트로 달라질 수 있습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기