GPT-5.4 mini 직접 써봤습니다 — Free라고 같은 게 아닙니다

Published on

in

GPT-5.4 mini 직접 써봤습니다 — Free라고 같은 게 아닙니다

📅 2026.03.25 기준
GPT-5.4 mini 2026.03.17 출시
IT/AI

GPT-5.4 mini 직접 써봤습니다
— Free라고 같은 게 아닙니다

결론부터 말씀드리면, GPT-5.4 mini는 누구나 쓸 수 있지만 요금제에 따라 접근 방식이 완전히 다릅니다. Free 유저는 “Thinking” 버튼을 통해서만 진입할 수 있고, 유료 플랜은 GPT-5.4 Thinking 한도 초과 시 자동으로 폴백(fallback)으로 받게 됩니다. 같은 모델 이름인데 쓰는 경로가 다르다는 얘기입니다. 이 차이가 실제로 어떤 의미인지, 벤치마크 수치로 직접 따져봤습니다.

2x
GPT-5 mini 대비 속도
54.4%
SWE-Bench Pro 점수
$0.75
API 입력 토큰 / 1M
400K
컨텍스트 윈도우

GPT-5.4 mini가 뭔가요? 한 줄 정리

GPT-5.4 mini는 2026년 3월 17일 OpenAI가 공개한 경량 모델입니다. 전작인 GPT-5 mini보다 코딩·추론·멀티모달·툴 사용 전 영역에서 성능이 올랐고, 속도는 2배 이상 빨라졌습니다. 기존에 GPT-5 mini를 쓰고 있었다면 사실상 전면 교체가 이루어진 셈입니다. (출처: OpenAI 공식 블로그, 2026.03.17)

한 가지 짚고 넘어갈 게 있습니다. 같은 날 GPT-5.4 nano도 함께 나왔는데, nano는 API 전용입니다. ChatGPT 앱에서 직접 쓸 수 없다는 점이 mini와 다릅니다. nano는 분류·데이터 추출·랭킹처럼 속도와 비용이 최우선인 자동화 파이프라인에 적합합니다.

GPT-5.4 mini는 텍스트·이미지 입력, 툴 사용, 함수 호출, 웹 검색, 파일 검색, 컴퓨터 사용(CUA), 스킬을 모두 지원합니다. 400K 컨텍스트 윈도우를 제공하며, API 요금은 입력 100만 토큰당 $0.75, 출력 100만 토큰당 $4.50입니다. (출처: OpenAI 공식 블로그, 2026.03.17)

▲ 목차로 돌아가기

Free 유저가 착각하기 쉬운 접근 방식

💡 공식 릴리스 노트와 실제 ChatGPT UI 흐름을 같이 놓고 보니 이런 차이가 보였습니다.

GPT-5.4 mini가 무료로 풀렸다는 소식에 “이제 무료로 최신 모델 쓸 수 있다”고 생각하기 쉽습니다. 막상 확인해 보면 다릅니다. Free·Go 요금제 사용자는 GPT-5.4 mini를 모델 선택기에서 직접 고를 수 없습니다. + 메뉴의 “Thinking” 기능을 통해서만 진입이 가능합니다. (출처: OpenAI 한국어 릴리스 노트, 2026.03.18)

유료 플랜(Plus·Pro·Team) 사용자에게는 경로가 또 다릅니다. 이들은 GPT-5.4 Thinking의 요청 한도에 도달했을 때 자동 폴백(fallback)으로 mini가 제공됩니다. 본인이 선택하는 게 아니라 한도 초과 후 자동으로 전환되는 구조입니다. 간단히 말하면, Free는 “Thinking 버튼 눌러야 진입”, 유료는 “한도 소진 후 자동 전환”이 기본 시나리오입니다.

더불어 OpenAI 공식 문서에 딱 이렇게 나옵니다. “GPT-5.4 mini는 모델 선택기에서 선택 가능한 모델로 표시되지 않으며, GPT-5 Thinking mini는 30일 후 선택 가능한 옵션에서 제외됩니다.” (출처: OpenAI 한국어 릴리스 노트, 2026.03.18) 즉, mini라는 이름이 UI에 노출되는 구간 자체가 한시적입니다.

⚠️ 주의: Enterprise 고객은 Auto 라우팅 기본값을 GPT-5.4 mini로 설정하는 옵션을 별도로 유지합니다. 일반 ChatGPT 사용자와 동작 방식이 다릅니다. (출처: OpenAI 공식 블로그, 2026.03.17)

▲ 목차로 돌아가기

벤치마크 수치로 성능 직접 확인

OpenAI가 공개한 벤치마크 표를 보면 GPT-5.4 mini의 위치가 꽤 인상적입니다. 코딩 평가인 SWE-Bench Pro(Public)에서 GPT-5.4 mini는 54.4%를 기록했는데, 전작 GPT-5 mini의 45.7%보다 약 8.7%p 높습니다. 플래그십인 GPT-5.4의 57.7%와는 3.3%p 차이입니다. (출처: OpenAI 공식 블로그, 2026.03.17)

벤치마크 GPT-5.4 GPT-5.4 mini GPT-5 mini
SWE-Bench Pro (코딩) 57.7% 54.4% 45.7%
Terminal-Bench 2.0 75.1% 60.0% 38.2%
GPQA Diamond (지능) 93.0% 88.0% 81.6%
OSWorld-Verified (CUA) 75.0% 72.1% 42.0%
Toolathlon (툴 호출) 54.6% 42.9% 26.9%

출처: OpenAI 공식 블로그 (2026.03.17), xhigh reasoning_effort 기준

특히 컴퓨터 사용(CUA) 지표인 OSWorld-Verified에서 mini(72.1%)와 플래그십 GPT-5.4(75.0%)의 격차가 단 2.9%p입니다. 가격이 3배 이상 차이나는데 성능 차이가 이 정도라면, UI 자동화나 스크린샷 해석 작업에서는 mini를 쓰는 게 현실적으로 더 합리적입니다.

단, 벤치마크 그래프의 Y축이 35%에서 시작한다는 점은 짚어둬야 합니다. DataCamp 분석에서도 지적된 내용인데, Y축이 0에서 시작했다면 모델 간 차이가 훨씬 좁아 보였을 겁니다. 수치의 절대값보다 상대적 차이에 집중해서 봐야 하는 이유입니다. (출처: DataCamp, 2026.03.17)

▲ 목차로 돌아가기

Codex에서 쓸 때만 생기는 이점

💡 공식 발표문과 Codex 문서를 함께 보니, ChatGPT 웹 UI와 Codex 환경에서 mini의 역할이 완전히 달라진다는 게 보였습니다.

Codex 환경에서 GPT-5.4 mini를 사용하면 GPT-5.4 쿼터의 30%만 소모합니다. 실제로 뭘 의미하냐면, GPT-5.4로 100회 처리할 수 있는 Codex 작업을 mini로 돌리면 약 333회까지 늘어난다는 계산입니다. (출처: OpenAI 공식 블로그, 2026.03.17) 단순 코딩 태스크를 대량으로 돌리는 상황에서는 비용 구조가 크게 달라집니다.

Codex는 서브에이전트 구조도 지원합니다. 계획·판단·최종 검토는 GPT-5.4가 맡고, 코드베이스 검색·대용량 파일 리뷰·지원 문서 처리처럼 반복적인 서브태스크는 병렬로 mini가 처리하는 방식입니다. 큰 모델이 결정하고 작은 모델이 실행하는 구조인데, 이게 잘 설계되면 비용과 속도를 동시에 잡을 수 있습니다.

GPT-5.4 mini는 Codex 앱·CLI·IDE 확장·웹 전역에서 사용 가능합니다. 반면 GPT-5.4 nano는 Codex를 포함해 API에서만 쓸 수 있고 ChatGPT UI에는 들어오지 않습니다. 기업 환경에서 개발 파이프라인을 짠다면 이 차이를 미리 알아두면 설계 단계에서 실수를 줄일 수 있습니다.

▲ 목차로 돌아가기

장기 컨텍스트에서 성능이 급락하는 이유

⚠️ 긴 문서 처리에 mini를 쓰기 전에 이 수치를 먼저 보세요.

GPT-5.4 mini가 전반적으로 플래그십에 근접한다는 인상을 주지만, 장기 컨텍스트 구간에서는 얘기가 달라집니다. OpenAI MRCR v2 8-needle 테스트(64K~128K 구간)에서 GPT-5.4는 86.0%를 기록한 반면 GPT-5.4 mini는 47.7%에 그쳤습니다. (출처: OpenAI 공식 블로그, 2026.03.17) 거의 절반 수준으로 떨어집니다.

128K~256K 구간으로 넘어가면 격차는 더 벌어집니다. GPT-5.4가 79.3%를 유지하는 동안 mini는 33.6%로 내려갑니다. GPT-5 mini(19.4%)보다는 낫지만, 장문 문서 분석·법률 계약서 검토·긴 코드베이스 파악처럼 긴 문맥이 핵심인 작업에서는 mini를 쓰면 정확도에서 손해를 볼 수 있습니다.

이 수치가 말하는 건 하나입니다. 짧고 반복적인 태스크에는 mini가 경제적이고 빠르지만, 한 번의 요청에서 대용량 문맥을 이해해야 하는 상황에서는 플래그십 GPT-5.4가 필요합니다. 400K 컨텍스트를 지원한다는 스펙과 실제로 그 구간에서 정확하게 답한다는 건 다른 문제입니다.

▲ 목차로 돌아가기

nano와의 가격·성능 비교 — 어떤 걸 골라야 할까

GPT-5.4 nano의 API 요금은 입력 100만 토큰당 $0.20, 출력 100만 토큰당 $1.25입니다. mini($0.75/$4.50)와 비교하면 입력은 약 3.7배 저렴하고, 출력은 약 3.6배 차이가 납니다. (출처: OpenAI 공식 블로그, 2026.03.17) 대량 처리 파이프라인에서는 이 차이가 월 비용에 눈에 띄는 영향을 줍니다.

항목 GPT-5.4 mini GPT-5.4 nano GPT-5.4
입력 토큰 / 1M $0.75 $0.20 $2.50
출력 토큰 / 1M $4.50 $1.25 $15.00
컨텍스트 윈도우 400K 400K 400K
ChatGPT UI 접근 ❌ (API 전용)
SWE-Bench Pro 54.4% 52.4% 57.7%
OSWorld-Verified 72.1% 39.0% 75.0%

출처: OpenAI 공식 블로그 (2026.03.17)

nano와 mini의 코딩 성능 차이는 생각보다 좁습니다. SWE-Bench Pro에서 단 2%p 차이입니다. 하지만 컴퓨터 사용(CUA) 쪽으로 넘어가면 nano(39.0%)와 mini(72.1%) 간 격차가 33%p로 벌어집니다. nano는 CUA에 적합하지 않습니다.

경쟁사 비교도 주목할 만합니다. DataCamp 분석에 따르면 GPT-5.4 nano($0.20/$1.25)는 Anthropic Claude Haiku 4.5($1.00/$5.00)보다 입력 5배, 출력 4배 저렴합니다. GPQA Diamond에서 nano는 82.8%, Haiku 4.5보다 약 9.8%p 높은 수치입니다. 단, OSWorld 계열 테스트에서는 벤치마크 버전이 달라 직접 비교는 어렵습니다. (출처: DataCamp, 2026.03.17)

결론적으로, 대량 분류·추출·단순 서브에이전트라면 nano, ChatGPT 앱 접근이 필요하거나 CUA·멀티모달 작업이 포함되면 mini가 현실적인 선택입니다.

▲ 목차로 돌아가기

Q&A 5가지

Q1. ChatGPT Free 유저도 GPT-5.4 mini를 실제로 쓸 수 있나요?

쓸 수 있습니다. 단 모델 선택기에서 직접 고르는 방식이 아니라, ChatGPT의 + 메뉴 → “Thinking” 기능을 통해서만 진입할 수 있습니다. 방식이 다르다는 점을 미리 알고 있어야 헤매지 않습니다. (출처: OpenAI 한국어 릴리스 노트, 2026.03.18)

Q2. GPT-5.4 mini와 GPT-5.4의 성능 차이가 실제로 크게 느껴지나요?

코딩·CUA 같은 일반 작업에서는 체감 차이가 크지 않습니다. SWE-Bench Pro에서 3.3%p, OSWorld-Verified에서 2.9%p 차이입니다. 단, 64K 토큰을 넘는 장문 컨텍스트 작업에서는 mini의 정확도가 뚜렷이 낮아집니다. 짧고 명확한 태스크 기준으로는 mini가 실용적입니다.

Q3. GPT-5.4 nano는 ChatGPT 앱에서 쓸 수 있나요?

쓸 수 없습니다. GPT-5.4 nano는 API 전용으로 출시됐습니다. ChatGPT UI나 Codex에서 직접 선택하는 옵션이 없습니다. 개발자가 API를 통해 직접 호출하는 방식으로만 사용 가능합니다. (출처: OpenAI 공식 블로그, 2026.03.17)

Q4. Codex에서 mini를 쓰면 쿼터가 얼마나 절약되나요?

GPT-5.4 쿼터의 30%만 소비합니다. 반대로 말하면, 같은 쿼터로 GPT-5.4 대비 약 3.3배 많은 작업을 처리할 수 있습니다. 단순 코딩 서브태스크처럼 고성능 추론이 굳이 필요 없는 작업을 mini에 맡기면 쿼터를 아낄 수 있습니다. (출처: OpenAI 공식 블로그, 2026.03.17)

Q5. GPT-5.4 mini가 Claude Haiku 4.5보다 저렴한가요?

mini 기준으로는 Haiku 4.5($1.00/$5.00)보다 mini($0.75/$4.50)가 소폭 저렴합니다. nano($0.20/$1.25)는 훨씬 저렴합니다. 단, 성능 벤치마크 비교는 테스트 버전이 다르기 때문에 직접적인 수치 비교보다는 실제 태스크에서 테스트해보는 게 더 정확합니다. (출처: DataCamp, 2026.03.17)

▲ 목차로 돌아가기

마치며

GPT-5.4 mini는 “경량 모델이 이 정도까지 올라왔구나”를 실감하게 해주는 릴리스입니다. 코딩·멀티모달·툴 호출에서 플래그십 GPT-5.4와 5% 내외 격차를 유지하면서 속도는 2배 이상 빠르고, API 요금은 플래그십의 약 30% 수준입니다.

그렇다고 mini가 모든 상황에서 최선은 아닙니다. 64K 토큰을 넘어가는 장문 컨텍스트에서 정확도가 절반 가까이 떨어지는 건 실제 워크플로 설계에서 반드시 고려해야 할 한계입니다. 장문 계약서나 긴 코드베이스 분석에 mini를 투입하면 비용은 아끼되 결과 품질에서 손해를 볼 수 있습니다.

솔직히 말하면, 이제 AI 서비스는 “모델 하나 선택”이 아니라 “어떤 태스크에 어떤 크기의 모델을 배치할 것인가”의 설계 문제가 됐습니다. mini와 nano를 서브에이전트로 두고 GPT-5.4가 전체를 조율하는 구조가 점점 표준에 가까워지고 있습니다. 이 흐름을 미리 파악해두면 비용과 품질을 동시에 잡는 파이프라인을 설계할 수 있습니다.

▲ 목차로 돌아가기

📚 본 포스팅 참고 자료

  1. ① OpenAI 공식 블로그 — “Introducing GPT-5.4 mini and nano” (2026.03.17)
    https://openai.com/index/introducing-gpt-5-4-mini-and-nano/
  2. ② OpenAI 한국어 모델 릴리스 노트 (2026.03.18)
    https://help.openai.com/ko-kr/articles/9624314-model-release-notes
  3. ③ ZDNET — “OpenAI launches GPT-5.4 mini and nano” (2026.03.17)
    https://www.zdnet.com/article/gpt-5-4-mini-and-nano/
  4. ④ DataCamp — “GPT-5.4 mini and nano: Benchmarks, Access, and Reactions” (2026.03.17)
    https://www.datacamp.com/blog/gpt-5-4-mini-nano
  5. ⑤ OpenAI API 가격표 (2026.03 기준)
    https://openai.com/api/pricing/

※ 본 포스팅은 2026년 3월 25일 기준으로 작성되었습니다. 이후 서비스 정책·UI·기능·요금이 변경될 수 있습니다. 최신 정보는 OpenAI 공식 사이트에서 직접 확인하세요. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기