GPT-5.4 mini, 400K인데 절반도 못 읽습니다

Published on

in

GPT-5.4 mini, 400K인데 절반도 못 읽습니다

2026.03.18 출시 기준
GPT-5.4 mini / GPT-5.4 nano
OpenAI 공식 벤치마크 기준

GPT-5.4 mini, 400K인데 절반도 못 읽습니다

어제(3월 18일) 공개된 GPT-5.4 mini와 nano — 숫자는 인상적이지만 막상 공식 문서를 보면 실제로 쓸 수 있는 범위가 꽤 좁습니다. 컨텍스트 윈도우, 요금제별 접근 방식, 가격 구조까지 공식 수치로 정리했습니다.

🚀 GPT-5 mini 대비 3배 이상 빠름
⚠️ 128K 이상 컨텍스트 정확도 33.6%로 급락
💰 API 입력 가격 GPT-5 mini 대비 3배

어제 출시됐는데, 도대체 뭐가 달라진 걸까요?

GPT-5.4 mini와 nano는 2026년 3월 18일(현지 기준 3월 17일) OpenAI가 공식 발표한 경량 모델입니다. GPT-5.4의 성능을 더 빠르고 저렴하게 제공하는 것이 목표였는데, 결론부터 말씀드리면 속도 측면에서는 실제로 인상적입니다.

OpenAI 공식 발표에 따르면, GPT-5.4 mini는 GPT-5 mini 대비 코딩·추론·멀티모달 이해·도구 사용 전 항목에서 성능이 올랐습니다. 속도도 2배 이상 빨라졌다고 명시했습니다. (출처: OpenAI 공식 블로그, 2026.03.17)

GPT-5.4 nano는 더 아래에 있는 모델로, 분류·데이터 추출·랭킹·간단한 코딩 서브에이전트에 특화됩니다. 두 모델 모두 “가장 큰 모델이 항상 최선은 아니다 — 빠르게 응답하고, 도구를 안정적으로 쓰고, 복잡한 전문 작업을 잘 처리하는 모델이 더 낫다”는 것이 OpenAI의 설명입니다.

💡 공식 발표문과 실제 벤치마크를 같이 놓고 보니 이런 차이가 보였습니다

GPT-5.4 mini의 SWE-Bench Pro(코딩 벤치마크) 점수는 54.4%로, GPT-5.4 본 모델(57.7%)에 꽤 가깝습니다. 코딩 성능 격차가 생각보다 작다는 뜻인데, 이는 Codex에서 mini를 서브에이전트로 활용하는 구조가 충분히 실용적임을 공식 수치로 뒷받침합니다. (출처: OpenAI 공식 벤치마크, 2026.03.17)

▲ 목차로 돌아가기

400K 토큰이라는 숫자, 실제로는 이렇게 무너집니다

여기서 말이 좀 달라집니다. GPT-5.4 mini의 컨텍스트 윈도우는 400,000 토큰입니다. 400K 토큰이면 약 300~400페이지 분량의 긴 문서를 통째로 넣을 수 있는 크기입니다. 그런데 막상 400K 전체를 넣으면 실제로 잘 읽느냐 하면 — 공식 수치가 이 기대를 뒤집습니다.

⚠️ Long-Context 정확도 — 공식 수치 직접 비교 (OpenAI MRCR v2 8-needle 테스트)

컨텍스트 구간 GPT-5.4 (본 모델) GPT-5.4 mini
64K ~ 128K 86.0% 47.7%
128K ~ 256K 79.3% 33.6%

출처: OpenAI 공식 벤치마크 — Introducing GPT-5.4 mini and nano (2026.03.17)

숫자를 직접 해석하면 이렇습니다. 200,000토큰(약 150페이지)짜리 문서를 GPT-5.4 mini에 넣으면, 그 안에서 특정 정보를 찾아달라는 요청의 성공률이 약 33.6%에 그칩니다. 같은 테스트에서 GPT-5.4 본 모델은 79.3%입니다. 요약 작업이 아니라 “이 문서 어디에 이런 내용이 있어?”처럼 정확한 위치 탐색이 필요한 작업이라면, 400K를 가득 채울수록 오히려 신뢰도가 낮아집니다.

64K 이하에서는 mini도 충분히 쓸 수 있습니다. 문서 한두 개, 코드 파일 몇 개를 넣는 수준이라면 성능 격차가 크게 드러나지 않습니다. 단, 긴 계약서·보고서·코드베이스 전체를 한 번에 넣고 세밀하게 분석하려는 용도라면 본 모델과의 차이가 확실하게 납니다.

▲ 목차로 돌아가기

GPT-5.4 mini와 nano, 어디서 쓸 수 있나요?

GPT-5.4 mini는 API, Codex, ChatGPT 세 곳 모두에서 쓸 수 있습니다. ChatGPT에서는 + 메뉴의 Thinking 옵션으로 접근하는 방식인데, 요금제별로 경험이 꽤 다릅니다. 이 부분은 다음 섹션에서 따로 다룹니다.

Codex에서는 쿼터 소모 방식이 독특합니다. GPT-5.4 본 모델의 30%만 쿼터를 소비하므로 동일한 Codex 플랜에서 사실상 3배 이상의 요청을 처리할 수 있습니다. 단순 파일 검색, 대용량 문서 스캔, 병렬 서브태스크 처리에 Codex가 자동으로 GPT-5.4 mini를 서브에이전트로 할당하는 방식으로도 쓰입니다. (출처: OpenAI 공식 블로그, 2026.03.17)

GPT-5.4 nano는 API 전용입니다. ChatGPT 앱이나 Codex에서는 선택할 수 없고, 오로지 API를 통해 접근해야 합니다. 대량 분류나 데이터 추출 파이프라인처럼 사람이 직접 대화창을 쓰지 않는 자동화 워크플로를 위한 모델입니다.

💡 nano가 API 전용이라는 것은 공식 문서를 직접 확인하기 전까지 눈치채기 어렵습니다

“GPT-5.4 nano is only available in the API” — OpenAI 공식 발표 원문의 표현입니다. ChatGPT 웹·앱에서는 아무리 설정을 뒤져도 선택지가 나타나지 않습니다. 개발자용 모델이라는 정체성이 처음부터 명확하게 선을 긋고 있는 셈입니다.

▲ 목차로 돌아가기

Free 유저가 “무료로 된다”고 착각하는 지점이 있습니다

GPT-5.4 mini는 ChatGPT Free 유저도 쓸 수 있다고 알려졌습니다. 이게 사실이긴 한데, 구조를 보면 꽤 다릅니다. OpenAI 공식 헬프센터의 설명은 이렇습니다: “GPT-5.4 mini is available to Free and Go users via the Thinking feature in the + menu. For all other users, GPT-5.4 mini is available as a rate limit fallback.” (출처: OpenAI Help Center, 2026.03.18)

이 말을 실제 사용 흐름으로 번역하면 이렇습니다. Free 유저는 + 메뉴에서 Thinking을 켜야 mini를 쓸 수 있고, Go 유저도 마찬가지로 5시간마다 10개 메시지 한도 안에서만 Thinking 탭을 통해 접근합니다. Plus·Business 유저에게는 GPT-5.4 mini가 “메인 모델이 한도를 초과했을 때 자동 전환되는 대체 모델”입니다. 즉, Plus 유저가 GPT-5.4 Thinking을 주 500개 한도 다 썼을 때 그다음부터는 mini로 내려갑니다.

또 하나 알아두면 좋은 부분이 있습니다. ChatGPT의 Instant 모드는 자동으로 GPT-5.3 Instant와 GPT-5.4 Thinking 사이를 오가는 방식인데, 이 자동 전환 횟수는 Thinking 주간 한도(3,000개)에 포함되지 않습니다. 이 점은 공식 헬프센터에 명시돼 있어 실제 사용에서 착각하기 쉬운 구조입니다.

▲ 목차로 돌아가기

가격은 얼마나 올랐을까요? 직접 계산해봤습니다

GPT-5.4 mini의 API 가격은 입력 기준 100만 토큰당 $0.75, 출력은 $4.50입니다. 캐시 적용 시 입력은 $0.075로 대폭 내려갑니다. (출처: OpenAI API 가격 페이지, 2026.03.18)

모델 입력 (1M 토큰) 출력 (1M 토큰) 컨텍스트
GPT-5.4 $2.50 $15.00 1,050K
GPT-5.4 mini $0.75 $4.50 400K
GPT-5.4 nano $0.20 $1.25 400K
GPT-5 mini (이전 세대) ~$0.25 ~$1.50 400K

📌 가격 인상 폭이 생각보다 큽니다

GPT-5.4 mini의 입력 단가($0.75)는 GPT-5 mini($0.25) 대비 정확히 3배 올랐습니다. 출력도 $1.50에서 $4.50으로 동일하게 3배 인상입니다. Hacker News 개발자 커뮤니티에서도 “낮은 구간 가격이 확실히 올랐다”는 반응이 즉각 나왔습니다. 성능은 올라갔지만, “저렴한 모델”이라는 포지셔닝을 그대로 받아들이면 예산 계획에서 틀릴 수 있습니다.

실제 사용량으로 비교해 보면, 하루 100만 입력 토큰을 처리하는 서비스를 운영할 때 GPT-5 mini는 하루 $0.25였지만 GPT-5.4 mini로 전환하면 $0.75가 됩니다. 월 기준으로는 $7.50 → $22.50으로, 연간으로 환산하면 약 $90에서 $270으로 3배 차이가 납니다. 트래픽이 많을수록 이 배율이 그대로 비용에 반영됩니다.

▲ 목차로 돌아가기

nano는 ChatGPT에서 쓸 수 없습니다

GPT-5.4 nano에 대해 가장 먼저 짚어야 할 것은 “어디서 쓸 수 없느냐”입니다. ChatGPT 웹이나 앱에서는 아예 선택지가 없습니다. Codex에서도 마찬가지입니다. 오로지 API를 통해서만 접근 가능합니다. (출처: OpenAI 공식 발표, 2026.03.17)

이 모델의 실제 용도는 구체적으로 제시돼 있습니다. 분류(classification), 데이터 추출(data extraction), 랭킹(ranking), 그리고 간단한 코딩 지원 서브에이전트입니다. 즉, 사람이 대화창을 열고 직접 질문하는 게 아니라, 코드가 자동으로 API를 호출하는 배치 처리 환경이 주 무대입니다.

nano의 강점은 가격입니다. 입력 100만 토큰당 $0.20으로, Gemini 3 Flash($0.50 추정)나 Claude Haiku 4.5($1.00)보다 저렴한 구간에 위치합니다. (Hacker News 커뮤니티 실측 비교, 2026.03.18 기준) 단, SWE-Bench Pro 52.4%, Terminal Bench 2.0에서 46.3%로 mini(54.4%, 60.0%)와 격차가 있어 코딩 서브에이전트로 쓸 때는 작업 복잡도를 먼저 따져야 합니다.

▲ 목차로 돌아가기

에이전트 워크플로에서는 이렇게 씁니다

GPT-5.4 mini가 진가를 발휘하는 건 단독 사용보다 “혼합 모델 시스템”입니다. OpenAI가 공식 발표에서 명시적으로 제안한 구조가 있는데, 큰 모델이 계획하고 작은 모델이 실행하는 방식입니다. Codex에서 GPT-5.4가 전체 기획과 판단을 맡고, 파일 탐색·대용량 문서 검토·병렬 서브태스크는 GPT-5.4 mini 서브에이전트가 처리하는 식입니다.

실제 속도 비교도 눈에 띕니다. Hacker News에서 개발자가 API 속도를 실측한 결과, GPT-5 mini는 약 55~60 토큰/초인데 GPT-5.4 mini는 180~190 토큰/초가 나왔습니다. 3배 이상 빠른 속도입니다. 같은 커뮤니티 측정에서 Gemini 3 Flash는 약 130 토큰/초였습니다. (Hacker News 실측, 2026.03.18 기준, 비공식)

💡 컴퓨터 사용 에이전트(CUA) 성능이 특히 돋보입니다

OSWorld-Verified(실제 컴퓨터 화면을 보고 작업 수행하는 벤치마크) 기준으로 GPT-5.4 mini는 72.1%입니다. GPT-5 mini가 42.0%였으니 1.7배 차이입니다. 그리고 GPT-5.4 본 모델(75.0%)과의 격차는 불과 2.9%p에 불과합니다. 스크린샷을 빠르게 처리하고 UI를 조작하는 자동화 시나리오에서 mini를 써도 플래그십 수준과 거의 같은 성능을 기대할 수 있다는 뜻입니다. (출처: OpenAI 공식 벤치마크, 2026.03.17)

▲ 목차로 돌아가기

Q&A — 실제로 가장 많이 묻는 것들

Q1. ChatGPT Free 플랜에서 GPT-5.4 mini를 쓸 수 있나요?

+ 메뉴에서 Thinking을 켜면 접근할 수 있습니다. 단, 이건 메인 모델이 아니라 Thinking 탭을 통한 경로이고, Go 플랜 기준으로는 5시간마다 10개 메시지가 한도입니다. Free 플랜은 별도의 Thinking 한도가 더 낮을 수 있으므로 공식 헬프센터 확인을 권장합니다. (출처: OpenAI Help Center, 2026.03.18)

Q2. nano는 ChatGPT에서 선택할 수 없나요?

없습니다. GPT-5.4 nano는 공식적으로 API 전용 모델입니다. ChatGPT 앱·웹·Codex 어디서도 직접 선택할 수 없습니다.

Q3. 400K 컨텍스트를 다 쓰면 안 되나요?

기술적으로는 가능하지만, 128K~256K 구간의 long-context 정확도가 33.6%까지 떨어지는 공식 수치가 있습니다. 긴 문서 전체에서 특정 정보를 찾아야 하는 용도라면 본 모델(GPT-5.4)을 쓰는 게 낫습니다. 64K 이하의 짧은 컨텍스트에서는 mini로도 충분합니다.

Q4. GPT-5 mini에서 GPT-5.4 mini로 바꾸면 비용이 얼마나 달라지나요?

API 입력 기준 정확히 3배 올랐습니다($0.25 → $0.75). 출력도 동일하게 3배입니다. 성능과 속도가 의미있게 올라갔으니 단순한 가격 인상으로 보기 어렵지만, 대용량 배치 처리 환경이라면 nano($0.20)가 더 적합한지 먼저 검토해보는 게 좋습니다.

Q5. Codex에서 GPT-5.4 mini를 선택하면 쿼터가 어떻게 줄어드나요?

GPT-5.4 본 모델의 30%만 소비합니다. 동일한 Codex 구독 안에서 간단한 작업은 mini로 돌리면 쿼터를 상당히 아낄 수 있습니다. OpenAI는 Codex가 자동으로 복잡도에 따라 mini를 서브에이전트로 할당하는 방식도 지원한다고 밝혔습니다. (출처: OpenAI 공식 발표, 2026.03.17)

▲ 목차로 돌아가기

마치며

GPT-5.4 mini는 분명 전 세대보다 빠르고 성능도 올랐습니다. 특히 컴퓨터 사용 에이전트(OSWorld 72.1%)와 코딩(SWE-Bench 54.4%) 영역에서 플래그십 모델에 꽤 근접한 수치가 나옵니다. 단독 모델로 쓸 때의 한계를 알면서 쓰는 것과 모르면서 쓰는 것은 결과가 꽤 다릅니다.

짚어둘 지점을 정리하면 이렇습니다. 컨텍스트 128K 이상은 본 모델로, 64K 이하의 반복적 작업은 mini로, API 대량 처리는 nano로. 가격은 GPT-5 mini 대비 3배 올랐으므로 기존 배치 파이프라인 예산을 그대로 유지하려면 nano를 먼저 고려해볼 만합니다.

nano가 API 전용이라는 점, Free/Go 플랜의 mini 접근 방식이 생각보다 제한적이라는 점 — 이 두 가지가 출시 하루 만에 가장 많이 오해되고 있는 부분이라는 게 솔직한 판단입니다. 서비스 업데이트가 빠른 만큼, 이 글 이후에도 요금제나 접근 방식이 달라질 수 있으니 공식 문서를 주기적으로 확인하는 것을 권장합니다.

▲ 목차로 돌아가기

📚 본 포스팅 참고 자료

  1. OpenAI 공식 블로그 — Introducing GPT-5.4 mini and nano (2026.03.17)
  2. OpenAI Help Center — GPT-5.3 and GPT-5.4 in ChatGPT (2026.03.18 기준)
  3. OpenAI 공식 API 가격 페이지 (2026.03.18 기준)
  4. ZDNET — OpenAI’s GPT-5.4 mini and nano launch (2026.03.18)
  5. Hacker News — GPT-5.4 Mini and Nano 실측 속도 및 커뮤니티 비교 (2026.03.18)

⚠️ 본 포스팅 작성 이후 서비스 정책·UI·기능·가격이 변경될 수 있습니다. 모든 수치는 2026.03.18~19 기준이며, 정확한 최신 정보는 OpenAI 공식 문서에서 확인하시기 바랍니다. 본 포스팅은 OpenAI의 공식 발표문·헬프센터·API 가격 페이지를 기반으로 작성되었으며, OpenAI와 어떠한 협력 관계도 없습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기