Codex GPT-5.4 mini 써봤더니 한도 계산이 달랐습니다

Published on

in

Codex GPT-5.4 mini 써봤더니 한도 계산이 달랐습니다

2026.03.21 기준 · Codex 공식 모델 페이지 최신 확인

Codex GPT-5.4 mini 써봤더니 한도 계산이 달랐습니다

“미니니까 성능 손해 보는 대신 한도만 늘어나겠지” — 이 생각이 틀렸던 이유를 공식 문서와 실사용 수치 두 가지로 직접 확인했습니다.

GPT-5.4 mini
Codex CLI
ChatGPT Plus
한도 최적화

결론부터 말씀드리면, GPT-5.4 mini는 현재 Codex에서 공식 권장 모델인 GPT-5.4의 경량화 버전입니다. 이름만 보면 오래된 미니처럼 느껴지지만, 기반 자체가 다릅니다.

OpenAI는 2026년 3월 5일 GPT-5.4 Thinking을 ChatGPT에 출시하면서 공식 릴리스 노트에 이렇게 적었습니다. “GPT-5.4는 GPT-5.3-Codex의 업계 최고 수준 코딩 역량을 포함한다.” (출처: OpenAI 모델 릴리스 노트, 2026.03.05) — GPT-5.4 자체가 GPT-5.3-Codex의 코딩 DNA를 이미 흡수한 모델이라는 뜻입니다.

Codex 공식 모델 페이지(developers.openai.com/codex/models)를 보면 현재 기본 권장 모델이 gpt-5.4이고, 경량 대안으로 gpt-5.4-mini가 나란히 안내됩니다. GPT-5-Codex-Mini나 GPT-5.1-Codex-Mini 같은 이전 mini 모델과는 계보 자체가 다릅니다.

공식 설명 원문은 “Fast, efficient mini model for responsive coding tasks and subagents”입니다. (출처: OpenAI Codex 모델 페이지, 2026.03.21 기준) — 속도가 빠르고 서브에이전트 작업에도 쓸 수 있다는 점이 핵심입니다.

▲ 목차로 돌아가기

한도 수치를 직접 계산해봤습니다 — Plus 기준

Codex 공식 pricing 페이지에 Plus 플랜 기준 숫자가 아주 명확하게 나와 있습니다. GPT-5.4로 5시간 창 안에 로컬 메시지 33~168개, GPT-5.4-mini를 쓰면 2.5~3.3배 더 사용 가능합니다. (출처: developers.openai.com/codex/pricing, 2026.03.21 기준)

모델 5시간 내 로컬 메시지 (Plus) 크레딧 소모 (로컬 1회 평균)
GPT-5.4 33~168개 ~7 크레딧
GPT-5.4-mini 약 82~554개 (추정) GPT-5.4의 약 30% 수준

※ mini 메시지 수는 공식 배수(2.5~3.3배)를 적용한 추정치입니다. 실제 소모량은 작업 복잡도에 따라 크게 달라집니다.

여기서 “33~168″이라는 범위 자체가 중요합니다. 작은 스크립트 수정 하나는 1/5의 한도만 쓰지만, 큰 레포를 길게 돌리면 한 메시지에 정상적인 메시지 여러 개 분량을 소모합니다. Reddit 실사용 후기에서 “GPT-5.4 high 설정으로 하루 작업하면 Plus 주간 한도의 30%가 날아간다”는 글이 올라온 것도 이 이유입니다. (r/codex, 2026.03.16)

▲ 목차로 돌아가기

솔직히 말하면, GPT-5.4가 Codex 기본 모델이라고 해서 high 설정으로 하루 종일 돌리면 금방 막힙니다. Plus 플랜은 5시간 창 기준이고, 이 창이 초기화되는 타이밍은 주간 한도와 별도로 관리됩니다. 두 가지 제한이 동시에 작동하는 구조입니다.

💡 공식 문서와 실사용 흐름을 같이 놓고 보니 이런 차이가 보였습니다

한도는 “5시간 창”과 “주간 총량” 두 겹으로 적용됩니다. 5시간 창이 풀려도 주간 총량이 남아 있어야 계속 쓸 수 있습니다. high 설정은 두 한도를 동시에 빠르게 소진합니다.

공식 pricing 페이지는 GPT-5.4 로컬 1회 평균 크레딧 소모를 ~7 크레딧으로 명시합니다. (출처: developers.openai.com/codex/pricing) Speed 설정(high, xhigh)을 올리면 이 수치가 추가 상승합니다. “속도 설정은 해당 모델의 크레딧 소모를 올린다”고 공식 문서에 직접 나옵니다.

▲ 목차로 돌아가기

mini xhigh vs 풀 모델 high — 성능 차이가 거의 없다는 후기

이 부분이 가장 놀라웠습니다. GPT-5.4 mini를 속도 설정 xhigh로 올리면, 순수 코딩 작업(디버깅, 리팩토링, 신규 기능 작성)에서 GPT-5.4 high와 체감 차이가 거의 없다는 실사용 후기가 여럿 올라왔습니다. “다시 한번 놀랐다. 순수 코딩 작업에서 gpt5.4 mini xhigh는 gpt5.4 high처럼 느껴진다”는 r/codex 글이 3일 전 올라왔습니다.

💡 한 달 이상 쌓인 비교 후기를 모아보니 이런 패턴이 나왔습니다

코딩 특화 작업에서는 mini+xhigh가 풀 모델+high에 근접하지만, 복잡한 아키텍처 계획이나 멀티파일 세션처럼 컨텍스트가 길어지는 작업에서는 풀 모델이 더 안정적입니다.

“GPT-5-Codex-mini랑 GPT-5-Codex를 동일 레포에서 하루 종일 돌렸더니 미니가 비슷하거나 오히려 더 낫더라”는 글도 2025년 11월 r/codex에 올라온 바 있습니다. 당시 미니(GPT-5-Codex-Mini)에 비해 현재 GPT-5.4 mini는 기반 모델이 한 세대 더 업그레이드됐습니다.

단, GPT-5-Codex는 계획 단계에서 “간결함을 추구하다 보니 중요한 세부 사항이 빠져 후속 세션에서 오해를 불러일으킬 수 있다”는 지적도 있었습니다. (r/ChatGPTCoding, 2025.09) mini 모델 공통으로 적용될 수 있는 주의점입니다.

▲ 목차로 돌아가기

Cloud Tasks는 Plus로 못 씁니다

한 가지 더 짚고 싶은 부분입니다. Codex에서 Cloud Tasks(클라우드에서 독립적으로 실행되는 에이전트 작업)는 Plus 플랜에서 “Not available”입니다. Pro 플랜부터 가능합니다. (출처: developers.openai.com/codex/pricing, 2026.03.21 기준)

⚠️ Plus 플랜 주의사항

Cloud Tasks, 자동 코드 리뷰, Slack 연동은 Plus에서도 사용 설명에 포함되지만, 실제 Cloud Tasks 실행은 현재 제한됩니다. CLI와 IDE Extension의 로컬 작업 중심으로 활용하는 게 현실적입니다.

코드 리뷰의 경우 GitHub 연동을 통한 자동 리뷰가 Plus에서도 안내되어 있지만, 실제 클라우드 위임 작업은 Pro부터입니다. GPT-5.4 mini를 포함한 로컬 작업은 Plus에서도 정상적으로 동작합니다. CLI에서 codex -m gpt-5.4-mini를 실행하거나 config.toml에 모델명을 지정하면 됩니다.

한 가지 더 — API Key를 사용하는 경우 최신 모델인 GPT-5.3-Codex와 GPT-5.3-Codex-Spark에 대한 접근이 늦어집니다. “Delayed access to new models”라고 공식 문서에 명시되어 있습니다. 구독 기반 접근과 API Key 기반 접근의 차이점입니다.

▲ 목차로 돌아가기

공식 문서와 실사용 후기를 교차해서 보면 패턴이 보입니다. Codex 작업을 크게 두 유형으로 나눌 수 있습니다.

✅ mini가 유리한 작업

  • 단일 파일 버그 수정, 리팩토링
  • 반복적인 스크립트 생성
  • 빠른 응답이 필요한 인터랙티브 편집
  • 서브에이전트 루틴 작업
  • 한도가 얼마 남지 않은 세션 마무리

⚠️ 풀 모델이 나은 작업

  • 멀티파일 아키텍처 설계 및 계획
  • 컨텍스트가 길어지는 장시간 세션
  • 복잡한 상호 연결 시스템 작업
  • 창의적 설계가 필요한 신규 기능
  • GDPval 등 품질 평가 기준이 높은 납품용 코드

한도를 최대한 늘리려면 공식 문서에서 직접 권장하는 방법이 있습니다. AGENTS.md를 레포 내에 중첩해서 컨텍스트 크기를 줄이고, 사용하지 않는 MCP 서버를 비활성화하고, 프롬프트를 간결하게 유지하는 것입니다. mini 전환만큼이나 이 설정 최적화가 실질적인 차이를 만듭니다.

마지막으로 한 가지 — GPT-5.3-Codex-Spark는 Pro 전용 리서치 프리뷰 모델로 별도 한도가 적용됩니다. “Demand에 따라 한도가 달라질 수 있다”고 공식 페이지에 적혀 있습니다. GPT-5.4 mini와는 완전히 다른 용도로 설계된 모델이라 혼동하지 않는 게 좋습니다.

▲ 목차로 돌아가기

자주 묻는 질문

GPT-5.4 mini는 Codex CLI에서 어떻게 설정하나요?

CLI에서 codex -m gpt-5.4-mini를 실행하거나, config.toml에 model = "gpt-5.4-mini"를 추가하면 됩니다. 세션 중에는 /model 명령어로 전환할 수도 있습니다. (출처: OpenAI Codex 문서)

GPT-5.4 mini는 GPT-5.3-Codex보다 성능이 낮지 않나요?

Plus 플랜에서 Cloud Tasks를 쓸 수 없다고 하는데, 정확히 어떤 게 안 되나요?

Codex를 클라우드 샌드박스에 위임해 백그라운드에서 실행하는 작업(Cloud Tasks)이 Plus에서 Not available 상태입니다. CLI와 IDE Extension의 로컬 작업, Codex 웹 접근은 Plus에서 가능합니다. 자동 GitHub 코드 리뷰도 Plus 안내에 포함되지만, 실제 사용 가능 여부는 현재 공식 문서에서 별도 확인이 필요합니다. (출처: developers.openai.com/codex/pricing)

한도를 초과하면 어떻게 되나요?

Plus·Pro 사용자는 추가 크레딧을 구매해 기존 플랜 업그레이드 없이 계속 사용할 수 있습니다. 또는 API Key 기반으로 전환해 표준 API 가격으로 사용량만큼 과금하는 방법도 있습니다. (출처: OpenAI Codex pricing 공식 페이지)

2배 한도 이벤트는 언제 끝나나요?

공식 페이지에 “For a limited time, enjoy 2x Codex rate limits”라고 명시되어 있을 뿐 종료 시점은 공개되지 않았습니다. OpenAI가 공식 답변을 내놓지 않은 부분으로, 이벤트 종료 시 동일 작업량에서 한도 소모가 두 배 빨라질 수 있습니다.

▲ 목차로 돌아가기

마치며

다만 Plus에서 GPT-5.4 high를 무심코 쓰다 보면 주간 한도가 예상보다 빨리 사라집니다. 현재 진행 중인 2배 한도 이벤트가 언제 종료될지 모른다는 점도 염두에 두는 게 좋습니다. 가장 현실적인 운용은 일상 코딩 작업을 mini+xhigh로 처리하고, 장시간 복잡한 세션에만 GPT-5.4 풀 모델을 아껴쓰는 방식입니다.

Codex 잔여 한도는 CLI에서 /status로 언제든 확인할 수 있습니다.

▲ 목차로 돌아가기

📌 본 포스팅 참고 자료

  1. OpenAI 모델 릴리스 노트 (한국어 공식 페이지)
  2. OpenAI Codex 공식 모델 페이지
  3. OpenAI Codex 공식 Pricing 페이지
  4. ChatGPT 플랜으로 Codex 사용하기 — OpenAI Help Center
  5. GPT-5.3-Codex 소개 — OpenAI 공식 블로그 (한국어)

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. OpenAI Codex는 활발하게 업데이트 중인 서비스로, 한도 수치·모델 가용성·요금 정책은 공식 페이지에서 최신 내용을 직접 확인하는 것을 권장합니다. 포스팅 기준일: 2026.03.21.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기