Codex GPT-5.4 한도, 직접 재봐니 이게 문제였습니다

Published on

in

Codex GPT-5.4 한도, 직접 재봐니 이게 문제였습니다

본문:

2026.03.17 기준 / GPT-5.4 mini 출시 시점
Codex GPT-5.4 한도 공식 문서 기반

Codex GPT-5.4 한도, 직접 재봐니
이게 문제였습니다

33~168건
Plus 5시간당 로컬 메시지 한도
30%
mini가 소모하는 GPT-5.4 쿼터 비율
2.5~3.3배
mini 전환 시 한도 연장 효과

Codex GPT-5.4 한도, 왜 갑자기 빨리 닳나

OpenAI는 공식적으로 “소수 사용자에게 영향을 주는 이슈”라고 했지만, r/codex 커뮤니티(구독자 약 5만 명, 2026.03 기준)의 투표 결과는 달랐습니다. 스코어 122, 찬성률 97%의 스레드에서 대다수가 “GPT-5.3 Codex보다 30~100% 이상 한도가 빨리 소모된다”고 응답했습니다. 단순 버그라기보다는 GPT-5.4 자체의 연산 구조가 쿼터 계산 방식에 영향을 주는 것으로 보입니다.

💡 GPT-5.4는 GPT-5.3-Codex와 달리 Codex 전용 변형 모델이 없습니다. OpenAI가 공식 발표에서 “GPT-5.4-Codex 버전은 별도 출시 계획이 없다”고 밝혔습니다. (출처: OpenAI 공식 블로그, 2026.03.05) 즉, 범용 GPT-5.4가 그대로 Codex 작업을 처리하다 보니 Codex 특화 최적화가 빠진 상태입니다.

▲ 목차로 돌아가기

플랜별 공식 한도 수치 직접 확인

OpenAI 공식 Codex 가격 페이지(developers.openai.com/codex/pricing, 2026.03 기준)에 플랜별 한도가 공개돼 있습니다. 핵심은 “5시간 단위 윈도우”와 “주간 한도”가 공유된다는 점입니다.

플랜 로컬 메시지
(5시간당)
클라우드 작업
(5시간당)
월 구독료
Plus 33~168건 미제공 $20
Pro 223~1,120건 미제공 $200
Business 33~168건 포함 $25/인
Enterprise/Edu 크레딧 기반 무제한 확장 별도 문의

여기서 눈에 띄는 것이 “33~168건”이라는 폭넓은 범위입니다. 같은 Plus 플랜이라도 작업 복잡도와 컨텍스트 크기에 따라 한도가 5배까지 차이 납니다. 단순 스크립트 수정은 한 건당 거의 소모가 없지만, 대형 코드베이스를 컨텍스트에 올려두고 반복 에이전트 루프를 돌리면 한 건에도 상당한 쿼터가 빠져나갑니다. Pro가 Plus보다 6.7배 더 많은 한도를 제공한다는 점에서, 무거운 작업을 자주 한다면 Plus로는 구조적으로 빠듯합니다.

▲ 목차로 돌아가기

GPT-5.4 mini가 한도를 30%만 쓰는 이유

2026년 3월 17일 OpenAI가 GPT-5.4 mini와 nano를 출시하면서 공식 발표에 중요한 수치 하나를 넣었습니다. “Codex에서 GPT-5.4 mini는 GPT-5.4 쿼터의 30%만 소모하므로, 같은 한도로 약 3.3배 더 많이 사용할 수 있다.” (출처: OpenAI, GPT-5.4 mini 및 nano 출시, 2026.03.17) 30%라는 수치가 단순 체감이 아니라 공식 문서에 명시된 숫자라는 게 핵심입니다. 쿼터 기준으로 mini는 메인 모델보다 3.3배 더 오래 사용할 수 있습니다.

💡 공식 발표문과 벤치마크를 나란히 놓고 보면 이런 차이가 보였습니다

SWE-Bench Pro(실제 소프트웨어 엔지니어링 작업 벤치마크) 결과를 보면, GPT-5.4는 57.7%, GPT-5.4 mini는 54.4%입니다. 성능 차이는 3.3%p에 불과하지만 쿼터 소모는 mini가 70% 적습니다. OSWorld-Verified(컴퓨터 사용 능력 벤치마크)에서는 GPT-5.4가 75.0%, mini가 72.1%로 차이는 2.9%p입니다. 성능 손실이 3% 내외인데 비용 절감은 70%인 셈이라, Codex 일상 코딩 업무에서는 mini가 비용 대비 효율이 훨씬 높습니다.

단, 장문 컨텍스트 작업에서는 차이가 커집니다. OpenAI MRCR v2(다중 정보 검색 벤치마크)에서 128K~256K 범위를 보면, GPT-5.4는 79.3%인데 mini는 33.6%로 절반 이하로 떨어집니다. (출처: OpenAI 공식, 2026.03.17) 코드베이스 전체를 컨텍스트에 넣고 긴 세션을 돌리는 작업이라면 mini 전환이 오히려 실수를 늘릴 수 있다는 뜻입니다. mini의 30% 쿼터 절감 효과는 단기 코딩 작업에서 진가를 발휘하고, 수십만 토큰짜리 대형 프로젝트에서는 상황이 다릅니다.

▲ 목차로 돌아가기

xhigh·fast 설정이 쿼터를 2배 이상 태우는 구조

Codex GPT-5.4 한도 소진에 결정적인 영향을 주는 것이 바로 speed 설정입니다. OpenAI 공식 문서에는 “speed 설정은 해당 모델의 크레딧 소모를 증가시킨다”고 나와 있습니다. (developers.openai.com/codex/pricing, 2026.03 기준) 구체적으로는 /fast 모드를 켜면 일반 설정 대비 약 2배의 크레딧이 소모됩니다. xhigh 설정도 추가 가산이 붙습니다. 두 옵션을 동시에 켤 경우 쿼터 소모는 기본 설정의 2배를 훌쩍 넘습니다.

Pro 플랜 사용자가 /fast와 xhigh를 동시에 켜고 3~4시간 작업했더니 주간 한도의 50%가 하루 만에 사라졌다는 실사용 사례가 있습니다. 같은 Pro 플랜에서 /fast 없이 medium 설정으로 운영하면 주간 내내 52% 수준에서 머물렀다는 반례도 공존합니다. 결국 xhigh+fast 조합은 빠른 반응을 얻는 대신 쿼터를 2~4배 소모하는 트레이드오프가 있습니다. 이 사실이 Codex 출시 초기 공식 안내에 명확히 기재되지 않았다는 점이 사용자 혼란의 근본 원인이었습니다.

⚠️ 주의

GPT-5.4 xhigh는 컨텍스트가 272K 토큰을 초과하는 경우 크레딧 소모가 2배로 적용됩니다. 대형 코드베이스를 통째로 컨텍스트에 올리면 이 임계치를 쉽게 넘습니다. (출처: OpenAI, GPT-5.4 소개, 2026.03.05)

▲ 목차로 돌아가기

2x 프로모션, 사라지면 어떻게 되나

OpenAI는 Codex 앱 출시와 함께 “2026년 4월 2일까지 Plus·Pro·Business·Enterprise 구독자에게 2x 한도를 제공한다”고 발표했습니다. (OpenAI Help Center, 2026.03 기준) Codex CLI 실행 시 화면에도 이 기간이 표시됩니다. 4월 2일 이후에는 현재 한도가 절반으로 줄어든다는 의미입니다.

여기서 사용자들 사이에 논쟁이 있었습니다. “2x는 usage limit를 두 배로 늘린 것이냐, 아니면 rate limit(단위 시간당 요청 속도)만 두 배로 늘린 것이냐”는 질문입니다. OpenAI 고객 지원은 일부 사용자에게 “rate limit이지 usage limit이 아니다”라고 답했고, 다른 사용자에게는 공식 rate card 링크를 통해 “usage가 2배”라는 맥락을 전달했습니다. OpenAI가 공식 답변을 통일해 내놓지 않은 부분입니다. 단, Codex 가격 페이지에 게재된 표현 “enjoy 2x Codex rate limits”와 실사용자 측정 결과를 보면, 실질적으로 5시간 윈도우 내 소화 가능한 작업량이 늘어난 것은 맞습니다. 프로모션이 끝나면 현재보다 처리 속도가 절반으로 줄어들 가능성이 높습니다.

Pro 사용자 한 명의 계산에 따르면 2x 없이 GPT-5.4를 xhigh로 사용할 경우 주간 한도 소모 속도가 “시간당 약 2~3%”입니다. 일주일이 168시간이니 단순 계산으로 56~84시간 분량의 무거운 작업이 가능한 수준입니다. 하지만 이것도 /fast 없이 standard 설정일 때이고, xhigh+fast를 켜면 이 숫자가 반으로 줄어듭니다.

▲ 목차로 돌아가기

한도를 최대한 늘리는 실전 설정 조합

OpenAI 공식 문서에 한도를 절약하는 방법이 구체적으로 나와 있습니다. (developers.openai.com/codex/pricing, 2026.03 기준) 그 중 체감 효과가 가장 큰 것들을 정리하면 다음과 같습니다.

1

단순 작업에는 mini 모델로 전환

GPT-5.4 mini는 GPT-5.4 쿼터의 30%만 소모합니다. SWE-Bench 성능 차이가 3.3%p 수준이라 일상적 버그 수정, 간단한 함수 추가에는 mini가 훨씬 효율적입니다.

2

/fast와 xhigh는 정말 급할 때만

/fast 모드는 쿼터 2배 소모가 공식입니다. 빠른 응답이 꼭 필요한 상황이 아니라면 standard 설정을 유지하는 게 주간 한도를 최소 2배 늘리는 가장 확실한 방법입니다.

3

AGENTS.md와 MCP 서버 최소화

AGENTS.md 파일이 크면 매 요청마다 컨텍스트에 추가되어 쿼터를 소모합니다. 쓰지 않는 MCP 서버는 비활성화하는 것이 좋습니다. 공식 권고 사항입니다.

4

한도 초과 후에는 API Key로 연장

플랜 한도가 소진되면 API Key로 전환해 표준 API 요금으로 로컬 작업을 이어갈 수 있습니다. 클라우드 기능은 사용 불가능하지만 CLI와 IDE 확장은 그대로 씁니다.

💡 현재 남은 한도를 숫자로 확인하고 싶다면 Codex CLI 세션 중 /status를 치거나, chatgpt.com/codex/settings/usage 대시보드를 열면 됩니다.

▲ 목차로 돌아가기

Q&A 5가지

Q1. GPT-5.4 mini는 ChatGPT 앱에서 직접 선택할 수 있나요?
없습니다. GPT-5.4 mini는 모델 선택기에 노출되지 않습니다. ChatGPT에서는 GPT-5.4 Thinking의 한도에 도달했을 때 자동 폴백 모델로 작동하고, Free와 Go 사용자는 + 메뉴의 Thinking 기능을 켤 때 mini가 적용됩니다. Codex에서는 수동으로 모델을 mini로 지정해 사용할 수 있습니다. (출처: OpenAI 릴리스 노트, 2026.03.18)
Q2. 4월 2일 이후 2x 프로모션이 끝나면 한도가 반으로 줄어드나요?
현재 제공되는 “2x rate limits” 프로모션이 종료되면 기존 플랜의 기본 한도로 돌아갑니다. OpenAI가 종료 후 새로운 한도 수치를 공식 발표하지는 않았으므로, 프로모션 전 수준으로 복귀한다고 보는 것이 합리적입니다. Codex 가격 페이지를 4월 초에 다시 확인하는 것을 권장합니다.
Q3. Plus와 Pro의 한도 차이가 6.7배인데, Pro가 그만한 가치가 있나요?
단순 코딩 용도라면 Plus + mini 전환 조합이 더 경제적입니다. Pro는 “매일 풀타임으로 Codex를 쓰는 개발자”를 대상으로 설계되어 있고, 우선 처리와 GPT-5.3-Codex-Spark 연구 프리뷰 접근도 포함됩니다. 한 달에 100시간 이상 Codex를 써야 Pro가 의미 있는 수준입니다.
Q4. 한도를 다 쓰면 크레딧을 구매해서 바로 이어갈 수 있나요?
Plus와 Pro는 크레딧 추가 구매가 가능합니다. 로컬 작업 기준 메시지 한 건당 평균 7 크레딧이 소모됩니다. (출처: developers.openai.com/codex/pricing) Business와 Enterprise는 플렉시블 프라이싱을 통해 워크스페이스 크레딧으로 한도를 연장합니다. API Key 방식으로 전환하면 별도 토큰 단가로 제한 없이 로컬 작업을 이어갈 수 있습니다.
Q5. GPT-5.4와 GPT-5.3-Codex 중 무엇을 기본으로 쓰는 게 나을까요?
Codex에서 현재 기본 제공 모델은 GPT-5.1-Codex Max입니다. GPT-5.4는 선택 가능한 옵션입니다. 복잡한 신규 기능 구현이나 추론이 필요한 작업이라면 GPT-5.4가 유리하고, 단순 반복 수정이나 리팩터링이라면 GPT-5.3-Codex가 한도 효율이 더 좋습니다. GPT-5.3-Codex-Spark는 Pro 전용 연구 프리뷰로, 응답 속도가 빠르지만 별도 한도가 적용됩니다.

▲ 목차로 돌아가기

마치며

Codex GPT-5.4 한도 문제를 정리하면 세 가지로 압축됩니다. 첫째, GPT-5.4는 Codex 전용 변형 없이 범용 모델로 운영되기 때문에 GPT-5.3-Codex보다 쿼터를 더 빠르게 소모할 수 있습니다. 둘째, GPT-5.4 mini를 쓰면 성능 손실은 3%p 이내인데 한도는 3.3배 늘어납니다. 단, 긴 컨텍스트 작업에서는 이 공식이 그대로 적용되지 않습니다. 셋째, xhigh와 /fast 조합은 쿼터를 2배 이상 소모시키는 설정입니다.

4월 2일 2x 프로모션 종료 이후 실제 체감 변화가 어떨지는 지켜봐야 합니다. OpenAI가 프로모션 기간 종료 전후 한도 수치를 조정하거나 GPT-5.4-Codex 변형 모델을 출시할 가능성도 있습니다. 지금 당장 실용적인 선택은 mini 모델로 일상 작업을 처리하고, GPT-5.4 full은 추론이 진짜 필요한 핵심 작업에만 아껴두는 것입니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. ① OpenAI 공식, GPT-5.4 mini 및 nano 출시 — openai.com/ko-KR/index/introducing-gpt-5-4-mini-and-nano/
  2. ② OpenAI Codex 가격 공식 페이지 — developers.openai.com/codex/pricing/
  3. ③ OpenAI Help Center, ChatGPT 플랜으로 Codex 사용하기 — help.openai.com/en/articles/11369540
  4. ④ OpenAI 공식 릴리스 노트 (모델 출시 이력) — help.openai.com/ko-kr/articles/9624314
  5. ⑤ OpenAI 공식, GPT-5.4 소개 — openai.com/ko-KR/index/introducing-gpt-5-4/

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. OpenAI는 모델 한도와 가격 구조를 수시로 조정합니다. 최신 정보는 공식 Codex 가격 페이지에서 확인하세요. 본 포스팅의 수치는 2026년 3월 26일 기준으로 작성됐습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기