GPT-5 Thinking mini 종료, Plus라면 이게 달라집니다

Published on

in

GPT-5 Thinking mini 종료, Plus라면 이게 달라집니다

2026.04.01 기준
ChatGPT 2026.04 기준
D-17 종료 예정

GPT-5 Thinking mini 종료,
Plus라면 이게 달라집니다

2026년 4월 18일(KST), GPT-5 Thinking mini가 공식 지원 종료됩니다. OpenAI가 GPT-5.4 mini를 출시하면서 전 세대 모델을 밀어내는 건데, 문제는 “더 좋은 모델로 교체되니 좋은 거 아니야?”라고 생각하면 손해 보는 포인트가 몇 가지 있습니다.

종료일: 2026.04.18 (KST)
API 가격 입력 3배 인상
Long Context 성능 하락 구간 존재

GPT-5 Thinking mini, 왜 없어지는 건가요?

GPT-5 Thinking mini 종료는 2026년 3월 18일 GPT-5.4 mini가 출시되면서 공식 예고된 일입니다. 나무위키에 정리된 내용을 보면 “GPT-5.4 mini의 출시에 따라, 기존 GPT-5 Thinking mini는 2026년 4월 18일(KST)에 지원이 종료될 예정”이라고 딱 나와 있습니다.

OpenAI가 이번에 교체를 결정한 근거는 성능 차이입니다. GPT-5.4 mini는 SWE-Bench Pro 기준으로 54.4%를 기록했고, GPT-5 mini(high)는 45.7%에 그쳤습니다. 코딩 능력 측정 지표에서 전 세대 대비 약 8.7%포인트 앞서는 셈인데, OpenAI는 이 격차를 세대 교체의 근거로 내세웠습니다. (출처: OpenAI 공식 블로그 GPT-5.4 mini and nano 발표문, 2026.03.17)

ChatGPT 안에서 GPT-5 Thinking mini는 ‘Thinking mini’ 옵션으로 불렸습니다. 무료 사용자도 ‘+’ 메뉴의 ‘잘 생각하기’를 누르면 쓸 수 있었는데, 4월 18일 이후에는 이 자리를 GPT-5.4 mini가 대신하게 됩니다. 종료 이후 GPT-5 Thinking mini를 쓸 수 있는 방법은 공식적으로 없습니다.

💡 공식 발표문과 실제 ChatGPT 동작 흐름을 같이 놓고 보면, 이번 종료는 모델 하나가 사라지는 것 이상의 변화입니다. Fallback 로직 자체가 바뀌기 때문입니다.

목차로 돌아가기

Plus 사용자 입장에서 실제로 달라지는 것

Plus 요금제 사용자는 GPT-5.4 Thinking의 한도를 다 소진하면 자동으로 GPT-5.4 mini로 전환됩니다. 4월 18일 이전까지는 이 자리를 GPT-5 Thinking mini가 채웠습니다. OpenAI 공식 블로그에는 “For all other users, GPT‑5.4 mini is available as a rate limit fallback for GPT‑5.4 Thinking”이라고 명시돼 있습니다. (출처: OpenAI 공식 블로그, 2026.03.17)

이게 왜 중요하냐면, Fallback 모델이 바뀌면 한도 소진 후 체감 품질이 달라지기 때문입니다. 실제 Reddit에서는 GPT-5 Thinking mini를 강제로 배정받았던 사용자들이 “로봇 같고 실수도 엄청 많이 한다”는 불만을 2025년 9월에 이미 올렸습니다. 반면 GPT-5.4 mini는 GPQA Diamond 기준 88.0%로, GPT-5 mini(81.6%) 대비 추론 능력이 뚜렷하게 올랐습니다. 한도 소진 후에도 응답 품질이 더 나은 모델을 쓰게 된다는 뜻입니다.

단, Free나 Go 플랜 사용자는 달라지는 게 거의 없습니다. ‘잘 생각하기’ 옵션의 실제 동작 모델이 GPT-5 Thinking mini에서 GPT-5.4 mini로 교체될 뿐, UI상 변화는 없습니다. 체감 차이는 특히 추론 복잡도가 높은 작업일수록 크게 납니다.

구분 4월 18일 이전 4월 18일 이후
Free/Go — ‘잘 생각하기’ GPT-5 Thinking mini GPT-5.4 mini
Plus — Fallback 모델 GPT-5 Thinking mini GPT-5.4 mini
API — gpt-5-mini 호출 정상 응답 오류 또는 리디렉션

(출처: OpenAI 공식 블로그 GPT-5.4 mini 발표문 및 나무위키 GPT-5 문서, 2026.03.17~03.28)

목차로 돌아가기

API 가격이 3배인데 “업그레이드”라고 부를 수 있을까?

GPT-5.4 mini의 API 가격은 입력 토큰 100만 개당 $0.75, 출력 100만 개당 $4.50입니다. GPT-5 mini는 입력 $0.25, 출력 $2.00이었습니다. 나무위키가 정리한 수치를 그대로 옮기면 “GPT-5.4 mini는 입력이 $0.75로 3배, 출력이 $4.50으로 2.25배 비싸졌다”입니다. (출처: 나무위키 GPT-5 문서, 2026.03.28 / OpenAI 공식 API 가격 페이지, 2026.03.31)

실제로 계산해보면 차이가 더 뚜렷합니다.

📊 직접 따져본 API 비용 시나리오

입력 100만 토큰 + 출력 50만 토큰 기준 (중간 규모 서비스 하루 사용량 가정)

• GPT-5 mini: ($0.25 × 1) + ($2.00 × 0.5) = $1.25

• GPT-5.4 mini: ($0.75 × 1) + ($4.50 × 0.5) = $3.00

→ 하루 비용이 2.4배 증가. 월로 환산하면 $37.5 → $90 수준.

(출처: OpenAI 공식 API 가격 페이지, 2026.03.31)

그런데 Reddit의 r/codex에서는 GPT-5.4 mini 출시 당일 또 다른 사실이 확인됐습니다. “이 웹사이트에서는 미니 가격이 입력 $0.25/M, 출력 $2/M으로 나와 있는데, 지금 트위터 공식 발표에는 입력 0.75, 출력 4.50으로 올라 있다”는 지적이 바로 그날 올라왔습니다. 출시 당일 오전까지만 해도 공식 사이트와 트위터 발표 사이에 가격이 달랐고, 최종적으로 더 높은 가격이 확정된 것입니다. OpenAI가 공식 이유를 별도로 밝히지는 않았습니다.

성능 대비 가격 효율(Price-Performance)로 따지면 얘기가 달라지긴 합니다. SWE-Bench Pro 기준으로 GPT-5 mini는 45.7%, GPT-5.4 mini는 54.4%입니다. 성능은 약 19% 향상됐는데 비용은 2.4배 올랐습니다. 단순 추론 작업에만 쓰는 API라면 가격 인상폭이 성능 향상폭을 크게 앞서는 셈입니다.

목차로 돌아가기

장문 처리에서 GPT-5.4 mini가 더 약한 구간이 있습니다

GPT-5.4 mini와 GPT-5 mini가 같은 400K 컨텍스트 윈도우를 지원한다는 건 사실입니다. 그런데 “더 큰 컨텍스트 윈도우 = 더 잘 처리한다”는 공식은 Long Context 구간에서 무너집니다.

OpenAI 공식 벤치마크인 MRCR(Multi-hop Retrieval in Context Recall) v2 수치를 직접 보면, 128K~256K 토큰 구간에서 GPT-5.4 mini는 33.6%, GPT-5 mini는 19.4%를 기록했습니다. 신모델이 앞서는 것은 맞습니다. 그런데 같은 구간에서 GPT-5.4 본모델은 79.3%를 기록했습니다. GPT-5.4 mini는 GPT-5.4 대비 Long Context 처리 능력이 절반에도 못 미치는 수준입니다. (출처: OpenAI 공식 블로그 GPT-5.4 mini and nano 발표문, 2026.03.17)

이 수치가 실제로 중요한 이유는 명확합니다. 장문 PDF 분석, 긴 코드베이스 리뷰, 대용량 문서 요약처럼 문맥이 128K를 넘는 작업에서는 GPT-5.4 mini가 GPT-5 Thinking mini와 비슷한 수준의 장문 처리 능력을 가졌다고 보기 어렵습니다.

Long Context 구간별 MRCR 성능 비교 (128K~256K 기준)

• GPT-5.4 (본모델): 79.3%

• GPT-5.4 mini: 33.6% ← 절반 이하

• GPT-5 mini: 19.4%

(출처: OpenAI 공식 블로그 GPT-5.4 mini 발표문, 2026.03.17)

장문 처리가 핵심인 업무라면 GPT-5.4 mini로의 전환을 그냥 ‘좋은 소식’으로 받아들이기 어렵습니다. 이런 작업에는 GPT-5.4 본모델을 직접 사용하거나, 문서를 분할해서 처리하는 방식이 현실적입니다.

목차로 돌아가기

Codex 서브에이전트 쓴다면, 오히려 유리해지는 이유

장문 처리 한계와는 별개로, Codex를 쓰는 개발자 입장에서는 이번 전환이 오히려 비용 절감 기회가 됩니다. OpenAI는 공식 발표에서 GPT-5.4 mini가 Codex에서 GPT-5.4 할당량의 30%만 소비한다고 밝혔습니다. GPT-5 Thinking mini는 이런 할당 비율 구조가 없었습니다. (출처: OpenAI 공식 블로그, 2026.03.17)

실제로 어떻게 작동하는지 공식 설명을 보면, GPT-5.4 같은 대형 모델이 계획 수립과 최종 판단을 맡고, 코드베이스 검색이나 대용량 파일 검토 같은 세부 작업은 GPT-5.4 mini 서브에이전트가 병렬로 처리합니다. 세부 작업 처리 비용이 30% 할당량이니, 같은 Codex 한도로 처리할 수 있는 작업량이 이전보다 늘어납니다.

💡 GPT-5 Thinking mini 종료와 GPT-5.4 mini 도입이 맞물리는 지점을 Codex 서브에이전트 흐름 쪽에서 같이 읽으면, 단순 모델 교체가 아니라 OpenAI의 에이전트 아키텍처 방향이 보입니다. 전 세대 mini는 그냥 “더 싼 모델”이었지만, 5.4 mini는 구조적으로 상위 모델과 역할이 분리된 모델입니다.

SWE-Bench Pro 기준으로 GPT-5.4 mini는 54.4%, GPT-5.4 본모델은 57.7%로 불과 3.3%포인트 차이입니다. 할당량은 1/3 수준인데 성능 격차는 미미한 셈이라, Codex에서 단순 반복 코딩 작업을 맡기는 용도로는 GPT-5.4 mini가 사실상 최선입니다.

목차로 돌아가기

GPT-5 mini vs GPT-5.4 mini — 벤치마크 수치로 직접 비교

직접 공식 발표문에서 확인한 벤치마크 수치를 정리했습니다. 상위 모델인 GPT-5.4 기준치도 함께 넣었습니다. 숫자가 어느 방향으로 좋은지 바로 읽을 수 있게 했습니다.

벤치마크 GPT-5.4 GPT-5.4 mini GPT-5 mini 설명
SWE-Bench Pro 57.7% 54.4% 45.7% 코딩 능력
GPQA Diamond 93.0% 88.0% 81.6% 과학 추론
OSWorld-Verified 75.0% 72.1% 42.0% 컴퓨터 사용
Terminal-Bench 2.0 75.1% 60.0% 38.2% 터미널 작업
Long Context (128K~256K) 79.3% 33.6% 19.4% 장문 처리
Toolathlon 54.6% 42.9% 26.9% 도구 사용

(출처: OpenAI 공식 블로그 GPT-5.4 mini and nano 발표문, 2026.03.17)

OSWorld-Verified에서 GPT-5.4 mini는 72.1%로, GPT-5 mini(42.0%) 대비 30%포인트 이상 앞섭니다. 컴퓨터 사용(Computer Use) 능력의 격차가 가장 크다는 점이 눈에 띄는데, 스크린샷 기반 자동화나 브라우저 제어 작업에서 체감 차이가 가장 두드러질 것으로 보입니다.

반면 Long Context 구간은 유일하게 GPT-5.4 mini가 GPT-5.4 본모델과 크게 차이 나는 항목입니다. 장문 처리가 핵심인 작업에서는 단순히 모델 버전이 올랐다고 안심하기 어렵습니다.

목차로 돌아가기

자주 묻는 질문

GPT-5 Thinking mini는 정확히 언제 사라지나요?

2026년 4월 18일(KST) 기준으로 지원이 종료됩니다. 이 날 이후로 ChatGPT UI와 API 모두에서 GPT-5 Thinking mini에 접근할 수 없게 됩니다. OpenAI가 별도의 연장 계획을 발표하지 않았습니다.

Free 플랜도 영향을 받나요?

영향을 받지만 눈에 띄지 않습니다. ‘+’ 메뉴의 ‘잘 생각하기’ 기능이 내부적으로 GPT-5 Thinking mini에서 GPT-5.4 mini로 교체됩니다. UI는 그대로이고 성능은 전반적으로 향상되지만, 응답 비용이 올라가는 건 API를 직접 사용하는 개발자에게만 해당합니다.

API에서 gpt-5-mini 모델명으로 호출하면 어떻게 되나요?

4월 18일 이후로는 오류가 발생하거나 자동으로 다른 모델로 리디렉션될 수 있습니다. OpenAI가 공식 마이그레이션 가이드를 별도로 공지하지 않은 상태이므로, API를 통해 서비스를 운영 중이라면 4월 18일 이전에 gpt-5.4-mini-2026-03-17로 모델명을 교체해두는 것이 안전합니다.

GPT-5.4 nano는 ChatGPT에서 쓸 수 있나요?

쓸 수 없습니다. GPT-5.4 nano는 API 전용 모델입니다. ChatGPT 인터페이스에서는 노출되지 않으며, 주로 분류·데이터 추출·단순 코딩 서브에이전트처럼 대량 처리가 필요한 API 기반 환경을 위해 설계됐습니다. (출처: OpenAI 공식 블로그, 2026.03.17)

GPT-5.4 mini가 GPT-5 Thinking mini보다 무조건 더 낫나요?

코딩, 추론, 컴퓨터 사용 능력에서는 뚜렷하게 앞섭니다. 그런데 장문(128K~256K 토큰 구간) 처리에서는 GPT-5.4 본모델(79.3%)과 비교하면 GPT-5.4 mini(33.6%)의 성능이 크게 낮아지는 구간이 존재합니다. 장문 문서 분석이 핵심인 업무에서는 GPT-5.4 mini를 쓰더라도 이 점을 감안해야 합니다.

목차로 돌아가기

마치며

솔직히 말하면, 이번 종료 자체는 그렇게 충격적인 사건이 아닙니다. ChatGPT에서 일반 사용자가 느끼는 변화는 미미하고, ‘잘 생각하기’ 버튼의 동작 모델만 바뀌는 정도입니다.

다만 API를 쓰는 개발자라면 이야기가 다릅니다. 모델명 교체를 안 해두면 종료일 이후 서비스 장애가 생길 수 있고, 교체하더라도 비용이 2배 이상 올라간다는 현실을 계산해야 합니다. 게다가 Long Context 처리 성능이 128K 이상 구간에서 본모델 대비 절반 이하로 떨어진다는 점은 대부분의 GPT-5.4 mini 리뷰에서 다루지 않는 부분입니다.

Codex 서브에이전트 구조로 이미 전환 중인 개발자라면 이번 변화가 오히려 기회입니다. 할당량 30% 소비라는 공식 스펙이 적용되면서, 단순 반복 코딩 작업을 더 효율적으로 처리할 수 있게 됐습니다. 상황에 따라 유불리가 다른 업데이트라는 게 결론입니다.

본 포스팅 참고 자료

  1. OpenAI 공식 블로그 — Introducing GPT-5.4 mini and nano (https://openai.com/index/introducing-gpt-5-4-mini-and-nano/)
  2. OpenAI API 공식 가격 페이지 (https://openai.com/ko-KR/api/pricing/)
  3. Artificial Analysis — GPT-5.4 mini vs GPT-5 mini 모델 비교 (https://artificialanalysis.ai/models/comparisons/gpt-5-4-mini-vs-gpt-5-mini)
  4. 나무위키 GPT-5 문서 (최종 확인: 2026.03.28) (https://namu.wiki/w/GPT-5)
  5. OpenAI Codex 서브에이전트 공식 문서 (https://developers.openai.com/codex/subagents/)

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 모든 수치는 2026.04.01 기준이며, OpenAI 공식 가격·정책 변경 시 본문 내용과 달라질 수 있습니다. 투자·구매 결정 전 반드시 공식 페이지에서 최신 정보를 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기