Claude Code 1M 컨텍스트, Pro 쓰면 안 되는 이유 있습니다

Published on

in

Claude Code 1M 컨텍스트, Pro 쓰면 안 되는 이유 있습니다

2026.03.13 정식 출시 기준
Claude Code v2.1.75 기준

Claude Code 1M 컨텍스트, Pro 쓰면 안 되는 이유 있습니다

결론부터 말씀드리면, Max·Team·Enterprise 플랜만 기본 포함입니다. Pro 플랜은 추가 사용료가 붙습니다. 발표 직후 “1M 컨텍스트 무료 개방”이라는 말이 퍼졌는데, 절반만 맞는 얘기입니다.

1M 토큰
기존 200K 대비 5배
78.3%
MRCR v2 프론티어 모델 최고
추가 과금 없음
API 기본 요금만 적용

Pro 플랜이 빠진 진짜 이유

2026년 3월 13일, Anthropic 공식 블로그에는 이렇게 나옵니다. “Claude Code Max, Team, and Enterprise users on Opus 4.6 will default to 1M context automatically.” (출처: Anthropic 공식 블로그, 2026.03.13) Pro 플랜이라는 단어는 없습니다.

wmedia.es가 Claude Code 공식 문서를 참조해 정리한 플랜별 접근 현황은 아래 표와 같습니다. (출처: wmedia.es/claude-code-1m-context-window-tips, 2026.03.16)

플랜 Opus 4.6 1M Sonnet 4.6 1M
Max · Team · Enterprise ✅ 기본 포함 추가 사용 필요
Pro ($20/월) 추가 사용 필요 추가 사용 필요
API (종량제) ✅ 전체 접근 ✅ 전체 접근

Pro 플랜은 기본 포함이 아닙니다. API 종량제 사용자는 오히려 전체 접근이 가능하니, 요금 구조가 역설적입니다.

▲ 목차로 돌아가기

경쟁사 대비 가격 차이, 직접 계산했습니다

이번 변경에서 실제로 놀라운 부분은 따로 있습니다. 긴 컨텍스트에 추가 요금을 매기던 관행을 Anthropic이 먼저 버렸다는 점입니다. 공식 블로그에 딱 이렇게 나옵니다. “No multiplier: a 900K-token request is billed at the same per-token rate as a 9K one.” (출처: Anthropic 공식 블로그, 2026.03.13) 900K 토큰이나 9K 토큰이나 같은 단가라는 뜻입니다.

💡 공식 발표 수치와 경쟁사 요금을 같이 놓고 보니 이런 차이가 보였습니다

200K 토큰 초과 구간 입력 단가 비교 (100만 토큰 기준, 2026.03 현재)

  • Claude Opus 4.6: $5/M — 초과 구간 동일 단가
  • Gemini 3.1 Pro: $2→$4/M (200K 초과 시 2배 과금)
  • GPT-5.4: $2.50→$5/M (272K 초과 시 2배 과금)

(출처: martinalderson.com, 2026.03.15 / Anthropic 공식 블로그, 2026.03.13)

직접 계산해보면 이렇습니다. 한 세션에 500K 토큰을 쓴다고 가정할 때:

500K 토큰 입력 비용 비교
Claude Opus 4.6: 500K × $5/M = $2.50
Gemini 3.1 Pro: 200K×$2 + 300K×$4 = $0.40 + $1.20 = $1.60
GPT-5.4: 272K×$2.50 + 228K×$5 = $0.68 + $1.14 = $1.82
※ 입력 토큰만 비교. 출력 토큰 별도. 2026.03 기준.

단순 입력 단가만 보면 Anthropic이 비쌉니다. 하지만 200K를 넘으면 경쟁사는 바로 2배가 됩니다. 긴 컨텍스트를 자주 쓰는 워크플로에선 실제 청구서가 다르게 나옵니다.

▲ 목차로 돌아가기

1M 채웠다고 끝이 아닌 이유 — context drift

여기서 대부분의 블로그가 얘기하지 않는 부분이 있습니다. 1M 토큰 창이 열렸다고 해서 처음부터 끝까지 동일한 품질로 답변하지는 않습니다. context drift — 세션이 길어질수록 초기 정보에 대한 모델의 정확도가 서서히 떨어지는 현상입니다.

Anthropic이 공개한 MRCR v2 벤치마크에서 Opus 4.6은 1M 토큰 전 구간에서 78.3%를 기록했습니다. (출처: Anthropic 공식 블로그, 2026.03.13) GPT-5.4와 Gemini 3.1 Pro는 둘 다 1M 컨텍스트를 지원하지만, 256K를 넘어서면 정확도가 50% 아래로 떨어집니다. (출처: martinalderson.com, 2026.03.15) 숫자가 클수록 좋은 게 아닙니다.

⚠️ 실사용 주의 포인트
  • auto-compaction은 기본 설정에서 95% 도달 시 자동 실행됩니다. (출처: wmedia.es, 2026.03.16)
  • 95%까지 쌓아두면 오래된 토큰 정밀도가 이미 낮아진 상태입니다.
  • 선제적으로 70% 시점에 compact 하는 것이 품질 유지에 유리합니다.

wmedia.es는 이를 “more context doesn’t mean better results”라고 정리했습니다. (출처: wmedia.es, 2026.03.16) 창이 크다고 전부 채우는 건 좋은 전략이 아닙니다.

▲ 목차로 돌아가기

compaction 15% 줄었다는 수치, 실제로 어떤 의미인가

Anthropic 공식 블로그에서 한 CPO(Jon Bell)는 이렇게 말했습니다. “We’ve seen a 15% decrease in compaction events. Now our agents hold it all and run for hours without forgetting what they read on page one.” (출처: Anthropic 공식 블로그, 2026.03.13) compaction 이벤트가 15% 줄었다는 뜻입니다.

compaction이 발생할 때마다 에이전트는 이전 대화를 요약으로 압축합니다. 이 과정에서 세부 정보가 사라지고, 이후 작업에서 에이전트가 파일을 다시 읽어야 하는 상황이 반복됩니다. compaction이 줄어들면 이 루프 자체가 줄어듭니다.

💡 직접 확인한 사용 패턴 — 공식 발표와 실제 흐름이 다른 부분

200K → 500K로 컨텍스트를 확장한 사례에서 오히려 전체 토큰 소비가 줄었다는 사용 사례가 공식 블로그에 등장합니다. Izzy Miller(AI Research Lead)는 “We raised our Opus context window from 200k to 500k and the agent runs more efficiently — it actually uses fewer tokens overall.”라고 밝혔습니다. (출처: Anthropic 공식 블로그, 2026.03.13) 컨텍스트를 크게 잡으면 비용이 늘 것 같지만, 반복 재로딩이 없어지면서 총 소비 토큰이 오히려 줄어들 수 있습니다.

▲ 목차로 돌아가기

코드보다 법률·금융 문서에 더 유리한 이유

이 부분은 거의 모든 한국어 블로그에서 다루지 않는 관점입니다. 프로그래밍 코드는 구조적으로 모듈화가 잘 되어 있어 compaction 요약에 비교적 잘 버팁니다. 코드 파일은 함수 단위로 잘라도 의미가 어느 정도 살아 있습니다.

반면 법률 계약서, 금융 보고서, 의료 차트처럼 전체 흐름이 중요한 문서는 다릅니다. 한 계약서 100페이지 중 57페이지에 있는 예외 조항이 83페이지 조건과 연결될 때, 요약본으로 이 연결고리를 유지하는 건 어렵습니다. martinalderson.com은 이를 이렇게 정리했습니다. “Ironically software is far better suited to being excerpted than many other professional service tasks.” (출처: martinalderson.com, 2026.03.15)

💡 실제 사용 사례로 확인된 차이

법률 플랫폼 Eve의 ML 엔지니어 Mauricio Wulfovich는 “400페이지 진술 녹취록 교차 검토나 전체 사건 파일의 핵심 연결고리를 찾는 작업에서 1M 컨텍스트 전후로 답변 품질이 눈에 띄게 달라졌다”고 밝혔습니다. (출처: Anthropic 공식 블로그, 2026.03.13)

코딩 도구로만 알려졌지만, 실제 효과는 비정형 장문 문서 작업에서 더 두드러집니다.

▲ 목차로 돌아가기

낭비 없이 쓰는 4가지 방법

Claude Code v2.1.75 기준, 공식 문서에서 확인한 실사용 설정입니다. (출처: wmedia.es, 2026.03.16 / code.claude.com 공식 문서)

① /context 명령

실시간 토큰 사용량을 확인합니다. 95%가 되기 전에 자체 판단이 가능하도록 체크하는 습관이 중요합니다.
② 70%에서 선제 compact

CLAUDE_AUTOCOMPACT_PCT_OVERRIDE=70 환경변수를 설정하면 기본 95% 임계값을 앞당길 수 있습니다.
③ 필요한 파일만 로딩

1M이 생겼다고 전체 저장소를 통으로 올릴 이유는 없습니다. 관련 디렉토리·파일만 선택적으로 불러오면 context drift 발생 지점을 늦출 수 있습니다.
④ modelOverrides 활용

v2.1.73에 추가된 기능입니다. 단순 반복 작업엔 Haiku로 전환하고 복잡한 추론에만 Opus 4.6 1M을 쓰는 식으로 비용을 조절할 수 있습니다.

▲ 목차로 돌아가기

Q&A 5가지

Q1. Pro 플랜에서 1M 컨텍스트를 쓰면 얼마나 추가로 나오나요?
Anthropic이 구체적인 Pro 추가 요금을 공개하지 않았습니다. API 종량제 기준으로는 Opus 4.6 입력 토큰 $5/M, Sonnet 4.6 입력 토큰 $3/M이 적용됩니다. Pro 플랜 내 “추가 사용”의 단가 책정 방식은 아직 공개된 수치가 없습니다.
Q2. Gemini도 1M 컨텍스트가 있는데 왜 Claude가 낫다고 하나요?
단순히 창 크기가 아닌 창 전체에서 정확도가 관건입니다. MRCR v2 벤치마크에서 GPT-5.4와 Gemini 3.1 Pro는 256K를 넘어서면 정확도가 50% 아래로 떨어지는 반면, Opus 4.6은 전 구간 78.3%를 유지한다고 Anthropic이 발표했습니다. (출처: Anthropic 공식 블로그, 2026.03.13) 벤치마크 출처가 Anthropic 자사이므로 제3자 검증도 함께 살펴보는 것이 좋습니다.
Q3. Claude Code 무료 플랜은 어떻게 되나요?
공식 발표에서 무료 플랜에 대한 언급은 없었습니다. Claude Code의 기능 접근은 현재 Max·Team·Enterprise 기준으로 설계되어 있으며, 무료 플랜의 1M 컨텍스트 포함 여부는 아직 Anthropic이 공식 답변을 내놓지 않은 부분입니다.
Q4. 미디어 600장 처리가 늘어난 건 어떤 상황에서 유용한가요?
기존 100장 → 600장으로 늘었습니다. (출처: Anthropic 공식 블로그, 2026.03.13) 대규모 디자인 시스템 검토, 수백 페이지 PDF 계약서·보고서 분석, 앱 스크린샷 대량 UI 리뷰 같은 작업에서 의미가 있습니다. 코딩 작업 단독으로는 체감이 크지 않을 수 있습니다.
Q5. Opus 4.6 말고 Sonnet 4.6도 1M 컨텍스트를 쓸 수 있나요?
Sonnet 4.6도 1M 컨텍스트 지원이 됩니다. 다만 Max·Team·Enterprise에서는 Opus 4.6은 기본 포함인 반면 Sonnet 4.6은 추가 사용이 필요합니다. API 종량제는 양쪽 모두 전체 접근이 가능합니다. 입력 단가는 Sonnet 4.6 기준 $3/M입니다. (출처: Anthropic 공식 블로그, 2026.03.13)

▲ 목차로 돌아가기

마치며 — 총평

이번 1M 컨텍스트 정식 출시에서 진짜 의미 있는 변화는 두 가지입니다. 하나는 긴 컨텍스트에 추가 요금을 매기던 관행을 Anthropic이 먼저 없앴다는 것, 다른 하나는 경쟁사 모델들이 256K 이후 정확도를 유지하지 못하는 반면 Opus 4.6은 전 구간에서 78.3%를 유지한다는 점입니다.

단, Pro 플랜은 기본 포함이 아니고, 1M을 채운다고 품질이 보장되는 것도 아닙니다. 컨텍스트 창이 커진 만큼 context drift도 더 오래 쌓입니다. 70% 지점에서 선제 compact하고, 필요한 파일만 선택적으로 불러오는 습관이 오히려 비용과 품질 양쪽을 잡는 방법입니다.

이 기능이 가장 빛나는 건 코딩보다 오히려 법률·금융·의료처럼 전체 맥락이 살아있어야 하는 문서 작업입니다. 개발 도구라는 인식 때문에 그쪽 가능성이 덜 알려져 있는데, 직접 써볼 가치가 있습니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. Anthropic 공식 블로그 — 1M context window GA 발표 (2026.03.13)
  2. Anthropic Claude Platform 공식 요금 문서
  3. Martin Alderson — Claude 1M context 경쟁사 비교 분석 (2026.03.15)
  4. wmedia.es — Claude Code 1M Context 실사용 팁 (2026.03.16)
  5. AWS 공식 블로그 — Amazon Bedrock Claude Opus 4.6 지원 (2026.02.12)

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다.
2026년 3월 26일 기준 작성. Claude Code v2.1.75 / Opus 4.6 기준.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기