Claude Code 1M Context, 요금 반토막 난 진짜 조건 3가지
Claude Code의 1M 토큰 컨텍스트가 2026년 3월 13일 정식(GA)으로 전환됐습니다. 출시 때 붙었던 프리미엄 요금도 사라졌습니다. 그런데 막상 쓰려고 하면 막히는 상황이 있습니다. Pro 플랜이냐 Max냐에 따라 동작 방식이 다르고, 900K 토큰짜리 세션 한 번이 4.5달러를 넘깁니다. 공식 발표문과 실사용 흐름을 같이 놓고 보니 이런 차이가 보였습니다.
1M Context
Opus 4.6
Sonnet 4.6
AI 코딩도구
1M Context, 출시 때 요금과 지금 요금이 다릅니다
Claude Code에서 1M 토큰 컨텍스트가 처음 등장한 건 2026년 2월 5일이었습니다. Claude Opus 4.6 출시와 함께 “베타”로 붙었는데, 당시 공식 발표문에는 이런 문구가 있었습니다.
“Premium pricing applies for prompts exceeding 200k tokens ($10/$37.50 per million input/output tokens), available only on the Claude Platform.”
— Anthropic 공식 발표, 2026.02.05
즉, 베타 단계에서는 200K 토큰을 넘는 순간 입력 가격이 $5→$10, 출력이 $25→$37.50으로 뛰었습니다. 한 번 초과하면 그 세션 전체에 프리미엄 요금이 붙었습니다. 그런데 2026년 3월 13일 공식 GA 발표에서 이 구조가 완전히 바뀌었습니다.
💡 공식 발표문과 실제 요금 흐름을 같이 놓고 보니 이런 차이가 보였습니다: GA 전환 이후 Opus 4.6은 900K 토큰 요청이나 9K 토큰 요청이나 동일하게 $5/M 입력 단가를 적용합니다. 프리미엄 배수(multiplier)가 공식적으로 사라졌습니다.
(출처: Anthropic 공식 블로그 1M Context GA, 2026.03.13 — claude.com/blog/1m-context-ga)
요금 체계가 바뀐 타이밍 자체가 흥미롭습니다. GA 선언을 단순히 “기능 안정화”로만 보면 반쪽짜리 이해입니다. 가격 장벽 제거야말로 이번 업데이트의 핵심이었습니다.
Pro 플랜은 자동으로 켜지지 않습니다
“1M Context가 표준 요금으로 풀렸다”는 소식을 보고 Claude Pro($20/월)를 쓰는 분들은 바로 써볼 수 있겠다고 생각하기 쉽습니다. 막상 해보면 다릅니다. Anthropic Claude Code 개발자 Boris Cherny의 공식 게시글(2026.03.13)에는 이런 내용이 있습니다.
“Opus 4.6 1M is now the default Opus model for Claude Code users on Max, Team, and Enterprise plans. Pro and Sonnet users can opt in with /extra-usage.”
— Boris Cherny (Anthropic Claude Code Builder), Threads, 2026.03.13
Max($100/월)·Team·Enterprise 플랜은 아무 설정 없이 Opus 4.6에서 1M Context가 자동으로 켜집니다. 반면 Pro 플랜은 Claude Code 터미널에서 직접 /extra-usage를 입력해야 활성화됩니다. 입력하지 않으면 기존 200K 컨텍스트가 그대로 유지됩니다. Pro 플랜 사용자라면 한 번 확인이 필요합니다.
| 플랜 | 월 요금 | 1M Context 자동 적용 | 비고 |
|---|---|---|---|
| Pro | $20 | ❌ 수동 | /extra-usage 입력 필요 |
| Max | $100 | ✅ 자동 | Opus 4.6 기본 모델 변경됨 |
| Team | $100/seat | ✅ 자동 | Premium seat 기준 |
| Enterprise | 별도 계약 | ✅ 자동 |
이 차이는 Anthropic의 수익 구조와도 연결됩니다. Anthropic 총수익의 약 70~75%는 API·토큰 소비에서 나옵니다. Pro 플랜에서 1M Context를 자동이 아닌 옵트인으로 만든 건 단순 기술 선택이 아니라, 마진을 지키면서 Max 업그레이드를 유도하는 구조입니다.
(출처: Product with Attitude, 2026.03.22)
MRCR v2 78.3%가 실제로 의미하는 것
Anthropic은 GA 발표에서 Opus 4.6의 MRCR v2(Multi-Round Coreference Resolution v2) 점수를 78.3%로 공개했습니다. MRCR v2는 3,000페이지 분량의 문서 속 두 개의 사실을 동시에 정확하게 찾아야 점수가 올라가는 벤치마크입니다. 하나라도 틀리면 0점입니다.
| 모델 | MRCR v2 점수 (1M 토큰) |
|---|---|
| Claude Opus 4.6 | 78.3% |
| Claude Sonnet 4.5 (이전 최고) | 18.5% |
| Gemini 3.1 Pro | 25.9%~26.3% |
Opus 4.6은 이전 최고 모델(Claude Sonnet 4.5, 18.5%)보다 약 4배 높습니다. Gemini 3.1 Pro(25.9%)보다는 3배 이상 높습니다. 컨텍스트 윈도우가 크다고 안에 든 내용을 잘 읽는 건 다른 문제입니다. 이 수치는 “창고 크기”가 아닌 “창고 속 물건을 얼마나 잘 찾느냐”를 보여줍니다. 큰 창고라도 내용을 못 찾으면 쓸모가 없는데, Opus 4.6은 그 격차를 실제 수치로 증명했습니다.
(출처: Anthropic 1M Context GA 발표문, 2026.03.13)
⚠️ 단, 수치를 그대로 믿기 전에 알아야 할 것: 이 78.3%는 Anthropic 자체 발표 수치입니다. Substack 분석가 Karo Zieminski가 지적했듯, “독립 검증은 아직 진행 중”입니다. 또한 벤치마크 검색과 실제 프로덕션에서의 맥락 유지는 다른 문제입니다. 특히 “컨텍스트 중간 부분”의 정보는 앞·뒤 부분보다 회상 정확도가 낮다는 점은 여러 개발자 테스트에서 반복적으로 확인됩니다.
(출처: Product with Attitude, 2026.03.22 / Reddit r/ChatGPT 쓰레드, 2026.03.20)
세션 비용이 눈 깜짝할 새 불어나는 이유
요금 체계가 플랫해졌다고 해도 절대 금액은 따로 계산해야 합니다. 공식 발표에 따르면 Opus 4.6는 입력 $5/M, 출력 $25/M 토큰입니다. 이걸 900K 토큰 세션에 대입하면 이렇게 됩니다.
$$\text{입력 비용} = 900{,}000 \div 1{,}000{,}000 \times \$5 = \$4.50$$
여기에 출력 토큰이 30K 생성된다면:
$$\text{출력 비용} = 30{,}000 \div 1{,}000{,}000 \times \$25 = \$0.75$$
$$\text{세션 1회 총비용} \approx \$5.25$$
일회성 리서치라면 감당할 수 있지만, 루프를 도는 에이전트에 붙이면 하루 수십 달러가 됩니다.
실제로 Cursor에서 Claude Code를 연동한 개발자가 공유한 사례가 있습니다. AI 도구 호출 한 번이 DB 전체를 불러오면서 800K 토큰을 소비했습니다. 1M 윈도우가 커졌다는 건 실수 한 번의 비용도 그만큼 커졌다는 뜻입니다. 창이 크다고 다 넣으면 청구서도 그만큼 커집니다.
💡 Anthropic이 공식 문서에서 직접 밝힌 점: Compaction 이벤트는 GA 이후 15% 줄었습니다. 이전에는 컨텍스트가 가득 차면 자동 압축이 일어나 세부 정보가 사라졌는데, 1M 윈도우가 그 빈도를 줄였습니다. 그러나 Compaction이 0이 된 건 아닙니다. 비용 규모를 알고 쓰는 것과 모르고 쓰는 건 월말 청구서에서 확연히 다릅니다.
(출처: Anthropic 1M Context GA 발표문, 2026.03.13)
| 항목 | Claude Opus 4.6 | GPT-5.4 API |
|---|---|---|
| 기본 입력 단가 | $5/M | $2.50/M |
| 200K~272K 초과 시 | 요금 변동 없음 | 입력 2배, 출력 1.5배 (세션 전체) |
| 300K 토큰 요청 시 체감 비용 | $1.50 | ~$1.50 (소급 적용으로 약 2배) |
(출처: Product with Attitude, 2026.03.22 — GPT-5.4 요금 비교 분석)
단, Claude Opus 4.6의 기본 단가($5/M) 자체가 GPT-5.4($2.50/M)보다 높습니다. 짧은 세션이 많다면 GPT-5.4가 더 저렴할 수 있습니다. 실제 워크로드가 장문 문서 처리나 에이전트 루프처럼 토큰을 많이 쓰는 구조인지 먼저 따져봐야 합니다.
1M Context가 진짜 유리한 상황과 아닌 상황
공식 발표문과 실사용 후기를 교차해서 정리하면, 1M Context가 확실히 효과를 내는 상황과 그렇지 않은 상황이 구분됩니다.
효과가 확실한 경우
① 대규모 코드베이스 리뷰: 한 번의 세션에서 수만 줄의 코드를 전달하고 교차 파일 의존성을 분석할 때 Compaction으로 인한 맥락 소실이 줄었습니다. 실제로 어느 팀은 Compaction 이벤트가 15% 감소했다고 보고했습니다.
② 수백 페이지 계약서·보고서 분석: 100페이지짜리 계약서 5~6개를 한 세션에 올려두고 조항 간 충돌을 찾는 작업에서 탭 전환 없이 한 번에 처리됩니다.
③ 수백 장 이미지·PDF 처리: 이번 GA 전환에서 미디어 한도도 기존 100개에서 600개로 6배 늘었습니다. PDF나 이미지가 많은 리서치에 유용합니다.
오히려 주의가 필요한 경우
① 단순 반복 API 호출: 세션당 입력이 10K 토큰 수준이라면 기본 $5/M 단가가 그냥 높습니다. GPT-4.1 플랫 요금($2/M)과 비교해 2.5배 비쌉니다.
② 에이전트 루프에 무조건 붙이는 경우: 컨텍스트가 크면 에이전트 호출 한 번이 DB 전체를 긁어올 수 있습니다. 실제 800K 토큰 소비 사례처럼, 큰 창은 큰 실수도 키웁니다.
③ 컨텍스트 중간 부분이 핵심인 작업: 현재 프런티어 모델 전반에서 “중간 부분 정보의 회상 정확도”는 앞뒤보다 낮습니다. 핵심 데이터를 세션 초반이나 후반부에 배치하는 것이 여전히 유효한 전략입니다.
💡 공식 문서와 실제 사용 사이에서 보이는 차이: Anthropic 공식 Best Practices 문서는 “컨텍스트 윈도우가 가득 차기 시작하면 Claude는 이전 지시를 잊기 시작할 수 있다”고 명시합니다. 1M 창이 생겼다고 이 원칙이 사라진 건 아닙니다. 창이 크더라도 /compact와 /clear를 적절히 쓰는 습관은 여전히 유효합니다.
(출처: Claude Code 공식 Best Practices — code.claude.com/docs/ko/best-practices)
Q&A
Q1. Pro 플랜에서 /extra-usage 입력 후 요금은 어떻게 됩니까?
Q2. Sonnet 4.6도 1M Context를 쓸 수 있습니까?
Q3. Gemini도 1M 컨텍스트를 지원한다고 하던데, Claude와 차이가 있습니까?
Q4. Amazon Bedrock이나 Vertex AI에서도 1M Context를 쓸 수 있습니까?
Q5. 베타 헤더를 기존에 코드에 추가해뒀는데, GA 이후 수정이 필요합니까?
마치며 — 1M Context, 쓰기 전에 챙겨야 할 3가지
Claude Code 1M Context GA는 실질적인 변화가 세 가지입니다. 첫째, 200K 초과 시 붙던 프리미엄 요금이 완전히 사라졌습니다. 이건 단순 기능 안정화가 아니라 가격 전략 변경입니다. 둘째, Pro 플랜은 자동 적용이 아니라 직접 옵트인해야 합니다. “다 열렸다”는 분위기와 달리, $20 플랜 사용자라면 /extra-usage를 입력해야 비로소 작동합니다. 셋째, 창이 커졌다고 비용이 줄지는 않습니다. 900K 토큰짜리 세션 하나가 5달러를 넘기고, 에이전트 루프에서 실수가 나면 그 비용은 더 크게 불어납니다.
Compaction 이벤트 15% 감소라는 수치는 실제로 의미 있습니다. 그러나 1M 창이 생겼다고 컨텍스트 관리가 완전히 해결된 건 아닙니다. 공식 문서가 여전히 /compact 명령어와 /clear를 권장하는 이유가 있습니다. 쓸 줄 아는 것과 잘 쓰는 것 사이에서, 지금 가장 필요한 건 숫자를 직접 계산해보는 습관입니다.
본 포스팅 참고 자료
- Anthropic 공식 블로그 — 1M Context GA 발표 (2026.03.13): claude.com/blog/1m-context-ga
- Anthropic 공식 뉴스 — Introducing Claude Opus 4.6 (2026.02.05): anthropic.com/news/claude-opus-4-6
- Claude Code 공식 Best Practices (한국어): code.claude.com/docs/ko/best-practices
- Product with Attitude — Claude 1M Context Window 분석 (2026.03.22): karozieminski.substack.com
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. Claude Code 1M Context는 2026.03.13 GA 기준으로 작성되었으며, 플랜별 요금·사용량 정책은 Anthropic 공식 페이지에서 최신 내용을 확인하시기 바랍니다.

댓글 남기기