Claude Code 1M context,
Max 플랜만 되는 이유 있습니다
Compaction 지옥에서 벗어났다는 말은 맞습니다. 근데 Pro 플랜으로는 Claude Code에서 안 됩니다. 비용도 선형이 아닙니다. 공식 수치와 실사용 후기를 같이 놓고 봤습니다.
💸 비용 선형 증가? 아닙니다
✅ Compaction 15% 감소
1M context 정식 출시 — 실제로 달라진 것들
2026년 3월 13일, Anthropic이 Claude Platform에서 Opus 4.6과 Sonnet 4.6의 1M 토큰 컨텍스트 윈도우를 정식 출시했습니다. 베타 딱지가 떨어진 것도 의미 있지만, 핵심은 요금 구조 변화입니다.
💡 공식 발표문과 실제 사용 흐름을 같이 놓고 보니 이런 차이가 보였습니다
이전까지는 200K 토큰을 초과하는 요청에 별도 베타 헤더를 붙여야 했고, 장기 컨텍스트 프리미엄이 적용됐습니다. 지금은 그 구분이 사라졌습니다. 900K 토큰 요청이나 9K 토큰 요청이나 토큰당 단가가 같습니다. (출처: Anthropic 공식 블로그, 2026.03.13)
이와 함께 달라진 것들을 정리하면 이렇습니다.
| 항목 | 변경 전 | 변경 후 |
|---|---|---|
| 베타 헤더 필요 여부 | 200K 초과 시 필요 | 불필요 (자동 처리) |
| 장기 컨텍스트 프리미엄 | 있음 | 없음 (단일 요금) |
| 미디어(이미지/PDF) 한도 | 100개 | 600개 (6배) |
| 지원 플랫폼 | Claude Platform 일부 | Claude Platform + AWS Bedrock + Vertex AI + MS Foundry |
Claude Code에서의 변화도 있습니다. Max, Team, Enterprise 플랜 사용자의 Opus 4.6 세션은 이제 1M 컨텍스트가 기본값입니다. 별도 설정 없이 자동으로 적용됩니다. 단, 이 기본 적용 범위가 “Max 이상”이라는 점이 중요합니다. 아래에서 자세히 다룹니다.
Pro 플랜에서 Claude Code에 1M이 안 되는 구조
Claude Code 1M context가 “누구나 쓸 수 있다”고 알고 있다면 절반은 맞고 절반은 틀립니다. API로 직접 호출할 때는 맞습니다. Pro 플랜도 Opus 4.6이나 Sonnet 4.6 API를 직접 쓰면 1M 컨텍스트를 사용할 수 있습니다. 토큰당 단가는 같습니다.
⚠️ Claude Code에서의 1M 자동 적용은 Max·Team·Enterprise 전용입니다
공식 블로그 원문 — “1M context is now included in Claude Code for Max, Team, and Enterprise users with Opus 4.6.” Pro 플랜은 이 자동 적용 대상에 포함되지 않습니다. (출처: claude.com/blog/1m-context-ga, 2026.03.13)
정리하면 이렇습니다. Pro 플랜도 Claude Code 자체는 사용할 수 있습니다. (2026년 1월 16일 업데이트부터 Pro 플랜에 Claude Code 접근이 포함됩니다.) 단, 그 안에서 1M 컨텍스트가 기본으로 켜지는 건 Max부터입니다. Pro 플랜 사용자가 1M을 쓰려면 API를 직접 호출하는 구조로 별도로 구성해야 합니다.
플랜별 1M 컨텍스트 접근 방식 비교
| 플랜 | Claude Code 1M 자동 적용 | API 직접 호출 시 |
|---|---|---|
| Free / Pro | ❌ 미적용 | ✅ 가능 (토큰 과금) |
| Max (5x / 20x) | ✅ Opus 4.6 기본값 | ✅ 가능 |
| Team / Enterprise | ✅ Opus 4.6 기본값 | ✅ 가능 |
Max 플랜 월 $100부터라는 가격을 보고 “그냥 Pro 쓰면 안 되나?”라고 생각할 수 있습니다. Claude Code에서 1M 자동 적용이 필요하다면 Max 이상이어야 합니다. API를 직접 구성할 수 있는 환경이라면 Pro에서도 1M을 쓸 수는 있지만, 그 경우엔 Claude Code의 에이전트 루프를 직접 관리해야 합니다.
비용이 선형이 아닌 이유 — 수치로 직접 따져봤습니다
1M context를 “추가 요금 없이 쓸 수 있다”는 말은 맞습니다. 다만 이게 “싸다”와는 다릅니다. 가장 많이 놓치는 부분이 여기 있습니다.
💡 “추가 과금 없음”과 “비용 고정”은 다른 말입니다
1M 컨텍스트를 쓴다고 해서 그 비용이 200K 대비 5배라는 뜻이 아닙니다. 비용은 실제로 전송하는 토큰 수에 비례합니다. 대화가 길어질수록 매 쿼리마다 포함되는 누적 컨텍스트가 기하급수적으로 늘어납니다.
Sonnet 4.6 기준 세션 길이별 비용 추정
Sonnet 4.6 입력 $3 / 백만 토큰 기준으로, 대화 진행에 따른 쿼리당 비용 변화를 추정하면 이렇습니다. (추정치, 실제 작업 내용에 따라 달라집니다)
| 세션 경과 시간 | 누적 컨텍스트 (약) | 쿼리당 입력 비용 (약) |
|---|---|---|
| 초반 30분 | 10K~50K 토큰 | $0.03~$0.15 |
| 중반 1~2시간 | 150K~300K 토큰 | $0.45~$0.90 |
| 후반 2~3시간 | 500K~800K 토큰 | $1.50~$2.40 |
| 세션 최대치 | 900K+ 토큰 | $2.70 이상/쿼리 |
실측 데이터를 보면 더 명확합니다. 한 개발자는 Anthropic에서 받은 $50 무료 크레딧을 1M 컨텍스트로 3~4시간 안에 전액 소진했습니다. 처음 $10은 1시간이 걸렸고, 마지막 $10은 20분도 안 됐습니다. (출처: realcoding.blog, 2026.02.20) 세션 후반으로 갈수록 쿼리 하나에 $2~3씩 빠지는 구조입니다.
이 구조를 이해하면 실용적인 사용법이 나옵니다. 대용량 파일 분석 같이 짧고 집중적인 작업에는 1M을 켜고, 목적이 끝나면 세션을 닫아야 합니다. 하루 종일 켜두는 용도로 쓰는 건 비용 구조상 맞지 않습니다.
컨텍스트 길어질수록 토큰이 줄어드는 조건
막연히 “컨텍스트가 클수록 비싸다”는 말이 항상 맞진 않습니다. 공식 발표문에 실린 실사용 사례에서 이 부분을 뒤집는 수치가 나왔습니다.
💡 컨텍스트를 늘렸더니 오히려 토큰 소비가 줄었습니다
Anthropic 공식 블로그에서 AI 리서치 리드 Izzy Miller는 이렇게 말했습니다 — “We raised our Opus context window from 200k to 500k and the agent runs more efficiently — it actually uses fewer tokens overall. Less overhead, more focus on the goal at hand.” (출처: claude.com/blog/1m-context-ga, 2026.03.13) 오버헤드가 줄어 전체 토큰이 감소합니다.
왜 이게 가능한 걸까요? 기존 200K 구간에서는 컨텍스트가 찰 때마다 Compaction이 일어났습니다. 이 과정에서 요약 프롬프트, 이전 요약 재로딩, 오류 재시도 등이 추가 토큰을 소모했습니다. 1M으로 전환하면 그 반복 구조가 사라집니다. 대화 흐름 자체가 단순해지기 때문에 전체 토큰 수가 줄어드는 역설적 상황이 생깁니다.
이게 유리한 작업과 아닌 작업
| 작업 유형 | 1M 전환 효과 | 비용 방향 |
|---|---|---|
| 대형 코드베이스 리뷰 | 파일 청킹·재로딩 불필요 | 토큰 감소 가능 |
| 장기 에이전트 루프 | Compaction 재시도 제거 | 전체 비용 감소 가능 |
| 단순 Q&A 반복 | 누적 컨텍스트만 쌓임 | 비용 증가 |
| PDF/이미지 대량 분석 1회 | 한 세션 완료 가능 | 사용 패턴에 따라 다름 |
실제로 투입할 수 있는 것들 — 600개 미디어 제한의 의미
이번 업데이트에서 조용히 바뀐 부분 중 하나가 미디어 한도입니다. 요청당 이미지 또는 PDF 페이지 수가 100개에서 600개로 늘었습니다. (출처: claude.com/blog/1m-context-ga, 2026.03.13) 단순히 6배가 아니라, 이걸로 할 수 있는 작업의 성격 자체가 달라집니다.
💡 600페이지는 두꺼운 기술 문서 한 권 수준입니다
300페이지짜리 계약서 두 건, 100페이지짜리 데이터셋 여섯 개, 400페이지 소송 기록 하나에 이미지 200장. 이 조합이 하나의 세션에 들어갑니다. 이전까지는 물리적으로 불가능하던 작업이 가능해집니다.
법률 AI 스타트업 사례도 공식 발표문에 포함됐습니다. 원고 변호사를 위한 AI 도구에서 400페이지 증언 기록과 전체 사건 파일을 한 번에 참조해 교차 검색을 수행한다고 했습니다. (Mauricio Wulfovich, Eve ML Engineer) 이전에는 청킹과 요약 파이프라인을 별도로 구축해야 했던 작업입니다.
한 가지 제약은 지금도 남아 있습니다. Claude Code 안에서 이 600개 한도는 API 직접 호출 기준입니다. Claude.ai 웹 채팅에서의 첨부 파일 한도와는 별도로 적용됩니다. 웹 UI에서 파일을 올리는 방식으로는 이 숫자를 다 채울 수 없습니다. API 통합 환경에서의 이야기입니다.
벤치마크 수치로 본 “진짜 기억력”
컨텍스트 윈도우가 크다고 해서 끝 부분을 잘 기억하는 건 아닙니다. 이게 그냥 마케팅성 숫자인지, 실제로 쓸 만한지를 가르는 기준이 있습니다.
Anthropic 공식 블로그에 공개된 수치입니다. Opus 4.6은 MRCR v2 벤치마크에서 78.3%를 기록했습니다. 이 점수는 동일 컨텍스트 길이 구간에서 프론티어 모델 중 가장 높은 수치입니다. (출처: claude.com/blog/1m-context-ga, 2026.03.13) 먼 앞에서 읽었던 내용을 뒤에서 다시 꺼낼 때의 정확도가 78.3%라는 뜻입니다.
💡 78.3%를 어떻게 읽어야 할까요
1M 토큰짜리 문서를 통째로 넣고 “1페이지에 나온 계약 조건이 뭐야?”라고 물었을 때 맞히는 비율이 약 78%입니다. 나머지 22%는 틀리거나 모른다고 답합니다. 컨텍스트가 길수록 이 오류가 쌓이기 때문에, 중요한 데이터는 컨텍스트 초반에 배치하는 게 실용적입니다.
코드베이스 리뷰에서의 실사용 증언도 있습니다. Cognition AI 창립 엔지니어는 대형 diff를 200K에서 청킹할 때 크로스 파일 의존성을 놓치는 경우가 많았는데, 1M으로 전환 후 풀 diff를 한 번에 넣으니 리뷰 품질이 올라갔다고 했습니다. (Adhyyan Sekhsaria, Cognition AI, 출처: claude.com/blog/1m-context-ga) 파일 간 의존 관계가 많은 대형 코드베이스에서 특히 효과가 나타납니다.
그리고 Compaction 이벤트 감소 수치도 공개됐습니다. 1M 전환 이후 한 서비스에서 Compaction 발생이 15% 감소했습니다. (Jon Bell, CPO, 출처: 동일) 맥락이 끊기는 일이 15% 줄었다는 수치입니다. 작업 연속성에서 체감으로 이어지는 수준입니다.
Q&A — 자주 나오는 질문 5가지
마치며 — 좋은 도구, 맞는 조건이 있습니다
Claude Code 1M context는 확실히 의미 있는 업데이트입니다. 추가 과금 없이 단일 요금, 베타 헤더 제거, 600개 미디어 허용. 개발자 워크플로우에서 Compaction 때문에 겪던 불편이 실질적으로 줄어듭니다.
다만 “추가 과금 없음”이 “저렴하다”는 뜻은 아닙니다. 세션이 길어질수록 매 쿼리의 입력 토큰이 기하급수적으로 커집니다. 비용 설계를 잘못 잡으면 $50이 3시간 안에 사라지는 상황이 됩니다. 무거운 작업에 집중 투입하고 세션을 짧게 가져가는 게 현실적인 운영 방식입니다.
Claude Code에서 자동으로 누리려면 Max 플랜이 필요합니다. API를 직접 쓰는 환경이라면 Pro에서도 기술적으로 가능합니다. 자기 사용 패턴에 맞는 플랜 선택이 먼저입니다.
그리고 컨텍스트가 클수록 오히려 토큰이 줄어드는 작업 유형도 실존합니다. 에이전트 루프나 대형 코드베이스 리뷰에서는 Compaction 재시도 비용이 사라지면서 전체 토큰 소비가 줄어드는 경우가 있습니다. “무조건 비싸다”도, “무조건 이득이다”도 아닙니다. 작업의 성격을 보고 판단하면 됩니다.
📎 본 포스팅 참고 자료
※ 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 본문 내 수치는 2026년 3월 25일 기준이며, Anthropic의 업데이트에 따라 달라질 수 있습니다. 비용 추정치는 실제 작업 내용과 세션 길이에 따라 크게 달라질 수 있으므로 참고용으로만 활용하시기 바랍니다.







댓글 남기기