Claude Code 1M 컨텍스트, Pro 구독하면 될까요?

Published on

in

Claude Code 1M 컨텍스트, Pro 구독하면 될까요?

2026.03.13 GA 기준
Claude Code v2.1.76+ 기준
Opus 4.6 / Sonnet 4.6

Claude Code 1M 컨텍스트, Pro 구독하면 될까요?

결론부터 말씀드리면, 안 됩니다. 2026년 3월 13일 Anthropic이 1M 컨텍스트를 정식 GA(일반 제공)했지만, 이건 Claude Code Max·Team·Enterprise 플랜과 API 사용자 전용입니다. Pro 플랜으로 claude.ai 웹에서 쓰면 기존과 달라지는 게 없습니다. 기대가 컸다면 이 글부터 읽고 결정하는 게 낫습니다.

78.3%
MRCR v2 정확도 (1M 토큰 기준, 프론티어 모델 중 1위)
5x
기존 200K 대비 컨텍스트 확장 (추가 요금 없음)
15%
compaction 이벤트 감소 (Codeium CPO 실측)

Pro 플랜에서 안 된다는 게 실제로 무슨 의미인가요?

Anthropic 공식 발표(출처: claude.com/blog/1m-context-ga, 2026.03.13)를 그대로 옮기면 이렇습니다. “1M context is now included in Claude Code for Max, Team, and Enterprise users with Opus 4.6.” Pro 플랜은 이 목록에 없습니다.

Reddit r/ClaudeAI 커뮤니티에서도 실사용자들이 이 점을 바로 확인했습니다. Pro 플랜과 표준 claude.ai 웹 인터페이스에서는 1M 컨텍스트가 적용되지 않고 기존 200K 한도 그대로입니다. 다만 API 요금제로 전환하면 개발자 개인도 표준 가격으로 1M 컨텍스트를 쓸 수 있습니다.

💡 공식 발표와 실제 플랜 적용 범위를 나란히 놓으면 이런 차이가 보였습니다

플랜 1M 컨텍스트 추가 비용
Free / Pro ❌ 미적용
Max ($100/월) ✅ 자동 적용 없음 (표준가)
Team / Enterprise ✅ 자동 적용 없음 (표준가)
API (Opus 4.6) ✅ 표준가 적용 $5/$25 per M tok

(출처: Anthropic 공식 블로그, 2026.03.13 / Reddit r/ClaudeAI 실사용 확인)

▲ 목차로 돌아가기

1M 토큰이 실제로 얼마나 큰 건지 감이 안 옵니다

숫자가 커서 실감이 안 오는 게 당연합니다. 토큰 1M개는 영문 기준으로 약 75만 단어에 해당합니다. 소설 10권 분량이자, 실제 중규모 SaaS 프로덕션 코드베이스 전체를 한 번에 담을 수 있는 크기입니다.

Laravel 교육자 Povilas Korop은 자신의 프로젝트 스펙 문서, 모든 모델, 마이그레이션, 라우트, 앱 컨텍스트를 전부 하나의 세션에 올렸을 때 컨텍스트 미터가 83%까지 올라갔다고 실제 사용 사례를 공유했습니다. 프롬프트 한 번. 창 하나. 프로젝트 전체가 메모리 안에 있는 상태로 작업했습니다. (출처: AlphaSignal LinkedIn 분석, 2026.03.13)

📊 토큰 규모 직접 비교

기존 200K = 약 15만 단어 = 소설 2~3권 분량 = 실제 체감 유효 범위는 약 12만 토큰 (harness·compaction 오버헤드 고려)

신규 1M = 약 75만 단어 = 소설 10권 분량 = 8만 줄 이상의 TypeScript 프로젝트 전체 로드 가능

(계산 기준: 영문 1토큰 ≈ 0.75단어, 한국어는 1토큰 ≈ 0.5~0.6자 / 출처: AlphaSignal 분석, 2026.03.13)

코드는 산문보다 토큰 소비가 빠릅니다. 500줄짜리 TypeScript 파일 하나가 대략 2,000 토큰을 씁니다. 200K 창에서는 100개 파일이 한계였다면, 1M 창에서는 500개 파일을 한 번에 담을 수 있다는 의미입니다. 숫자로 보면 5배지만, 실제 작업 흐름에서는 그 이상의 차이가 납니다. 세션마다 다시 파일을 로드하는 오버헤드가 사라지기 때문입니다.

▲ 목차로 돌아가기

컨텍스트가 많을수록 비용도 많이 든다고요?

이게 많은 분들이 잘못 이해하는 부분입니다. “컨텍스트가 5배 늘었으니 비용도 5배 나오겠지”라고 생각하기 쉽습니다. 실제로는 그 반대 방향의 효과가 있습니다.

Reddit 사용자 Performer_First는 1M 컨텍스트 1개 세션에서 달성한 작업량을 기존 200K 세션 5개와 직접 비교했습니다. Claude가 직접 계산해준 수치를 그대로 공유했는데, 5개 세션에서 필요한 총 토큰은 약 100만 개였지만 실제 유효 작업 토큰은 약 75만 개였습니다. 세션마다 CLAUDE.md와 핵심 파일을 다시 읽는 데 30~50K 토큰이 낭비됐기 때문입니다. 반면 1M 세션 하나에서는 파일을 단 한 번만 읽고 나머지를 전부 작업에 썼습니다. 낭비 없이 97만 토큰이 실제 작업에 쓰였습니다.

💡 실제로 같은 작업을 했을 때 이런 차이가 나왔습니다

200K × 5회: 총 100만 토큰 투입 → 세션 재개 오버헤드 25만 토큰 낭비 → 유효 작업 75만 토큰

1M × 1회: 총 97만 토큰 투입 → 오버헤드 3만 토큰 → 유효 작업 94만 토큰

(출처: Reddit r/ClaudeAI @Performer_First 실측 보고, 2026.03.13)

물론 단순 질문이나 소규모 파일 작업에 1M 창을 통째로 쓰는 건 낭비입니다. Anthropic 자체도 “모든 요청이 1M을 써야 한다는 의미는 아니다”라고 명시했습니다. (출처: claude.com/blog/1m-context-ga) 규모가 큰 코드베이스 작업, 장기 에이전트 세션, 대용량 문서 분석처럼 실제로 컨텍스트를 많이 쓰는 상황에서 비용 효율이 높아지는 구조입니다.

한 가지 더 주의할 점이 있습니다. 세션 중반에 “감사합니다”처럼 짧은 메시지 하나를 보내도, 이미 쌓인 컨텍스트 전체가 다시 전송됩니다. 컨텍스트가 50만 토큰이 된 상태에서 “알겠습니다” 한 마디가 50만 토큰 + 짧은 출력을 청구하는 구조입니다. 이건 모든 LLM 공통 구조이지만, 1M 창에서는 그 영향이 훨씬 커집니다.

▲ 목차로 돌아가기

Claude Code가 compaction에서 벗어난다는 게 왜 중요한가요

compaction이란 컨텍스트 한도에 가까워지면 Claude Code가 이전 대화를 자동으로 요약·압축하는 과정입니다. 쉽게 말하면, 오래된 기억을 날리고 짧게 요약해서 공간을 확보하는 겁니다. 문제는 이 과정에서 중요한 결정이나 파일 내용이 날아가는 경우가 생긴다는 점입니다.

코드 리팩터링을 절반쯤 진행했는데 Claude가 갑자기 아까 읽었던 파일 이름을 기억 못 한다거나, 이미 결정한 아키텍처 방향을 다시 물어본다거나 하는 상황이 여기서 나옵니다. 실제로 Claude Code는 100K+ 토큰을 Datadog, Braintrust, 데이터베이스, 소스코드를 뒤지는 데 쓴 다음에야 수정 제안을 시작하는 경우가 있다고 알려져 있습니다. (출처: Anthropic 공식 블로그 인용, Anton Biryukov 발언)

💡 공식 발표문과 실측 데이터를 교차해서 보면 이 수치가 다르게 읽힙니다

Codeium CPO Jon Bell은 1M 컨텍스트 전환 후 compaction 이벤트가 15% 감소했다고 밝혔습니다. 이 15%는 언뜻 작아 보이지만, compaction이 발생할 때마다 에이전트가 작업을 다시 읽고 재정렬하는 데 수만 토큰이 들어간다는 점을 생각하면 실제 효율은 그 이상입니다. 특히 PDF, 대용량 이미지를 올린 순간 200K 창에서는 즉시 compaction이 트리거됐다고 했습니다. (출처: Anthropic 공식 블로그, 2026.03.13)

단, compaction을 완전히 없애는 건 아닙니다. 1M 창도 채우면 compaction이 발생합니다. 차이는 그 한계가 훨씬 멀어졌다는 겁니다. Reddit 사용자 중에는 “이틀째 같은 세션에서 대형 기능을 추가하고 있는데 컨텍스트가 19%밖에 안 찼다”고 공유한 사례도 있었습니다.

▲ 목차로 돌아가기

78.3%라는 수치, 믿어도 되는 걸까요

Anthropic은 Opus 4.6이 MRCR v2 벤치마크에서 1M 토큰 기준 78.3%를 기록했다고 발표했습니다. 프론티어 모델 중 해당 길이에서 가장 높은 수치입니다. (출처: claude.com/blog/1m-context-ga, 2026.03.13)

MRCR v2는 긴 컨텍스트에서 사실과 엔티티를 얼마나 정확하게 추적하는지 측정하는 벤치마크입니다. 쉽게 말하면 ’60만 토큰 앞에서 정의한 변수 이름을 지금도 정확히 기억하는가’를 측정하는 테스트입니다. Reddit 커뮤니티의 반응도 “점수가 진짜 뉴스”라는 의견이 많았습니다.

⚠️ 그러나 이 수치만 보고 넘어가면 이 부분에서 걸립니다

“lost in the middle” 문제는 여전히 존재합니다. 컨텍스트 앞부분과 뒷부분의 정보는 더 잘 기억하는 반면, 중간에 묻혀 있는 정보의 회수율은 상대적으로 낮습니다. Anthropic이 이 곡선을 훨씬 더 멀리 밀어냈다는 건 사실이지만, 사라진 건 아닙니다. 실제 중요한 정보는 가능하면 프롬프트 초반이나 말미에 위치시키는 게 여전히 유리합니다.

또 다른 현실적인 한계가 있습니다. 1M 컨텍스트는 세션 내 메모리입니다. 세션을 닫으면 전부 사라집니다. --resume 옵션으로 같은 디렉터리 세션을 이어갈 수 있지만, 다른 기기나 다른 프로젝트로 이동하는 순간 컨텍스트는 초기화됩니다. Anthropic이 메모리 기능을 별도로 제공하고 있지만, 1M 컨텍스트 그 자체가 영구 기억을 뜻하지는 않습니다.

▲ 목차로 돌아가기

Desktop·VSCode에서 아직 안 보인다면

GA 발표 직후 Reddit에서 가장 많이 올라온 질문이 바로 이것이었습니다. “저는 Max인데 왜 200K로 표시되나요?” GA 첫날 기준으로는 CLI(터미널) 환경이 가장 먼저 업데이트됐고, Claude Code Desktop 앱과 VSCode 확장에서는 일부 사용자들이 여전히 200K를 보고했습니다.

직접 확인된 해결 방법은 다음과 같습니다. 먼저 CLI 버전을 v2.1.76 이상으로 업데이트합니다. 전역 설정 파일에서 모델을 opus라고만 적어뒀다면 opus[1m]으로 바꾸거나 해당 항목을 삭제하면 자동 전환됩니다. (출처: Reddit r/ClaudeAI @_fackler 실측 확인, 2026.03.13)

🔧 설정 파일 빠른 확인 방법 (Claude Code 기준)

// .claude/settings.json 확인
{
  “model”: “claude-opus-4-6”  // “opus” 대신 이렇게 명시
}

단, Haiku 4.5는 여전히 200K 한도입니다. 1M 창은 Opus 4.6과 Sonnet 4.6만 해당됩니다.

Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry를 통해서도 동일한 1M 컨텍스트를 표준 가격으로 쓸 수 있습니다. 기업 환경에서 특정 클라우드를 이미 쓰고 있다면 플랫폼 lock-in 걱정 없이 전환이 가능합니다. (출처: Anthropic 공식 블로그, 2026.03.13)

▲ 목차로 돌아가기

자주 나오는 질문 5개

Q1. Pro 플랜 $20에서 1M 컨텍스트 쓸 방법이 없나요?
claude.ai 웹 인터페이스나 앱에서는 현재 지원되지 않습니다. 다만 API 요금제로 전환하면 개인도 Opus 4.6 표준 가격($5/$25 per M tokens)으로 1M 컨텍스트를 쓸 수 있습니다. 단, API는 사용한 만큼 청구되므로 대화량이 많다면 Max ($100/월) 구독이 더 경제적일 수 있습니다.
Q2. 1M 토큰을 실제로 다 채우면 비용이 얼마나 나오나요?
Opus 4.6 기준으로 입력 토큰 100만 개 = $5입니다. 1M 토큰짜리 입력 한 번을 보내면 입력만 $5입니다. 출력은 별도 청구($25/M tokens)입니다. 다만 실제 코딩 세션에서 한 번에 1M을 채우는 경우는 드물고, 점진적으로 쌓이는 구조이므로 세션 내 실사용 토큰 총합을 기준으로 계산하는 게 정확합니다. Max 구독 ($100/월)은 이 토큰 비용과 별개로 일정 사용량을 포함합니다.
Q3. Sonnet 4.6도 1M 컨텍스트가 되나요?
됩니다. Sonnet 4.6도 Opus 4.6과 함께 1M 컨텍스트를 표준 가격으로 지원합니다. Sonnet의 가격은 $3/$15 per M tokens으로 Opus 대비 저렴합니다. 추론 깊이가 중요하지 않은 작업이라면 Sonnet 4.6이 비용 면에서 유리합니다. Haiku는 여전히 200K 한도입니다.
Q4. PDF나 이미지를 많이 올리는 경우도 차이가 있나요?
이번 업데이트에서 미디어 한도도 크게 늘었습니다. 기존 요청당 100개(이미지 또는 PDF 페이지)에서 600개로 6배 확대됐습니다. 대용량 계약서나 PDF 번들을 한 번에 올려서 교차 분석하는 작업이 기존에는 여러 세션으로 쪼개야 했다면, 이제 한 세션에서 처리할 수 있게 됩니다. (출처: Anthropic 공식 블로그, 2026.03.13)
Q5. 3월 한정 사용량 2배 프로모션과 1M 컨텍스트는 별개인가요?
완전히 별개입니다. 3월 13~27일 한정으로 비피크 시간(평일 오전 8시~오후 2시 ET 외)에 5시간 사용량이 2배로 늘어나는 프로모션이 Free, Pro, Max, Team 플랜에 동시에 적용됩니다. 이 프로모션은 Enterprise에는 적용되지 않습니다. 1M 컨텍스트 GA와는 독립된 혜택입니다. (출처: Anthropic 지원 센터, 2026.03.13)

▲ 목차로 돌아가기

마치며 — 이번 업데이트를 솔직하게 평가하면

이번 1M 컨텍스트 GA는 개인 사용자보다 실제로 코드베이스를 다루는 개발자와 팀 단위 사용자에게 훨씬 의미 있는 변화입니다. 브라우저 채팅을 주로 쓰는 분들에게는 아직 직접 적용되지 않습니다. Pro 플랜에서 여전히 200K라는 점이 불만이라면, 그 불만은 합리적입니다.

그럼에도 이 변화를 긍정적으로 보는 이유가 있습니다. 추가 요금 없이 5배 확장했다는 게 사실이고, 78.3% MRCR v2 점수는 단순히 창을 키운 게 아니라 그 안에서 실제로 기억하는 품질도 함께 높였다는 증거입니다. compaction이 줄어드는 건 코딩 워크플로우에서 실질적인 생산성 차이를 만들어냅니다.

결국 판단 기준은 하나입니다. 지금 작업하는 코드베이스나 문서가 200K 창을 자주 넘기는가, 넘기지 않는가. 넘기지 않는다면 당장 플랜을 올릴 필요는 없습니다. 자주 넘긴다면, 이번 변화는 지금까지 어떻게든 compaction을 피해가며 버텼던 작업 방식을 바꿀 만한 수준의 업데이트입니다.

📚 본 포스팅 참고 자료

  1. Anthropic 공식 블로그 — 1M Context GA 발표 (claude.com/blog/1m-context-ga, 2026.03.13)
  2. Anthropic Claude Code 공식 문서 (docs.anthropic.com/en/docs/claude-code)
  3. Anthropic 지원 센터 — 3월 2026 사용량 프로모션 (support.claude.com, 2026.03.13)
  4. AlphaSignal — “What Claude’s 1M Token Context Window Unlocks for Developers” (LinkedIn, 2026.03.13)
  5. Reddit r/ClaudeAI — 1M Context GA 공식 발표 스레드 (2026.03.13, 516 upvotes)

⚠️ 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 가격, 플랜 범위, 지원 모델 등은 Anthropic 공식 페이지에서 최신 정보를 직접 확인하시기 바랍니다. 본 포스팅은 2026년 3월 19일 기준으로 작성됐습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기