Claude Code 1M 직접 써봤습니다 — 무료로 된 게 아닙니다

Published on

in

Claude Code 1M 직접 써봤습니다 — 무료로 된 게 아닙니다

2026.03.13 기준
Claude Opus 4.6 / Sonnet 4.6
Claude Code

Claude Code 1M Context 직접 써봤습니다
— 무료로 된 게 아닙니다

2026년 3월 13일, Anthropic이 조용히 바꿔놓은 게 있습니다. Claude Code 1M 컨텍스트가 정식(GA) 지원으로 전환되면서 베타 시절 프리미엄 요금이 사라졌습니다. 근데 공식 블로그만 읽으면 “그냥 공짜”처럼 보입니다. 실제로는 그렇지 않습니다. 수치를 직접 확인했습니다.

1,000,000
토큰 컨텍스트 윈도우
78.3%
Opus 4.6 MRCR v2 정확도
15%
컴팩션 이벤트 감소

1M 컨텍스트, 정확히 뭐가 달라졌나요?

Claude Code 1M 컨텍스트가 2026년 3월 13일부로 정식(GA) 전환됐습니다. (출처: Anthropic 공식 블로그, claude.com/blog/1m-context-ga) 베타 딱지가 떨어진 것 자체보다 중요한 건, 이전까지 붙어있던 프리미엄 요금 구조가 사라졌다는 점입니다. Opus 4.6 공식 출시 당시(2026.02.05)에는 200K 토큰 초과분에 별도 프리미엄이 적용됐습니다. 3월 13일부터는 그 프리미엄이 제거됐습니다.

변경된 핵심 4가지는 공식 문서에 딱 이렇게 나옵니다. 첫째, 전체 컨텍스트 윈도우에 단일 요금 적용(No long-context premium). 둘째, 모든 컨텍스트 길이에서 표준 계정 처리량 유지. 셋째, 요청당 미디어 한도 6배 확대(100개 → 600개 이미지/PDF 페이지). 넷째, 200K 초과 요청에 beta 헤더 불필요. 기존에 beta 헤더를 쓰고 있었다면 코드 수정 없이도 자동으로 무시됩니다.

Claude Code에서는 Max, Team, Enterprise 플랜을 사용하는 Opus 4.6 세션이 자동으로 1M 컨텍스트 윈도우를 씁니다. 이전에는 1M 컨텍스트를 쓰면 추가 사용량이 차감됐는데, GA 전환 이후에는 그 추가 차감이 없어졌습니다. 플랜 선택 시 눈여겨봐야 할 부분입니다.

▲ 목차로 돌아가기

“무료”처럼 보이지만 실제 요금 구조는 이렇습니다

💡 공식 발표문과 실제 API 요금표를 나란히 놓고 보니 이런 차이가 보였습니다

공식 블로그는 “No long-context premium”이라고 합니다. 그런데 API 요금표를 직접 확인해보면, ‘표준 요금’이 적용되는 구간과 그 위에 추가 요금이 붙는 구간이 여전히 존재합니다. 두 문서를 같이 읽어야 전체 그림이 나옵니다.

공식 블로그가 말하는 “No premium”은 베타 시절에 있던 2배 프리미엄 곱하기(2x multiplier)가 사라졌다는 뜻입니다. Opus 4.6 출시 공식문(2026.02.05 Anthropic)에는 “Premium pricing applies for prompts exceeding 200k tokens ($10/$37.50 per million input/output tokens)”라고 명시돼 있었습니다. 기존 표준 요금($5/$25)의 딱 2배였습니다.

이 2배 프리미엄이 3월 13일부터 없어졌습니다. 900K 토큰 요청도 9K 토큰 요청과 같은 단가로 청구됩니다. 직접 계산해보면 차이가 바로 나옵니다.

모델 입력 요금
(0~200K)
입력 요금
(200K~1M, 베타 당시)
입력 요금
(200K~1M, GA 이후)
Opus 4.6 $5/MTok $10/MTok $5/MTok
Sonnet 4.6 $3/MTok $6/MTok $3/MTok
출처: Anthropic 공식 블로그(2026.03.13 GA 발표), Anthropic Claude Opus 4.6 출시문(2026.02.05)

800K 토큰짜리 요청을 하루 50번 보낸다고 가정하면 계산이 명확합니다. 800K 토큰 중 200K는 기본 요금($5/MTok), 나머지 600K는 베타 당시 $10/MTok이었으나 GA 이후 $5/MTok입니다. 일 기준으로 600K × 50회 = 30M 토큰, 단가 차이($5)를 적용하면 하루 $150이 절감됩니다. 월 단위로 $4,500 차이입니다. API를 많이 쓰는 팀이라면 단순히 “프리미엄 없어졌다”는 말이 아니라 실질적인 비용 변동입니다.

▲ 목차로 돌아가기

100만 토큰 써도 다 기억한다고요? 숫자가 다릅니다

1M 컨텍스트가 생겼다고 해서 모델이 100만 토큰을 동일한 정확도로 처리한다는 뜻은 아닙니다. Anthropic이 공식 발표문에서 직접 공개한 MRCR v2 벤치마크 수치를 보면 모델 간 격차가 상당합니다. MRCR(Multi-Round Coreference Resolution)은 방대한 문서 속에 숨겨진 정보를 얼마나 정확하게 찾아내는지를 측정합니다. 코드베이스 전체를 넣었을 때 참조를 제대로 추적하는지와 직결되는 지표입니다.

💡 같은 1M 컨텍스트인데 모델마다 실제 활용도가 이렇게 다릅니다

Opus 4.6 76% vs Sonnet 4.5 18.5%, 이 차이는 단순 성능 차이가 아닙니다. Sonnet으로 1M을 넣었을 때 80%가 넘는 토큰이 사실상 유실된다는 뜻이어서, 저렴한 모델로 대용량 컨텍스트를 쓸 때 어떤 결과가 나오는지 미리 가늠할 수 있습니다.

모델 MRCR v2 @ 1M tokens 실질 활용 가능 추정 비율
Opus 4.6 76~78.3% 높음
Sonnet 4.5 18.5% 매우 낮음
출처: Anthropic Claude Opus 4.6 공식 발표문(2026.02.05), MRCR v2 8-needle 1M 변형 기준

Opus 4.6의 76%와 Sonnet 4.5의 18.5%, 약 4배 이상 차이입니다. Anthropic 공식 발표문에는 이런 표현이 나옵니다. “Opus 4.6 performs markedly better than its predecessors: on the 8-needle 1M variant of MRCR v2, Opus 4.6 scores 76%, whereas Sonnet 4.5 scores just 18.5%. This is a qualitative shift.” 질적 전환이라는 표현을 직접 썼습니다.

이 수치가 실제로 의미하는 건 이렇습니다. Sonnet 4.5로 코드베이스 전체를 넣어서 버그를 찾으라고 하면, 모델이 컨텍스트의 81% 이상에서 참조 추적을 놓칩니다. GA로 전환됐다고 해서 Sonnet으로 대형 컨텍스트를 무작정 넣는 건 비용 대비 실익이 없을 수 있습니다. Max 플랜에서 Opus 4.6을 써야 1M 컨텍스트의 실체에 가까이 가는 것입니다.

▲ 목차로 돌아가기

Claude Code에서 실제로 어떻게 바뀌나요

Claude Code 사용자 입장에서 가장 체감되는 변화는 컴팩션(Compaction) 빈도입니다. 이전에는 Claude Code가 Datadog, Braintrust, 데이터베이스, 소스코드를 검색하다 보면 100K 토큰이 금방 소비됐고, 그 시점에 컴팩션이 발생해 이전 대화가 요약됩니다. 요약 과정에서 세부 사항이 사라지고, 디버깅을 반복하는 루프에 빠지는 게 대표적인 불편함이었습니다.

실제 사용 후기로는 “컨텍스트 윈도우를 200K에서 500K으로 올렸더니 에이전트가 오히려 더 효율적으로 돌아가고, 전체 토큰 사용량도 줄었다”는 내용이 Anthropic 공식 블로그 인터뷰에 직접 담겨 있습니다. (출처: claude.com/blog/1m-context-ga, Izzy Miller, AI Research Lead) 컨텍스트가 넓어지면 불필요한 재검색이 줄어들어서 토큰 소모가 오히려 감소한다는 사례입니다.

📊 플랜별 1M 컨텍스트 적용 범위 (Claude Code 기준, 2026.03.13 기준)

플랜 1M 컨텍스트 자동 적용 모델 추가 비용
Max ✅ 포함 Opus 4.6 자동 없음
Team ✅ 포함 Opus 4.6 자동 없음
Enterprise ✅ 포함 Opus 4.6 자동 없음
Pro ($20/월) Claude Code 미포함
Free ❌ 미포함
출처: claude.com/blog/1m-context-ga (2026.03.13)

Anthropic 공식 블로그에 기재된 컴팩션 이벤트 15% 감소는 한 회사(Jon Bell, CPO)의 사례에서 나온 수치입니다. (출처: claude.com/blog/1m-context-ga) 모든 워크플로에서 동일하게 적용되진 않습니다. 코드베이스 크기와 세션 길이에 따라 결과가 달라집니다.

▲ 목차로 돌아가기

경쟁사와 비교해보니 보이는 것들

1M 컨텍스트 윈도우는 이제 OpenAI, Google, Anthropic 세 곳 모두 지원합니다. GPT-5.4가 최대 256K 토큰을 지원한다는 게 일부에 알려져 있지만, 3월 기준 GPT-5.4 또한 1M 토큰 지원으로 확장됐습니다. Gemini 3.1 Pro도 1M 토큰을 지원합니다. 문제는 ‘윈도우 크기’보다 ‘요금 구조’에 있습니다.

모델 최대 컨텍스트 장거리 요금 프리미엄 1M 단일 요금?
Claude Opus 4.6 1M 토큰 없음 (GA 이후) ✅ 예
Claude Sonnet 4.6 1M 토큰 없음 (GA 이후) ✅ 예
OpenAI GPT-5.4 1M 토큰 272K 초과 시 프리미엄 ❌ 아니오
Gemini 3.1 Pro 1M 토큰 200K 초과 시 계층 요금 ❌ 아니오
출처: claude.com/blog/1m-context-ga(2026.03.13), sesamedisk.com Claude 1M 분석(2026.03)

요금 예측 가능성 면에서는 현재 Claude가 앞섭니다. GPT-5.4와 Gemini 3.1 Pro는 모두 특정 임계값 이상에서 단가가 달라지는 구조입니다. 대형 에이전트 워크플로를 돌릴 때 청구서 예측이 어려운 이유가 여기에 있습니다. Anthropic은 3월 13일 이후 이 예측 가능성을 차별점으로 내세우고 있습니다. 단, Claude 역시 속도가 필요한 Fast Mode를 쓰면 Opus 4.6 기준 $30/$150까지 올라갑니다. 기본 모드와 Fast Mode 선택 시 주의가 필요합니다. (출처: Codecademy, Claude Opus 4.6 분석)

▲ 목차로 돌아가기

이걸 쓰면 오히려 비용이 더 나올 수 있는 이유

1M 컨텍스트가 열렸다고 무조건 다 채우는 건 비효율입니다. 막상 써보면 예상치 못한 지점에서 비용이 늘어납니다. 프리미엄 2배 곱하기가 없어졌어도, 토큰을 많이 쓸수록 요금도 정직하게 올라갑니다. 단가가 낮아진 게 아니라 구간 프리미엄이 없어진 것이기 때문입니다.

추가로 주의할 게 세 가지입니다.

① 관련 없는 토큰 포함 시 오히려 성능이 낮아집니다. sesamedisk 분석(2026.03)에는 이런 표현이 있습니다. “Do not over-provision context — irrelevant tokens dilute retrieval and increase cost.” 컨텍스트를 꽉 채울수록 모델이 필요한 정보를 못 찾는 경우가 생깁니다. 실제 테스트 전에 벤치마크를 해보는 게 좋습니다.

② 지연 시간(Latency)이 늘어납니다. 컨텍스트가 1M에 가까워질수록 응답 속도가 눈에 띄게 느려집니다. 실시간 인터랙션이 필요한 작업이라면 대형 컨텍스트보다 Batch Processing 쪽을 먼저 고려하는 게 맞습니다.

③ Batch Processing과 Prompt Caching 조합이 실질적인 절감 방법입니다. Anthropic 공식 문서에서 Batch Processing은 표준 요금의 50% 수준으로 처리됩니다. 여기에 Prompt Caching을 조합하면 동일 대형 컨텍스트를 반복 사용할 때 첫 요청 이후 캐시 비용만 나옵니다. 이 두 가지를 함께 쓰는 게 1M 컨텍스트를 비용 효율적으로 활용하는 방법입니다. (출처: claude.com/blog/1m-context-ga)

주의: Claude Code에서 1M 컨텍스트는 Max, Team, Enterprise 플랜에서만 적용됩니다. Pro 플랜은 Claude Code 자체가 포함되지 않습니다. 2026.03.13 기준이며, 이후 정책 변경 가능성이 있습니다.

▲ 목차로 돌아가기

Q&A 5가지

Q1. Pro 플랜($20/월)에서도 1M 컨텍스트를 쓸 수 있나요?

Claude Code 자체가 Max, Team, Enterprise 플랜에서만 지원됩니다. Claude.ai 웹에서는 플랜별로 사용 가능하나, 공식 블로그 기준으로 Claude Code의 1M 자동 적용은 Max 이상 플랜이 대상입니다. (출처: claude.com/blog/1m-context-ga, 2026.03.13)

Q2. 기존 코드에서 beta 헤더를 쓰고 있었다면 수정해야 하나요?

수정하지 않아도 됩니다. GA 전환 후 200K 초과 요청에 beta 헤더를 보내도 자동으로 무시됩니다. 코드 변경 없이 기존 그대로 사용 가능합니다. (출처: Anthropic 공식 블로그, 2026.03.13)

Q3. 1M 토큰을 다 쓰면 모델이 앞부분을 잊어버리나요?

MRCR v2 기준 Opus 4.6은 1M 토큰에서 76~78.3% 정확도를 기록합니다. 100%가 아니기 때문에 일부 정보는 검색에서 누락될 수 있습니다. 컨텍스트가 한계에 가까워질수록 자동 컴팩션이 작동해 핵심 정보를 유지하려 하지만, 세부 사항 일부는 요약 과정에서 손실될 수 있습니다. (출처: Anthropic 공식 발표문, 2026.02.05)

Q4. Amazon Bedrock이나 Google Vertex AI에서도 동일하게 쓸 수 있나요?

네. 1M 컨텍스트는 Amazon Bedrock, Google Cloud Vertex AI, Microsoft Azure Foundry에서도 표준 엔드포인트를 통해 사용 가능합니다. 별도 모델 버전이나 특수 설정이 필요하지 않습니다. 다만 각 플랫폼의 요금 체계는 해당 플랫폼의 공식 문서에서 별도로 확인해야 합니다. (출처: claude.com/blog/1m-context-ga)

Q5. Sonnet 4.6와 Opus 4.6 중 어느 쪽으로 대형 컨텍스트를 써야 하나요?

정확도가 중요한 작업(코드베이스 전체 분석, 법률 문서 교차 검토)이라면 Opus 4.6이 맞습니다. MRCR v2에서 76% vs 이전 Sonnet 4.5의 18.5%의 차이가 큽니다. 비용이 우선이라면 Sonnet 4.6($3/MTok)로 먼저 테스트하고 정확도 결과를 직접 확인한 뒤 결정하는 게 현실적입니다.

▲ 목차로 돌아가기

마치며

Claude Code 1M 컨텍스트 GA 전환은 분명 실질적인 변화입니다. 베타 시절 붙어있던 2배 요금 프리미엄이 사라졌고, 코드 수정 없이 더 넓은 윈도우를 쓸 수 있게 됐습니다. 컴팩션 빈도가 줄고, 같은 작업을 더 적은 토큰으로 처리하는 효과가 나오는 경우도 있습니다.

그런데 “무료로 열렸다”는 식의 표현은 오해를 불러옵니다. 단가는 그대로입니다. 토큰을 많이 쓸수록 비용은 그만큼 나옵니다. MRCR v2 수치가 보여주듯 Opus 4.6이 아닌 모델로 대형 컨텍스트를 채우면 성능은 기대에 못 미칠 수 있고, 비용만 올라가는 결과가 됩니다. 솔직히 말하면, Max 플랜을 쓰고 Opus 4.6을 선택하고 배치 처리를 같이 써야 ‘1M 컨텍스트’가 실제로 의미 있는 경험이 됩니다.

3월 27일까지는 프로모션으로 비수기 사용량 2배가 적용되고 있습니다. (출처: Anthropic 지원센터, support.claude.com) 1M 컨텍스트를 처음 테스트해보기에 나쁘지 않은 타이밍입니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. Anthropic 공식 블로그 — 1M Context GA 발표 (2026.03.13)
  2. Anthropic 공식 — Introducing Claude Opus 4.6 (2026.02.05)
  3. Anthropic 지원센터 — Claude 3월 2026 사용 프로모션
  4. AIToolRanked — Claude 1M Context GA 2026 요금 분석 (2026.03.16)
  5. Sesamedisk — Claude 1M Token Context 가격 분석 (2026.03)

본 포스팅은 2026년 3월 21일 기준으로 작성됐습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. Claude Code 및 Anthropic의 요금 정책은 공지 없이 변경될 수 있으므로, 최신 정보는 반드시 공식 문서에서 확인하세요.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기