Claude 1M 컨텍스트 정식 공개, 계획대로 되는 요금제는 따로 있습니다

Published on

in

Claude 1M 컨텍스트 정식 공개, 계획대로 되는 요금제는 따로 있습니다

2026.03.20 기준 / Claude Opus 4.6 · Sonnet 4.6

Claude 1M 컨텍스트 정식 공개, 계획대로 되는 요금제는 따로 있습니다

2026년 3월 13일, Anthropic이 Claude Opus 4.6과 Sonnet 4.6의 1M 토큰 컨텍스트 윈도우를 정식 공개했습니다. 베타 때는 200K 초과분에 추가 요금이 붙었는데, 이번에 그게 완전히 없어졌습니다. 다만 “무료로 전부 된다”고 생각하면 막히는 조건이 있습니다. 요금 구조, 적용 범위, GPT-5.4와 수치 비교까지 직접 확인했습니다.

Opus 4.6 입력: $5/MTok (전 구간 동일)
Sonnet 4.6 입력: $3/MTok (전 구간 동일)
컴팩션 15% 감소 (공식 발표)

베타 때와 지금, 요금이 실제로 얼마나 달라졌나요

결론부터 말씀드리면, 200K 토큰을 초과하는 요청의 단가가 절반으로 내려갔습니다. 베타 기간에는 Opus 4.6 기준으로 200K 초과분 입력에 MTok당 $10가 붙었습니다. 이번 정식 공개와 함께 그 할증이 완전히 사라졌고, 900K짜리 요청도 9K짜리 요청과 동일한 단가($5/MTok)로 청구됩니다. (출처: Anthropic 공식 블로그 claude.com/blog/1m-context-ga, 2026.03.13)

공식 발표 기준 요금 변화 (API 직접 사용 기준)

모델 베타 (200K 초과 입력) 정식 공개 후
Opus 4.6 $10/MTok $5/MTok (전 구간)
Sonnet 4.6 $6/MTok $3/MTok (전 구간)

(출처: Anthropic API 가격 페이지 anthropic.com/pricing · 2026.03.13 기준)

이 변화가 실제로 어떤 의미인지 계산해보겠습니다. 예를 들어 하루 평균 한 세션에 700K 입력 토큰을 사용하는 Claude Code 개발자라면, 베타 기간에는 200K 기본 구간($5/MTok) + 500K 초과분($10/MTok)으로 하루 약 $6이 나왔습니다. 정식 공개 후에는 700K 전체가 $5/MTok로 처리되므로 하루 $3.50이 됩니다. 월 단위로 환산하면 약 $75의 차이입니다. 이 숫자가 의미하는 것은, 장기 에이전트 세션이나 대용량 코드베이스 작업을 일상적으로 하는 팀에게는 실제 청구서 구조 자체가 바뀐다는 뜻입니다.

추가로, 미디어 한도가 요청당 100개에서 600개(이미지·PDF 페이지 기준)로 6배 확장됐습니다. beta 헤더도 더 이상 필요 없고, 기존에 beta 헤더를 사용하고 있던 코드를 수정할 필요도 없습니다. (출처: Anthropic 공식 블로그, 2026.03.13)

▲ 목차로 돌아가기

Pro 요금제인데 왜 1M 컨텍스트가 안 켜져 있을까요

이 부분에서 실제로 혼선이 가장 많이 생겼습니다. “정식 공개됐다”는 소식을 보고 Pro 플랜($20/월)으로 Claude Code를 켜봤는데 여전히 200K 창이 뜬다는 제보가 Reddit에서 수십 개 올라왔습니다.

💡 공식 발표문과 실제 사용 흐름을 같이 놓고 보니 이런 차이가 보였습니다

Anthropic의 공식 블로그는 “1M 컨텍스트가 Max, Team, Enterprise 플랜의 Claude Code에서 자동 적용된다”고 명시합니다. Pro 플랜 사용자는 Claude Code에서 /extra-usage 명령어를 직접 입력해야 활성화됩니다. API 직접 사용자는 별도 헤더 없이 바로 1M 범위로 요청을 보내면 됩니다.

정리하면 플랜별 1M 컨텍스트 접근 방식이 다릅니다.

요금제 Claude Code 1M 컨텍스트 활성화 방법
Free 미적용 해당 없음
Pro ($20/월) 옵트인 /extra-usage 입력 필요
Max ($100~/월) 자동 적용 Opus 4.6 기본값
Team / Enterprise 자동 적용 Opus 4.6 기본값
API 직접 사용 자동 적용 표준 엔드포인트 그대로

Pro 플랜의 옵트인 구조가 “무료 정책 안에서 마진을 보호하는 동시에 Max 업그레이드를 유도하는 신호”라는 해석이 나오는 이유가 여기에 있습니다. Pro 사용자가 /extra-usage를 켜고 대규모 컨텍스트를 여러 번 사용하면 시간당 사용 한도가 순식간에 소진됩니다. 1M 컨텍스트 한 세션이 Pro의 5시간 사용량 한도를 상당 부분 잡아먹을 수 있다는 점을 먼저 파악해야 합니다. (출처: Reddit r/ClaudeAI, 2026.03.13; Anthropic 사용량 한도 공식 문서)

Cursor처럼 Claude를 간접 통합한 서드파티 도구에서는 상황이 조금 더 복잡합니다. Cursor 팀은 2026년 3월 13일 당일 요금 구조를 업데이트했지만, Request 기반 플랜에서는 1M 컨텍스트를 Max 모드에서만 사용할 수 있는 제한이 남아 있습니다. (출처: Cursor 공식 포럼, 2026.03.13)

▲ 목차로 돌아가기

GPT-5.4도 1M인데, 요금 구조가 이 부분에서 갈립니다

GPT-5.4도 1.05M 토큰 컨텍스트를 지원합니다. 그런데 막상 써보면 요금 구조가 결정적으로 다릅니다. GPT-5.4는 입력 토큰이 272K를 넘는 순간, 그 세션 전체(이미 사용한 부분 포함)가 더 높은 요금으로 재산정됩니다.

직접 계산 가능한 수치 비교 — 300K 입력 토큰 1회 요청 기준

모델 입력 요금 구조 300K 입력 비용
Claude Sonnet 4.6 $3/MTok 전 구간 동일 $0.90
GPT-5.4 272K 초과 시 세션 전체 $5/MTok $1.50
Claude Opus 4.6 $5/MTok 전 구간 동일 $1.50

(출처: Anthropic API 가격 페이지 anthropic.com/pricing; OpenAI 커뮤니티 GPT-5.4 가격 분석, 2026.03.05)

이 수치가 의미하는 것은, GPT-5.4로 300K 입력 세션을 구성하면 Claude Sonnet 4.6 대비 67% 더 비쌉니다. 같은 돈으로 Claude Opus 4.6을 쓸 수도 있는 셈입니다. 단순히 “가격이 비싸다”는 게 아니라 구조적으로 임계값을 넘는 순간 세션 전체가 재산정된다는 점이 핵심입니다. 월말에 예상보다 청구서가 높게 나오는 사례가 여기서 주로 발생합니다.

Finout의 분석에서도 “GPT-5.4 표준 요금으로 272K를 초과하는 프롬프트를 쓰지 말라. 세션 전체에 2배 요금이 붙는다. GPT-4.1 또는 Claude Opus 4.6를 써라”고 직접 권고하고 있습니다. (출처: Finout OpenAI vs Anthropic API 가격 비교, 2026.03.18)

단, GPT-5.4가 무조건 불리한 것은 아닙니다. 272K 이하 구간에서는 입력 $2.50/MTok으로 Sonnet 4.6($3/MTok)보다 싸고, 캐싱 효율도 높습니다. 어떤 모델을 선택하느냐는 세션이 일상적으로 272K를 넘는지 여부에 따라 달라집니다.

▲ 목차로 돌아가기

컨텍스트가 커지면 토큰을 더 쓴다는 말, 실제로 확인해봤습니다

직관적으로는 “창이 크면 토큰을 더 많이 쓴다”고 생각하게 됩니다. 맞는 말입니다. 그런데 Anthropic이 공개한 수치와 실사용자 데이터를 교차해보면 반대 방향의 효과가 동시에 작동합니다.

💡 실제 사용 흐름과 공식 발표 수치를 겹쳐보니 보이는 것

Anthropic은 1M 컨텍스트 정식 공개 이후 컴팩션 발생 횟수가 15% 감소했다고 공식 발표했습니다. 컴팩션은 Claude Code가 컨텍스트 한도에 근접했을 때 이전 대화를 자동 요약해 공간을 만드는 과정입니다. 이 과정 자체가 추가 토큰을 소비하고 대화 품질을 떨어뜨립니다.

Reddit 사용자 Performer_First가 실측한 데이터가 있습니다. 200K 컨텍스트 세션 5회로 동일한 작업을 처리했을 때와 1M 컨텍스트 세션 1회로 처리했을 때를 직접 비교했습니다.

방식 세션 시작 시 로딩 토큰 실제 작업 가능 토큰 컨텍스트 손실
200K × 5회 ~150K–250K (재로딩) ~750K 세션 간 컨텍스트 단절
1M × 1회 ~30K (1회만) ~970K 없음

이 수치가 의미하는 것은, 세션을 쪼개서 여러 번 사용하는 방식이 실제로는 토큰 낭비가 더 크다는 뜻입니다. 매 세션 시작 시 CLAUDE.md와 핵심 파일을 다시 읽는 오버헤드, 컴팩션이 생길 때마다 소비되는 요약 토큰, 세션 간 컨텍스트 단절로 인한 반복 설명 비용이 누적됩니다. (출처: Reddit r/ClaudeAI, Performer_First 실측 데이터, 2026.03.13)

단, 이 효율은 세션이 여러 번 컴팩션을 유발하는 대규모 코드베이스 작업에서 두드러집니다. 간단한 질의응답이나 짧은 문서 요약에서는 1M 컨텍스트가 오히려 이득이 없습니다. 쓸 이유가 없는 상황에서 쓰면 비용만 올라갑니다.

▲ 목차로 돌아가기

78.3%라는 숫자가 왜 단순한 마케팅이 아닌지

컨텍스트 창 크기를 발표할 때 흔히 나오는 비판이 있습니다. “창이 크다고 실제로 기억을 잘 하느냐”는 질문입니다. 오래된 LLM 연구에서 ‘Lost in the Middle’ 문제가 반복적으로 지적된 이유가 있습니다. 창 중간에 묻힌 정보는 처음과 끝에 있는 정보보다 훨씬 낮은 정확도로 인출된다는 것입니다.

Anthropic이 이번 발표에서 벤치마크로 내세운 것이 MRCR v2(Multi-Round Coreference Resolution)입니다. 3,000페이지 분량 문서 안에 2개의 특정 사실을 숨겨두고, 모델이 두 가지를 모두 찾아내야 점수를 받는 방식입니다. 하나만 찾으면 0점입니다.

MRCR v2 @ 1M 토큰 점수 비교

모델 MRCR v2 (1M 토큰)
Claude Opus 4.6 78.3%
Gemini (동급) 26.3%
이전 최고 Claude 약 19%

(출처: Anthropic 공식 블로그 claude.com/blog/1m-context-ga, 2026.03.13)

78.3%가 의미하는 것은, 1M 토큰 전체에 걸쳐 분산된 특정 사실을 약 5번에 4번은 정확히 찾아낸다는 뜻입니다. 이전 최고 수준(약 19%) 대비 4배 이상 향상된 수치입니다. Reddit의 엔지니어 커뮤니티에서 “원시 창 크기보다 이 숫자가 진짜 헤드라인”이라는 반응이 나온 이유도 여기에 있습니다.

다만 주의할 점이 있습니다. 78.3%는 Anthropic이 자체 발표한 수치입니다. 독립적인 제3자 검증은 아직 진행 중입니다. 또한 100%가 아니므로 대규모 문서 분석 워크플로우에서는 검증 단계를 따로 두는 것이 안전합니다. 10,000건 처리 시 약 1,000건은 오류가 발생할 수 있다는 의미이기 때문입니다. (출처: MindStudio AI 분석, 2026.03.16)

▲ 목차로 돌아가기

1M 컨텍스트가 무조건 이득인 상황과 그렇지 않은 상황

이 부분이 실제 사용에서 가장 중요한 판단 기준입니다. 기존 블로그들은 “1M이 가능하다”는 사실만 전달하지만, 실제로 써보면 아낌없이 쓸 수 없는 조건이 있습니다.

✅ 1M 컨텍스트를 쓸 이유가 분명한 경우

  • 대용량 코드베이스 리팩터링: 파일 간 의존성 추적이 필요한 작업. RAG로는 놓치는 크로스파일 맥락을 단일 컨텍스트에서 처리 가능.
  • 계약서·법률 문서 세트 분석: 400페이지 이상의 계약서 묶음을 한 세션에서 교차 검토. 특히 협상 이력이 여러 버전에 걸쳐 있는 경우.
  • 장기 실행 에이전트: 여러 도구 호출·관찰값·중간 추론을 잃지 않고 유지해야 하는 복잡한 자동화 워크플로우.
  • 연구 논문 + 코드 + 데이터 동시 분석: 600페이지 PDF 한도 확장으로 대규모 멀티소스 분석이 현실적으로 가능해졌습니다.

❌ 1M 컨텍스트가 오히려 독이 되는 경우

  • 고빈도 실시간 API 호출: 1M 토큰을 매 요청마다 보내면 레이턴시와 비용이 폭발적으로 증가합니다. 실시간 챗봇에는 맞지 않습니다.
  • Pro 플랜에서 무제한으로 쓰려는 경우: 5시간 사용량 한도가 몇 건의 대규모 세션으로 소진됩니다. 한도 초과 후 수 시간 대기가 발생합니다.
  • 에이전트 무작위 데이터 수집: 실제 발생 사례처럼 Cursor 사용자 AI 도구 호출 1건이 전체 DB를 800K 토큰으로 끌어왔습니다. 컨텍스트 규율 없이 크게 열어두면 비용 폭탄이 됩니다.
  • 단순 질의응답: 맥락 누적이 거의 없는 한 두 줄 질문에는 1M 컨텍스트가 의미 없습니다.

Anthropic 공식 문서는 배치 처리(Batch Processing)와 1M 컨텍스트를 조합하면 비용을 더 낮출 수 있다고 안내합니다. 시간이 급하지 않은 대량 문서 분석 작업이라면 배치 모드를 통해 50%를 절감하고 1M 컨텍스트로 청크 없이 처리하는 방식이 현재 가장 경제적인 구성입니다. (출처: Anthropic API 공식 문서, 2026.03.13)

▲ 목차로 돌아가기

Q&A — 자주 나오는 질문 5가지

Q1. claude.ai 웹에서도 1M 컨텍스트가 됩니까?
아직 됩니다. claude.ai 웹 및 앱(iOS·Android)에는 현재 1M 컨텍스트가 지원되지 않습니다. 이번 정식 공개는 Claude Platform API, Claude Code(Max·Team·Enterprise), 그리고 Azure Foundry·Google Cloud Vertex AI를 통한 접근에 한정됩니다. 웹 UI에 도입될 시점은 아직 공식 발표가 없습니다. (출처: Reddit r/ClaudeAI 커뮤니티 요약, 2026.03.13)
Q2. 기존 Claude Code 세션에도 1M이 자동으로 적용됩니까?
Max·Team·Enterprise 플랜에서는 기존 세션도 1M으로 자동 업그레이드됩니다. 단, Claude Code 버전을 최신으로 업데이트해야 합니다. CLI 환경에서는 즉시 적용되지만, VS Code 확장 GUI 쪽은 업데이트 반영에 약간의 지연이 있었다는 보고가 있습니다. 확실하지 않다면 CLI 터미널에서 실행하는 것이 가장 빠릅니다. (출처: Reddit r/ClaudeAI, 2026.03.13)
Q3. Pro 요금제에서 /extra-usage를 켜면 요금이 따로 청구됩니까?
별도 추가 요금이 청구되지는 않습니다. 단, Pro 플랜의 시간당 사용량 한도가 빠르게 소진됩니다. Opus 4.6으로 600K짜리 세션 1~2회만 돌려도 Pro의 5시간 사용 한도를 상당 부분 쓰게 됩니다. 그 후 몇 시간은 고용량 모델 사용이 제한됩니다. 대용량 컨텍스트를 자주 쓴다면 Max 플랜($100/월)이 더 경제적입니다. (출처: Reddit r/ClaudeAI 사용자 보고, 2026.03.13; Anthropic 사용량 한도 공식 문서)
Q4. Gemini도 1M 컨텍스트가 됩니다. Claude와 어떻게 다른가요?
창 크기 자체는 같습니다. 핵심 차이는 장기 회상 정확도입니다. Anthropic이 MRCR v2 기준으로 공개한 수치에서 Claude Opus 4.6은 78.3%, Gemini 동급 모델은 26.3%입니다. 또한 Gemini 2.5 Pro의 1M 초과 구간에는 티어드 요금이 적용되어 장기 컨텍스트 사용 시 비용이 증가하는 구조입니다. Claude는 전 구간 단일 단가를 적용합니다. (출처: Anthropic 공식 블로그, 2026.03.13; karozieminski.substack.com 비교 분석, 2026.03.16)
Q5. 1M 컨텍스트를 쓰면 응답 속도가 느려집니까?
처리해야 할 토큰이 많아지는 만큼 레이턴시는 증가합니다. 특히 실시간 응답이 필요한 환경에서는 체감됩니다. Anthropic 공식 문서는 비실시간 배치 워크플로우에 1M 컨텍스트를 최적으로 활용하도록 권장합니다. 빠른 응답이 필요한 인터랙티브 작업이라면 필요한 만큼만 컨텍스트를 채우는 편이 낫습니다. (출처: MindStudio AI 1M 컨텍스트 분석, 2026.03.16)

▲ 목차로 돌아가기

마치며

이번 1M 컨텍스트 정식 공개에서 실질적으로 중요한 것은 세 가지입니다. 첫째, 200K 초과 요금이 완전히 사라진 것. 둘째, Pro 플랜은 자동 적용이 아니라 옵트인이라는 것. 셋째, GPT-5.4의 272K 임계값 가격 구조와 결정적으로 다르다는 것입니다.

솔직히 말하면, 이 변화가 피부에 와닿는 사람은 지금 이미 대규모 코드베이스나 장문 문서를 Claude Code로 다루고 있는 팀입니다. 짧은 일상 질의응답 위주라면 지금 당장 워크플로우를 바꿀 필요는 없습니다. 하지만 에이전트 루프에서 반복적인 컴팩션 때문에 작업 품질이 흔들렸거나, 장기 계약 문서를 쪼개 넣는 번거로움이 있었다면 이번이 실질적인 전환점이 될 수 있습니다.

78.3% 회상 정확도가 제3자 검증을 거치고, Pro 플랜의 1M 자동 적용 범위가 넓어지는 시점이 오면 추가로 확인할 가치가 있습니다. 현재 시점에서는 Max·Team·Enterprise 플랜 API 사용자와 코드베이스 규모가 큰 개발 팀이 가장 직접적인 수혜자입니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. Anthropic 공식 블로그 — claude.com/blog/1m-context-ga (2026.03.13)
  2. Anthropic API 가격 페이지 — anthropic.com/pricing (2026.03.20 확인)
  3. Anthropic API 가격 상세 — anthropic.com/api (2026.03.20 확인)
  4. AIToolRanked — Claude 1M Context GA Breakdown — aitoolranked.com (2026.03.16)
  5. Karo Zieminski Substack — Claude 1M Context Guide 2026 — karozieminski.substack.com (2026.03.16)
  6. Reddit r/ClaudeAI — Official 1M GA Thread — reddit.com/r/ClaudeAI (2026.03.13)
  7. MindStudio AI — Claude 1M Token Context Analysis — mindstudio.ai (2026.03.16)
  8. Cursor 공식 포럼 — 1M Context GA 반영 스레드 — forum.cursor.com (2026.03.13)

본 포스팅 작성 이후 서비스 정책·UI·기능·요금이 변경될 수 있습니다. 모든 수치는 2026년 3월 20일 기준이며 Anthropic 공식 발표 및 API 문서를 참고했습니다. IT·AI 서비스는 업데이트 주기가 빠르므로 최신 정보는 공식 문서에서 반드시 직접 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기