Claude Code 1M 컨텍스트, 길수록 손해인 경우 있습니다

Published on

in

Claude Code 1M 컨텍스트, 길수록 손해인 경우 있습니다

2026.03.13 GA 기준
Claude Opus 4.6 / Sonnet 4.6
IT/AI

Claude Code 1M 컨텍스트,
길수록 손해인 경우 있습니다

2026년 3월 13일, Anthropic이 Claude Opus 4.6과 Sonnet 4.6의 1M(100만 토큰) 컨텍스트 창을 정식 지원으로 전환했습니다. 베타 딱지가 떼어지고, 추가 요금 없이 표준 단가 그대로 적용한다는 발표가 나오자마자 개발자 커뮤니티가 반응했습니다. 그런데 공식 발표문과 실제 사용 흐름을 같이 놓고 보니 이런 차이가 보였습니다. 무조건 길게 쓴다고 이득이 아닌 조건, 그리고 Pro 플랜 사용자라면 반드시 확인해야 할 수동 설정이 따로 존재합니다.

78.3%
Opus 4.6 MRCR v2 (1M)
93%
Opus 4.6 MRCR v2 (256K)
15%
컴팩션 감소율 (공식 발표)

1M 컨텍스트 GA, 달라진 것 3가지

결론부터 말씀드리면, 이번 GA(정식 지원) 전환의 핵심은 단순히 “베타가 끝났다”가 아닙니다. 요금 구조가 바뀌었고, 미디어 한도가 6배 늘었으며, 베타 헤더를 제거하지 않아도 됩니다.

첫째, 긴 컨텍스트 가산금이 사라졌습니다. Anthropic 공식 블로그(2026.03.13) 원문에 딱 이렇게 나옵니다: “No long-context premium. A 900K-token request is billed at the same per-token rate as a 9K one.” 900K짜리 요청도 9K짜리와 같은 단가로 청구됩니다. 그게 무슨 말인지는 아래 섹션에서 자세히 다루겠습니다.

둘째, 요청당 미디어 한도가 100개에서 600개로 올랐습니다. PDF 600페이지 또는 이미지 600장을 한 세션에 넣을 수 있게 됩니다. 기존에 대용량 문서를 잘게 잘라 여러 차례 보내야 했던 흐름이 한 번의 요청으로 끝납니다.

셋째, 200K 토큰을 넘는 요청을 보낼 때 이전에 필요했던 베타 헤더(`anthropic-beta: max-tokens-3-5-sonnet-2024…` 계열)를 붙이지 않아도 자동으로 작동합니다. 이미 헤더를 붙이고 있는 코드도 무시될 뿐이니 코드 수정 없이 그대로 써도 됩니다. (출처: Anthropic 공식 블로그, 2026.03.13 — claude.com/blog/1m-context-ga)

💡 공식 발표문과 실제 사용 흐름을 같이 놓고 보니 이런 차이가 보였습니다. GA 전환 자체보다 요금 구조 변화가 실질적으로 더 큰 영향을 줍니다. 단, 모든 플랜이 동일하게 자동으로 적용되는 건 아닙니다.

▲ 목차로 돌아가기

Pro 플랜은 자동이 아닙니다 — 수동 명령 필요

Max·Team·Enterprise 플랜은 Opus 4.6으로 Claude Code를 열면 1M 컨텍스트가 기본값으로 활성화됩니다. 별도 설정이 필요 없습니다.

반면 Pro 플랜은 다릅니다. Claude Code에서 /extra-usage 명령어를 직접 입력해야 1M 창이 열립니다. 이 부분은 Anthropic 공식 발표문에도 명시돼 있습니다 — “Pro users need to opt in by typing /extra-usage in Claude Code.”

기존에 Sonnet 계열로 작업하던 분이라면, API에서 /model opus[1m] 또는 /model sonnet[1m] 명령어로 명시적으로 전환해야 합니다. 모델 피커에서 선택하거나 모델 문자열에 [1m]을 붙이는 방식 모두 동일하게 작동합니다.

📋 플랜별 1M 컨텍스트 적용 방식

플랜 자동 적용 여부 필요 조치
Max ✅ 자동 없음
Team / Enterprise ✅ 자동 없음
Pro ❌ 수동 /extra-usage 입력 필요
API 직접 사용 ✅ 자동 [1m] 모델 suffix 권장

Pro 플랜의 opt-in 구조는 의도된 설계입니다. Max·Team·Enterprise 사용자 마진을 보호하면서 Pro 사용자에게 업그레이드 동기를 부여하는 방향으로 Anthropic이 요금 체계를 가져가고 있습니다. Pro에서 /extra-usage로 쓰면 별도 추가 사용량(extra usage)으로 청구되는 구조라는 점도 기억할 필요가 있습니다.

▲ 목차로 돌아가기

컨텍스트가 길수록 품질이 내려가는 이유

Anthropic이 발표한 MRCR v2 벤치마크 수치를 보면, Opus 4.6은 256K 길이에서 93%를 기록하고, 1M 길이에서 76~78%로 내려옵니다. (출처: Anthropic 공식 블로그, 2026.03.13 / claudecodecamp.com 실측 데이터) 그 차이가 15~17%p인데, 실전에서 뭘 의미하냐면 1M짜리 세션에서 4번에 1번은 관련 정보를 제대로 건져내지 못한다는 뜻입니다.

이 현상을 Anthropic 자체 엔지니어링 블로그는 context rot이라고 부릅니다. 공식 API 문서(platform.claude.com/docs/en/build-with-claude/context-windows)에도 직접 나옵니다: “As token count grows, accuracy and recall degrade.” 정확히는, 트랜스포머 구조 특성상 토큰이 많아질수록 각 토큰이 서로 주목해야 하는 비율이 분산됩니다. 1M 토큰 안에서 중요한 사실 하나는 나머지 99만 9999개와 주목 경쟁을 해야 합니다. 초반이나 끝 쪽 정보는 상대적으로 더 잘 기억되고, 중간에 묻힌 정보는 실제로 더 자주 누락됩니다. 스탠퍼드·버클리 연구진이 2023년 발표한 “Lost in the Middle” 논문(arxiv:2307.03172)에서 이 U자형 패턴이 학술적으로 확인됐습니다.

💡 여기서 주목할 부분: Sonnet 4.6의 1M 대응 능력은 Opus 4.6과 완전히 다릅니다. Anthropic은 Sonnet 4.6의 MRCR v2 1M 수치를 아직 공식 발표하지 않았지만, 직전 세대인 Sonnet 4.5의 점수는 18.5%였습니다. 같은 플랜에서 Sonnet을 1M 모드로 쓴다면 실질적으로 대부분의 정보를 걸러내지 못할 수 있습니다. 긴 컨텍스트가 필요한 작업은 Opus 4.6으로 가는 게 안전합니다.

더 까다로운 문제는 품질이 떨어져도 모델이 모른다는 점입니다. Claude는 컨텍스트 50%를 넘겨도 처음 응답할 때와 똑같은 자신감으로 답변을 생성합니다. 틀린 내용도 맞는 내용과 구분 없이 확신에 찬 말투로 나옵니다. 실사용자들이 GitHub 이슈(#35296)와 Reddit에서 “50%를 넘기면 모델이 이미 확인한 사실도 잊고 자신 있게 틀린 답을 낸다”고 보고하는 게 이 구조 때문입니다.

▲ 목차로 돌아가기

비용이 3배 뛰는 200K 경계선의 함정

GA 이후에도 API 직접 사용 시 200K 토큰 경계를 넘으면 요금이 뜁니다. 이 부분이 많이 오해되는데, 공식 발표는 “표준 단가 그대로”가 맞습니다. 단, 이것은 이전처럼 가산 요금을 붙이지 않는다는 의미이며, 실제로 긴 세션이 짧은 세션보다 총비용이 낮아지는 건 아닙니다.

중요한 수치가 있습니다. claudecodecamp.com의 실측 데이터에 따르면, 컨텍스트가 200K를 넘길 경우 이전 요금 체계에서는 입력 토큰 단가가 2배(Opus 4.6: $5/M → $10/M), 출력은 1.5배(Opus 4.6: $25/M → $37.5/M)로 뛰었습니다. GA 이후 이 프리미엄이 사라졌다는 게 발표 내용의 핵심입니다.

그럼에도 길수록 비용이 느는 구조는 그대로입니다. Claude Code에서 매 턴마다 전체 대화 이력이 재전송되기 때문입니다. 50턴 기준으로 세션 당 컨텍스트는 80~120K 수준에 머무는 게 일반적이지만, 대규모 코드베이스를 통째로 넣거나 에이전트가 반복 검색을 돌리다 보면 단 한 번의 요청으로 900K를 소진하는 경우도 나옵니다. 900K Opus 4.6 입력 토큰 비용은 약 4.5달러(900K × $5/M)입니다. 이걸 루프로 반복하면 월 비용 예측이 불가능해집니다.

💡 실제로 이런 일이 있었습니다: Cursor 커뮤니티에서 한 개발자가 AI 툴 호출 한 번으로 데이터베이스 전체가 컨텍스트에 올라가면서 800K 토큰이 소모된 사례를 보고했습니다. 1M 창이 커질수록 의도치 않은 대량 토큰 소비가 더 쉽게 일어날 수 있습니다. 컨텍스트 규율, 즉 필요한 것만 넣는 습관이 더 중요해지는 이유입니다.

또 하나 알아둬야 할 것이 캐시 만료 패널티입니다. Claude Code는 5분간 요청이 없으면 캐시가 만료됩니다. 500K 컨텍스트 상태에서 잠깐 자리를 비운 뒤 돌아오면, 다음 첫 요청이 콜드 프리필(cold prefill)로 처리되면서 응답 시작까지 30초 이상 걸릴 수 있습니다. 1M짜리는 60~90초로 추정됩니다. (출처: claudecodecamp.com 실측 실험, 2026.03)

▲ 목차로 돌아가기

1M 창이 진짜 도움 되는 상황, 오히려 해가 되는 상황

막상 써보면 다릅니다. 1M 컨텍스트가 실질적으로 도움 되는 경우와 쓸수록 손해인 경우는 꽤 명확하게 구분됩니다.

✅ 실제로 효과 있는 상황

대규모 코드베이스 단발성 분석이 가장 적합합니다. 전체 저장소를 한 요청에 넣고, 분석 결과를 한 번에 받는 방식입니다. 멀티턴 대화가 아니므로 context rot이 거의 발생하지 않습니다. “전체 코드 훑고 리팩토링 포인트 찾아줘” 같은 작업이 여기에 해당합니다.

계약서·법률 문서 전수 검토도 마찬가지입니다. 300페이지 계약서를 통째로 올리고 특정 조항을 찾거나 교차 비교하는 작업은 기존 200K에서 잘렸던 내용을 이제 한 번에 처리할 수 있습니다.

에이전트 팀 작업에서도 효과가 있습니다. 여러 서브에이전트가 로그·DB·소스코드를 조회하면서 컨텍스트가 빠르게 쌓이는 상황에서, 15% 감소한 컴팩션 이벤트가 체감 품질 유지에 기여합니다. (출처: Anthropic 공식 발표, Jon Bell CPO 사례 인용)

❌ 오히려 역효과 나는 상황

일반 Claude Code 세션 대부분은 1M 창이 필요 없습니다. 실측에 따르면 일반 코딩 세션의 컨텍스트는 컴팩션 전까지 80~120K 수준에 머뭅니다. 1M 모델을 선택해도 이 범위에서는 표준 모델과 동일하게 작동합니다.

50~80턴을 넘긴 긴 대화 세션은 오히려 빠른 재시작이 더 유리합니다. 초반에 탐색했다가 버린 코드, 실패한 접근법 등이 컨텍스트를 채우면서 모델의 주의력을 분산시킵니다. 1M으로 버티는 것보다 `/clear` 후 현재 상황만 요약해 새로 시작하는 편이 품질·비용 모두 낫습니다.

Sonnet 4.6을 1M으로 쓰는 경우는 특히 조심해야 합니다. 공식 수치가 없어 직접 확인은 못 했지만, Sonnet 4.5 기준 18.5% MRCR이라면 긴 컨텍스트에서 실질적 정확도가 크게 떨어질 가능성이 높습니다. Anthropic이 공식 답변을 아직 내놓지 않은 부분입니다.

▲ 목차로 돌아가기

경쟁 모델과 직접 비교 — GPT-5.4·Gemini 3.1 Pro

1M 컨텍스트는 Claude만의 기능이 아닙니다. 같은 사양을 두고 경쟁사 모델과 어떻게 다른지 실제 수치로 비교해봤습니다.

💡 1M 창의 크기보다 정확도와 요금 구조가 실제 선택의 기준이 됩니다. 세 모델 모두 1M을 지원하지만 작동 방식이 전혀 다릅니다.

항목 Claude Opus 4.6 GPT-5.4 Gemini 3.1 Pro
컨텍스트 창 1M 1.05M 1M
MRCR v2 (1M) 78.3% 미공개 26.3%
입력 단가 (기본) $5/M $2.50/M 별도 확인
장문 요금 가산 없음 272K 초과 시 2배 없음
강점 긴 텍스트 정확도 낮은 기본 단가 멀티모달 처리

GPT-5.4는 272K를 넘는 순간 해당 세션 전체 토큰에 2배 단가가 소급 적용됩니다. 300K짜리 요청은 250K짜리의 약 2배 비용이 청구됩니다. 개발자들이 “월말에 청구서 보고 놀란다”고 말하는 구조가 바로 이겁니다. (출처: karozieminski.substack.com 분석, 2026.03.16)

Gemini 3.1 Pro의 MRCR v2 26.3%는 오해를 부를 수 있습니다. 초기 1M 컨텍스트로 화제를 모았던 Gemini 1.5 Pro는 구글이 처음부터 1M을 전제로 사전학습시킨 모델로, 당시 상당히 높은 정확도를 보였습니다. 현재 벤치마크 수치인 26.3%는 Gemini 3.1 Pro로 Anthropic이 직접 측정한 값으로, 같은 Gemini 브랜드더라도 세대와 측정 방식에 따라 숫자가 크게 달라집니다.

▲ 목차로 돌아가기

자주 묻는 질문

Q. Pro 플랜에서 1M 컨텍스트를 쓰면 비용이 추가로 나오나요?

네, 나옵니다. Pro 플랜에서 /extra-usage로 1M을 활성화하면 기본 플랜 한도를 초과하는 ‘추가 사용량’으로 청구됩니다. Max·Team·Enterprise는 플랜 내 기본 포함이라 별도 추가 비용이 없습니다. Pro에서 쓸 경우 사용 전 Anthropic 요금 페이지에서 추가 사용량 단가를 반드시 확인하세요.

Q. 1M 컨텍스트를 선택하면 항상 그 용량을 소비하나요?

아닙니다. 실제 사용한 토큰만큼만 과금됩니다. /model opus[1m]을 선택해도 세션 컨텍스트가 80K에 머문다면 80K 분량의 비용만 나옵니다. 1M 모델을 켜두는 것 자체에는 추가 비용이 없습니다.

Q. 기존에 200K 베타 헤더를 코드에 붙여 사용 중인데, 수정해야 하나요?

수정할 필요 없습니다. 기존 베타 헤더가 있어도 자동으로 무시되고 200K 이상 요청이 정상 작동합니다. 제거하면 코드가 더 깔끔해지지만, 남겨두어도 동작에는 영향이 없습니다.

Q. Sonnet 4.6으로 1M을 쓰면 안 되나요?

단발성 단순 작업이라면 사용은 가능하지만 권장하지 않습니다. Sonnet 4.6의 1M MRCR 점수는 Anthropic이 아직 공개하지 않았습니다. 직전 세대인 Sonnet 4.5는 18.5%로 정확도가 매우 낮았습니다. 긴 컨텍스트가 핵심인 작업이라면 Opus 4.6을 쓰는 게 안전합니다.

Q. 컨텍스트 품질이 떨어지는 걸 막을 방법이 있나요?

Anthropic 공식 문서에서 제시하는 방법은 크게 세 가지입니다. 첫째, 중요한 지시사항은 컨텍스트 앞이나 뒤에 배치합니다. 둘째, 컨텍스트 50~60% 도달 전에 수동 또는 자동 컴팩션을 실행합니다(CLAUDE_AUTOCOMPACT_PCT_OVERRIDE 환경변수로 임계점 조정 가능). 셋째, 탐색 작업과 핵심 구현 작업을 별도 서브에이전트로 분리해 서로의 히스토리가 섞이지 않게 합니다.

▲ 목차로 돌아가기

마치며

Claude Code 1M 컨텍스트 GA는 분명 의미 있는 변화입니다. 베타 가산 요금이 사라지고, 미디어 한도가 6배 늘었으며, 코드를 건드리지 않아도 자동으로 적용된다는 점은 실용적인 개선입니다.

다만 써보니까 알게 된 것들이 있습니다. 1M 창은 대규모 문서나 코드베이스를 단발성으로 처리할 때 진가를 발휘합니다. 반면 장시간 멀티턴 세션에서 무작정 길게 유지하면, 컨텍스트 50%를 넘어서는 순간부터 품질이 조용히 내려가기 시작합니다. 그리고 모델은 그걸 스스로 알리지 않습니다.

Pro 플랜이라면 /extra-usage 명령어로 직접 켜야 한다는 것, Sonnet 계열은 아직 1M 공식 정확도 수치가 없다는 것, 그리고 캐시 만료 이후 콜드 프리필에 최대 60~90초가 걸릴 수 있다는 것. 이 세 가지를 미리 알고 쓰면 기대했던 것과 달랐다는 상황을 상당 부분 줄일 수 있습니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. Anthropic 공식 블로그 — 1M Context GA 발표 (claude.com/blog/1m-context-ga)
  2. Anthropic 공식 API 문서 — 컨텍스트 윈도우 (platform.claude.com/docs/en/build-with-claude/context-windows)
  3. Claude Code Camp — 1M 컨텍스트 실측 분석 (claudecodecamp.com/p/claude-code-1m-context-window)
  4. Karo Zieminski — Claude 1M 컨텍스트 가이드 2026 (karozieminski.substack.com)
  5. GitHub Issues — Claude Code 1M 컨텍스트 품질 이슈 #35296 (github.com/anthropics/claude-code/issues/35296)
  6. Liu et al. — “Lost in the Middle” Stanford/Berkeley, TACL 2024 (arxiv:2307.03172)

본 포스팅은 2026년 3월 21일 기준으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 요금 및 한도는 Anthropic 공식 사이트에서 최신 정보를 반드시 확인하세요. 본 포스팅은 정보 제공 목적으로 작성됐으며, 특정 서비스 구독을 강요하지 않습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기