Claude 1M 컨텍스트, 클수록 조심해야 합니다

Published on

in

Claude 1M 컨텍스트, 클수록 조심해야 합니다

2026.03.13 기준
Claude Opus 4.6 / Sonnet 4.6
IT/AI

Claude 1M 컨텍스트, 클수록 조심해야 합니다

2026년 3월 13일, Anthropic이 Claude Opus 4.6과 Sonnet 4.6의 100만 토큰 컨텍스트 창을 정식 출시했습니다. 기존에 200K를 넘으면 붙던 가격 할증이 완전히 사라졌고, 이제 표준 요금으로 전체 코드베이스를 한 세션에 올릴 수 있게 됐습니다. 그런데 막상 수치를 뜯어보면, 1M을 꽉 채워 쓸수록 오히려 손해인 구간이 있습니다.

1,000,000
정식 지원 토큰 수
78.3%
1M 구간 정확도(MRCR v2)
93%→76%
256K→1M 정확도 낙폭

1M이 된 게 왜 지금 화제인가

Claude의 컨텍스트 창은 원래 200K 토큰이었습니다. 200K는 약 15만 단어 분량으로, 중간 규모 소설 한 권에 해당합니다. 개발자 입장에선 적당히 길어 보였지만, 실제 업무에서는 금방 한계가 드러났습니다. 장시간 코딩 세션을 이어가다 보면 어느 순간 “자동 압축(auto compaction)”이 걸리면서 초반에 논의한 설계 결정이 지워지는 상황이 반복됐습니다.

Anthropic은 2026년 2월 5일 Claude Opus 4.6을 출시하면서 1M 토큰 창을 베타로 공개했습니다. 이때까지는 200K를 넘는 입력에 2배 요금을 부과하는 구조였습니다. 그리고 3월 13일, 마침내 가격 할증 없이 전체 1M 창이 표준 요금으로 정식 출시됐습니다(출처: Anthropic 공식 블로그, 2026.03.13). 100만 토큰은 약 75만 단어입니다. 소설 75권, 또는 11만 줄의 코드가 한 세션에 들어갈 수 있는 분량입니다.

Hacker News에서 1,100포인트를 받으며 당일 1위를 기록했고(출처: karozieminski.substack.com, 2026.03.13), 개발자 커뮤니티에서 바로 화제가 됐습니다. 단순히 창이 커진 것이 아니라, 그간 개발자들이 맞닥뜨렸던 “세션 끊김” 문제를 근본적으로 해결할 수 있다는 기대 때문이었습니다.

▲ 목차로 돌아가기

256K와 1M, 정확도 차이가 숫자로 나옵니다

여기서부터가 중요합니다. “1M 창이 생겼다”는 말과 “1M 전체에서 품질이 유지된다”는 말은 다릅니다. Anthropic이 공개한 MRCR v2 벤치마크 수치를 직접 보겠습니다.

컨텍스트 길이 Opus 4.6 정확도 이전 최고 모델 Gemini
256K 토큰 93% 18.5% 26.3%
1M 토큰 76~78% 26.3%

(출처: Anthropic 공식 발표, 2026.03.13 / AlphaSignal 분석, 2026.03.16)

MRCR v2는 3,000페이지짜리 문서에 8개의 특정 사실을 숨겨두고 모델이 전부 찾아내는지 테스트합니다. 하나라도 놓치면 0점입니다. Opus 4.6은 256K 구간에서 93%를 기록했지만, 1M 구간에서는 76~78%로 내려갑니다. 15~17%p 차이입니다. 1M 구간에서는 4번 중 1번꼴로 정보를 놓친다는 뜻입니다.

💡 공식 API 문서와 실제 사용 패턴을 같이 놓고 보니 이런 차이가 보였습니다.

Anthropic의 공식 API 문서(platform.claude.com)에는 “컨텍스트가 늘어날수록 정확도와 재현율이 저하되며, 이를 ‘컨텍스트 로트(context rot)’라고 한다”고 명시돼 있습니다. 1M 창을 홍보하는 같은 회사가 공식 문서에서 그 한계를 직접 인정한 셈입니다. 큰 창이 자동으로 더 좋은 결과를 보장하지 않는다는 뜻입니다.

경쟁 모델과 비교하면 Opus 4.6이 여전히 압도적입니다. Gemini나 이전 Claude 모델(Sonnet 4.5: 18.5%)보다 훨씬 높은 수치입니다. 하지만 같은 Opus 4.6 안에서도 256K를 쓸 때와 1M을 꽉 채워 쓸 때의 품질은 다릅니다. 이 차이를 모르고 세션을 오래 유지하면 후반부에서 모델이 초반 내용을 잘못 기억하는 상황을 만날 수 있습니다.

▲ 목차로 돌아가기

요금 구조가 바뀌었고, 경쟁사와 차이가 납니다

이번 GA 전환의 핵심 변화는 가격입니다. 기존에는 200K 토큰을 초과하면 입력 토큰에 2배, 출력 토큰에 1.5배 요금이 붙었습니다. 900K 토큰짜리 요청과 9K 토큰짜리 요청이 1M당 단가가 달랐던 구조입니다. 이제 그 할증이 완전히 사라졌습니다(출처: Anthropic 공식 블로그, 2026.03.13).

서비스 1M 창 지원 200K 초과 시 요금 입력 단가(표준)
Claude Opus 4.6 ✅ GA 없음(플랫) $5/M
GPT-5.4 (API) ✅ 1.05M 272K 초과 시 2배 $2.50/M
GPT-4.1 (API) ✅ 1M 없음(플랫) $2/M
Gemini 3.1 Pro ✅ 1M 별도 구조 별도

(출처: 각 사 공식 요금 페이지 / karozieminski.substack.com 분석, 2026.03.13)

▲ 목차로 돌아가기

내 플랜에선 어떻게 켜야 하나요

“정식 출시됐다”는 발표를 보고 바로 claude.ai 웹에서 써보려 했다면, 아직 안 됩니다. 1M 컨텍스트는 현재 claude.ai 일반 웹 채팅과 iOS·Android 앱에는 적용되지 않았습니다. API와 Claude Code를 통해서만 접근 가능합니다(출처: Reddit r/ClaudeAI 공식 발표 댓글, 2026.03.13).

플랜별 활성화 방법 정리 (2026.03.13 기준)

  • Max / Team / Enterprise 플랜: Claude Code에서 자동 활성화. Claude Code 터미널 실행 시 “↑ Opus now defaults to 1M context”라는 메시지가 뜨면 이미 켜진 상태입니다.
  • Pro 플랜: 자동이 아닙니다. Claude Code 터미널에서 /extra-usage를 직접 입력해야 활성화됩니다.
  • Free 플랜: Anthropic이 3월 27일까지 전 플랜 사용량 2배 프로모션을 진행 중입니다. 이 기간에 긴 세션을 실험해보기 좋은 타이밍입니다.
  • API 사용자: 모델명 claude-opus-4-6[1m] 또는 claude-sonnet-4-6[1m]으로 호출하면 됩니다.

Claude Code VSCode 확장 플러그인에서는 아직 자동으로 1M이 적용되지 않는다는 보고가 여럿 있었습니다. 터미널(CLI)에서 실행하는 방식이 현재 가장 안정적입니다. 또한 기존에 진행 중이던 세션에도 소급 적용됩니다. 이미 열려 있던 세션에서도 컨텍스트 창이 1M으로 확장된 것을 확인할 수 있습니다(출처: Reddit r/ClaudeAI 사용자 nikocraft, 2026.03.13).

▲ 목차로 돌아가기

1M을 꽉 채워 쓰면 생기는 문제들

큰 창이 무조건 좋은 게 아니라는 건 이미 섹션 2에서 수치로 봤습니다. 실제 사용 현장에서 어떤 일이 벌어지는지 정리합니다.

⚠️ 컨텍스트 사용량별 실제 동작 패턴 (GitHub Issue #35296, 25개 이상 세션 관찰)

  • 0~20%: 정상. 문서 읽기, 코드 이해, 계획 수립 모두 신뢰할 수 있는 수준.
  • 20~40%: 성능 저하 시작. 이미 읽은 문서와 다른 접근법을 시도하거나 재확인이 필요해짐.
  • 40~60%: 신뢰 불가 구간. 잘못된 결론을 높은 확신으로 제시하고 수정해도 되돌아오는 현상.
  • 60~80%: 중단 권고. 초반에 확인한 사실을 무시하고, 데이터를 조회하지 않고 결과를 생성하는 경우 발생.
  • 80~100%: 회복 불가 상태. 같은 디렉터리를 반복 검색하거나, 사용자의 수정 내용을 무시하는 루프 진입.

가장 치명적인 부분은 모델이 실수를 스스로 인식하지 못한다는 점입니다. 정확하게 작동할 때와 환각이 일어날 때의 문체, 어조, 확신 수준이 거의 동일합니다. 사용자 입장에서는 결과물을 직접 검증하지 않으면 구별할 방법이 없습니다(출처: GitHub anthropics/claude-code Issue #35296, 2026.03.17).

비용 문제도 있습니다. 900K 토큰 세션에서 Opus 4.6을 사용하면 입력 토큰 비용만 약 $4.50입니다. 세션을 단발성 작업에 한 번 쓰면 감당 가능하지만, 에이전트가 루프로 실행되거나 같은 세션을 반복적으로 불러오면 비용이 급증합니다. Cursor 같은 IDE 플러그인에서 AI 도구 호출 한 번에 800K 토큰이 소진됐다는 사례도 보고됐습니다(출처: karozieminski.substack.com, 2026.03.13).

Anthropic도 이 문제를 인식하고 있습니다. 자동 압축(auto compaction) 기능과 CLAUDE_AUTOCOMPACT_PCT_OVERRIDE 설정을 제공하는 이유가 바로 이 때문입니다. 기본값인 80% 이전에, 가능하면 50~60% 구간에서 수동으로 압축하거나 새 세션을 시작하는 것이 안정적인 운용 방법입니다.

▲ 목차로 돌아가기

그럼에도 1M이 실제로 유리한 조건

부작용을 알고도 1M 창을 써야 하는 이유가 있습니다. 핵심은 “한 번에 더 많이”가 아니라 “세션 리셋 횟수를 줄인다”는 점입니다.

💡 이런 계산이 나왔습니다. 5개의 200K 세션으로 나눠서 작업하면 각 세션마다 컨텍스트 재구축 비용이 30~50K 토큰씩 발생합니다. 총 누적 재구축 비용은 150~250K 토큰입니다. 반면 1M 단일 세션은 초반 한 번만 30K를 소진하고, 나머지를 실제 작업에 쓸 수 있습니다(출처: Reddit r/ClaudeAI, Performer_First, 2026.03.13).

실제로 한 개발자는 단일 1M 세션에서 전체 Python 파일 감사, 47개 버그 수정, 5개 리팩터링, 19개 DB 뷰 생성, 약 20개 커밋을 한 번에 처리했다고 보고했습니다. 같은 작업을 200K 세션 8~10개로 나누면 컨텍스트 단절로 초반 설계 맥락이 사라지는 문제가 생겼을 겁니다. 자동 압축 이벤트도 줄어들었다는 점이 함께 보고됐는데, Codeium의 CPO는 15% 감소를 확인했습니다(출처: Anthropic GA 발표, 2026.03.13).

개발자 외에도 실질적인 활용처가 있습니다. 한 분기 치 고객 인터뷰·지원 티켓·기능 요청을 한 세션에 올려 종합 분석을 요청하거나, 연구자가 논문·데이터셋·메모 전부를 올려 교차 질문을 던질 수 있습니다. 이미지와 PDF 한도도 세션당 100개에서 600개로 늘었습니다(출처: AlphaSignal, 2026.03.16).

결론적으로 1M 창은 50~60% 이내에서 쓸 때 가장 효과적입니다. 창이 커진 것은 맞지만, 그 전체를 균등하게 신뢰할 수 있는 게 아닙니다. 크기를 전략적으로 활용하면 이전과 전혀 다른 수준의 작업 흐름이 가능합니다.

▲ 목차로 돌아가기

자주 나오는 질문 5가지

Q1. claude.ai 웹에서도 1M 창을 쓸 수 있나요?

현재는 API와 Claude Code(Max·Team·Enterprise 플랜)에서만 지원됩니다. 일반 웹 채팅과 모바일 앱에는 아직 적용되지 않았습니다. Anthropic이 향후 확대 예정이라고 밝혔지만, 구체적인 시점은 공개되지 않았습니다.

Q2. Sonnet 4.6도 1M 창이 되나요, 아니면 Opus만 되나요?

Sonnet 4.6도 1M 컨텍스트를 지원합니다. 표준 가격은 입력 $3/M, 출력 $15/M입니다. Opus보다 단가가 낮아서 비용이 민감한 대용량 작업에는 Sonnet 4.6이 실용적인 선택입니다. Haiku는 여전히 200K가 상한입니다.

Q3. 1M을 쓰면 Pro 플랜 사용량이 빠르게 소진되나요?

그렇습니다. 세션이 500K 토큰에 도달한 상태에서 짧은 메시지 하나를 보내도 그 메시지는 기존 500K 전체를 포함한 상태로 전송됩니다. 토큰은 누적 합산 기준으로 계산됩니다. Pro 플랜에서 1~2회의 긴 세션으로 시간 내 한도에 도달할 수 있으니, Max 플랜 이상에서 1M 창을 적극 활용하는 게 현실적입니다.

Q4. Amazon Bedrock이나 Google Vertex AI에서도 1M을 쓸 수 있나요?

네, 지원됩니다. Anthropic이 공식적으로 Amazon Bedrock, Google Cloud Vertex AI, Microsoft Foundry를 통한 1M 컨텍스트 접근을 지원한다고 밝혔습니다(출처: Anthropic GA 발표, 2026.03.13). 이미 특정 클라우드에 종속된 엔터프라이즈 환경에서도 락인 우려 없이 사용할 수 있습니다.

Q5. 세션이 끝나면 1M에 담겼던 내용은 어디에 저장되나요?

저장되지 않습니다. 1M 창은 세션 내 작업 메모리입니다. 세션을 닫으면 그 안에 있던 맥락은 사라집니다. Claude Code의 --resume 옵션으로 같은 디렉터리에서 이전 세션 로그를 재현할 수 있지만, 이는 세션 재실행이지 진정한 크로스 세션 메모리가 아닙니다.

▲ 목차로 돌아가기

마치며 — 총평

Claude 1M 컨텍스트 정식 출시는 반가운 소식입니다. 가격 할증이 없어진 것, 256K보다 훨씬 넓은 공간에서 코드베이스 전체를 다룰 수 있다는 것 모두 실질적인 개선입니다.

하지만 1M이라는 숫자 자체를 균등한 품질로 읽어서는 안 됩니다. 256K 구간의 93%와 1M 구간의 76~78%는 같은 모델이 내는 다른 수치입니다. 4번 중 1번은 실수가 나올 수 있고, 그 실수는 높은 확신으로 포장되기 때문에 더 조심해야 합니다.

개인적으로는 50~60% 이내에서 압축하거나 새 세션을 시작하는 운용 방식이 현재로서는 가장 안정적이라고 봅니다. Pro 플랜보다는 Max 플랜 이상에서 1M의 진짜 가치가 나오고, 웹 채팅이 아닌 Claude Code 터미널에서 써야 제대로 활성화됩니다.

창이 커졌다고 전략 없이 채워 넣으면 오히려 세션 후반부 품질이 떨어집니다. 1M은 더 많이 채우라는 초대가 아니라, 중간에 끊지 않아도 된다는 조건이 생긴 것입니다. 그 차이를 알고 쓰면 이전과 다른 작업 흐름이 가능합니다.

▲ 목차로 돌아가기

📚 본 포스팅 참고 자료

  1. Anthropic — Introducing Claude Opus 4.6: https://www.anthropic.com/news/claude-opus-4-6
  2. Anthropic 공식 블로그 — 1M context GA: https://claude.com/blog/1m-context-ga
  3. Anthropic API 문서 — Context Windows: https://platform.claude.com/docs/en/build-with-claude/context-windows
  4. AlphaSignal — What Claude’s 1M Token Context Window Unlocks for Developers: https://alphasignalai.substack.com/p/what-claudes-1m-token-context-window
  5. GitHub anthropics/claude-code — Issue #35296 (1M context 품질 저하 분석): https://github.com/anthropics/claude-code/issues/35296
  6. Karo Zieminski — Claude’s 1 Million Context Window: What Changed: https://karozieminski.substack.com/p/claude-1-million-context-window-guide-2026

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 본문에 포함된 요금·기능·플랜 조건은 2026년 3월 13일 Anthropic 공식 발표 기준이며, 최신 정보는 Anthropic 공식 사이트에서 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기