Claude Opus 4.6 / Sonnet 4.6
IT/AI
Claude 1M 컨텍스트, 직접 써봤습니다
— 무료 같지만 이 조건 먼저 보세요
2026년 3월 13일, Anthropic이 Claude의 100만 토큰 컨텍스트 윈도우를 정식 오픈했습니다.
추가 요금 없이 전 구간 동일 단가 — 이 한 줄이 업계를 흔들었습니다.
그런데 막상 써보면, “내 플랜에선 자동으로 되는 건가?” 하는 부분에서 한 번 멈추게 됩니다.
1M 토큰이 실제로 얼마나 큰 건지 먼저 잡아봤습니다
“100만 토큰”이라는 숫자가 처음엔 감이 잘 안 옵니다. 토큰 하나가 영어 기준 약 ¾ 단어 정도이니, 1M 토큰은 대략 75만 단어입니다.
A4 용지 1장에 500~1,000토큰이 들어간다고 보면 약 1,000~2,000페이지 분량입니다. 소설 4~5권 분량을 한 번에 넣고 대화할 수 있다는 뜻입니다.
(출처: Anthropic 공식 블로그, 2026.03.13)
좀 더 구체적으로 환산하면 이렇습니다. 750,000단어의 텍스트, 코드 약 11만 줄, 이미지 또는 PDF 파일 최대 600개를 한 세션 안에 다 넣을 수 있습니다.
이전까지 한 번에 처리할 수 있는 이미지·PDF 수가 100개였던 것과 비교하면 6배 늘어난 셈입니다.
이게 단순한 숫자가 아닌 이유는, 법률 계약서 전체를 요약하거나 대규모 코드베이스를 분석할 때 지금까지는 파일을 잘라 나눠 넣어야 했는데, 그 수고가 사라진다는 의미이기 때문입니다.
다만 실제로 긴 세션을 써보면 처음부터 1M을 꽉 채울 일은 거의 없습니다. 개발자들이 보고한 내용을 보면, 500K 토큰 수준의 Claude Code 세션에서도 성능 저하나 반복 설명 없이 대화가 자연스럽게 이어졌다는 경험이 많습니다.
(출처: Martin Alderson 블로그, 2026.03.15)
추가 요금이 사라진 게 왜 이렇게 큰일인가요?
여기가 핵심입니다. 2026년 3월 13일 이전까지는 Claude API에서 컨텍스트가 200K 토큰을 넘어가면 단가가 2배로 뛰었습니다.
Opus 4.6 기준 0~200K 구간에서 입력 $5/1M 토큰이었던 것이, 200K 초과 시 $10/1M 토큰으로 올라갔습니다. Sonnet 4.6도 $3에서 $6으로 똑같이 2배였습니다.
이것이 3월 13일 GA 선언과 함께 완전히 사라졌습니다. 900K짜리 요청과 9K짜리 요청에 적용되는 단가가 이제 같습니다.
(출처: Anthropic 공식 블로그, 2026.03.13)
💡 공식 발표와 실제 청구 흐름을 같이 놓고 보니 이런 차이가 보였습니다
Anthropic의 수익 구조를 보면, API 및 토큰 기반 소비가 전체 매출의 약 70~75%를 차지하고
Claude Code가 약 18%를 담당합니다. 즉, Anthropic 입장에선 긴 세션을 “비싸게 팔 이유”가 있었음에도 할증을 없앤 겁니다.
이건 단순 할인이 아니라, 기업 고객이 Claude를 장기 워크플로우의 기반으로 쓰도록 유도하는 가격 전략입니다.
Anthropic은 2026년 2월 기준 연간 매출이 약 $190억 수준에 근접하고 있으며, 이 방향을 유지할 여력이 있다고 판단한 것입니다.
(출처: Product with Attitude, 2026.03.14)
이 변화를 한 줄로 정리하면, 지금까지는 “긴 대화는 비싸다”는 불문율이 있었는데 그게 깨진 것입니다.
개발자 입장에서 컨텍스트 엔지니어링에 들어가던 공수가 줄어들고, 에이전트 설계가 단순해집니다.
이 질문이 가장 많이 나옵니다. 세 모델 모두 이론상 1M 토큰을 지원하는 건 맞습니다. 그런데 “지원한다”와 “잘 읽는다”는 다릅니다.
| 모델 | 최대 컨텍스트 | 할증 시작 구간 | MRCR v2 정답률 |
|---|---|---|---|
| Claude Opus 4.6 | 1,000,000 | 없음 (전 구간 동일) | 78.3% |
| Claude Sonnet 4.6 | 1,000,000 | 없음 (전 구간 동일) | 18.5% (이전 최고치) |
| GPT-5.4 | 1,050,000 | 272K 초과 시 2배 | ~50% 미만 (256K 이상) |
| Gemini 3.1 Pro | 1,000,000 | 200K 초과 시 2배 | ~26.3% (1M 기준) |
출처: Anthropic GA 발표,
Martin Alderson 블로그,
LLM Prices / ※ MRCR v2 수치는 Anthropic 발표 기준이며 독립 검증 진행 중
여기서 MRCR v2 수치가 중요합니다. 이 벤치마크는 3,000페이지 분량의 문서 안에 숨겨진 2개의 사실을 모두 정확하게 찾아내야 정답으로 인정됩니다.
하나만 찾아도 0점입니다. Claude Opus 4.6은 78.3%를 기록했는데, GPT-5.4와 Gemini 3.1 Pro는 같은 길이에서 50%~26% 수준으로 급락합니다.
이 수치의 의미는 단순합니다. GPT와 Gemini도 창은 1M으로 열려 있지만, 창 안의 내용을 끝까지 읽고 기억하는 능력이 Claude보다 현저히 약하다는 뜻입니다.
실측 사례도 있습니다. Cognition 팀은 Opus 4.6의 1M 컨텍스트로 대형 코드 diff를 한 번에 리뷰하면서 크로스 파일 의존성을 더 잘 잡아낸다고 밝혔습니다.
이전에는 200K 창에서 파일을 나눠 처리해야 했기 때문에 패스가 여러 번 필요했습니다.
(출처: Anthropic 공식 블로그, 2026.03.13)
Pro 플랜은 여기서 막힙니다
이 부분을 모르면 “왜 내 세션은 여전히 컴팩션이 뜨지?”라는 상황이 생깁니다. 1M 컨텍스트가 모든 플랜에 자동 적용되는 건 아닙니다.
현재 기준으로 Max, Team, Enterprise 플랜의 Opus 4.6 세션은 자동으로 1M 창이 활성화됩니다.
반면 Pro 플랜 사용자는 Claude Code에서 /extra-usage 명령어를 직접 입력해야 1M 창이 열립니다.
📋 플랜별 1M 컨텍스트 활성화 조건 (2026.03.13 기준)
- Max / Team / Enterprise — Opus 4.6에서 자동 활성. 별도 설정 불필요.
- Pro — Claude Code에서
/extra-usage직접 입력 필요. 자동 적용 안 됨. - Free — 3월 한정 보너스 사용량 프로모션으로 긴 세션 실험 가능. 단, 1M 풀창이 아닌 제한된 범위.
왜 Pro 플랜만 수동인지를 생각해보면, Anthropic 입장에서 이게 Max·Team·Enterprise로의 업그레이드 신호라는 점이 보입니다.
1M 창을 Pro에서 자동으로 풀어버리면 단가 절충이 어렵고, 동시에 “어차피 Pro면 된다”는 인식이 생겨 상위 플랜 전환 유인이 줄어듭니다.
현실적으로 1M 창을 생산 환경에서 정기적으로 쓰는 사용자라면, Pro보다 Max가 비용 면에서도 더 계산이 맞을 수 있습니다.
넓게 열수록 돈이 더 나갈 수 있는 상황이 있습니다
할증이 사라졌다고 해서 비용 걱정이 없어지는 건 아닙니다. 오히려 창이 커질수록 토큰을 방만하게 쓰게 되는 상황이 생깁니다.
한 개발자의 사례가 잘 보여줍니다. Cursor 환경에서 단 하나의 AI 도구 호출이 전체 데이터베이스를 끌어오면서 800K 토큰을 한 번에 소비했습니다.
Opus 4.6 기준으로 800K 입력 토큰은 $4 비용입니다. 이 호출이 에이전트 루프 안에서 반복된다면 금액이 급격히 올라갑니다.
💡 비용 계산을 직접 해보면 이렇습니다
Opus 4.6 기준, 900K 토큰 단일 요청 1회의 입력 비용을 계산하면 다음과 같습니다.
$5 / 1,000,000 토큰 × 900,000 = $4.50
출력 토큰을 10K 기준으로 추가하면 $4.75 수준입니다. 1회성 리서치라면 감당 가능하지만, 이 세션이 에이전트 루프에서 10번 반복되면 하루에 $47.50이 나갑니다.
창이 넓어진 만큼 “무엇을 넣을지”에 대한 설계가 더 중요해졌습니다.
또 한 가지 놓치기 쉬운 부분이 있습니다. 컨텍스트가 극단적으로 길어질수록 응답 속도가 느려집니다. 특히 1M 근처에서는 지연이 체감될 수 있고, 이는 사용자 경험에도 직결됩니다.
Hacker News 스레드에서 복수의 개발자가 지적한 것처럼, 창 앞부분과 끝부분에 있는 내용은 잘 기억하지만 중간에 묻힌 내용은 여전히 놓치는 경우가 있습니다.
78.3%라는 수치도 반대로 보면, 완벽하게 1M 전체를 처리하는 게 아니라 여전히 약 22%의 실패율이 남아있다는 뜻입니다.
(출처: Product with Attitude, 2026.03.14)
실무에서 쓸 만한 상황, 쓰면 안 되는 상황
솔직히 말하면, 일반 개인 사용자가 1M 창을 꽉 채울 일은 많지 않습니다. 그보다 이 업그레이드의 실질적 혜택을 받는 케이스가 따로 있습니다.
쓸 만한 상황
가장 극적인 효과가 나오는 케이스는 법률 문서 교차 분석입니다. 수백 페이지짜리 계약서 5개를 한 세션에 다 올려놓고, 버전별 변경 사항을 추적하거나 특정 조항이 어떻게 달라졌는지를 물어보는 작업입니다. 이전까지는 파일을 잘라 넣고 결과를 합쳐야 했는데, 이제 한 번에 됩니다.
코드 분석도 마찬가지입니다. Cognition 팀처럼 수십만 줄 코드베이스 전체를 올려놓고 deprecated 패턴을 찾거나 크로스 파일 버그를 추적하는 작업이 훨씬 정확해집니다.
콘텐츠 리서치 측면에서는 6개월치 인터뷰 원고나 경쟁사 보고서를 한 번에 넣고 “이 주제에서 아직 다루지 않은 각도가 뭔가?”를 물어볼 수 있습니다.
신중해야 할 상황
이미 잘 요약된 정보라면 굳이 원문을 통으로 올릴 필요가 없습니다. 필요 없는 토큰을 함께 넣으면 정작 중요한 내용을 AI가 덜 집중하는 경향이 있고, 비용도 늘어납니다.
에이전트 루프에서 대량 DB를 풀 로드하는 설계는 반드시 피해야 합니다. 앞서 언급한 800K 토큰 실수처럼, 창이 넓다고 필터링을 생략했다가는 청구서에서 놀랄 수 있습니다.
단순 Q&A나 짧은 요약 작업에는 오히려 Sonnet 4.6이나 Haiku 계열이 더 빠르고 경제적입니다. 1M 창은 그 자체가 목적이 아니라, 필요할 때 쓸 수 있는 상한선이라고 보는 게 맞습니다.
Q&A — 자주 묻는 것들
마치며 — 큰 창보다 어떻게 쓸지가 먼저입니다
2026년 3월 13일 Anthropic이 선언한 Claude 1M 컨텍스트 GA는 분명 의미 있는 전환점입니다. 할증 없이 전 구간 동일 단가, 경쟁사 대비 뚜렷한 긴 컨텍스트 정확도, 매체 처리 용량 6배 확장 — 숫자만 봐도 달라진 게 많습니다.
다만 “내 플랜에서 자동 적용되는지”, “창을 크게 열수록 비용이 어떻게 달라지는지”, “GPT·Gemini와 겉보기 스펙은 같아도 실제 정확도 차이가 왜 나는지” — 이 세 가지를 확인하고 쓰는 것과 모르고 쓰는 것은 경험이 꽤 다릅니다.
직접 써본 인상으로는, 이 업데이트가 개인 일반 사용자보다 장기 에이전트 워크플로우를 돌리는 팀에게 훨씬 크게 체감됩니다. 컴팩션이 줄고, 파일을 잘라 넣는 수고가 없어지고, 방대한 문서를 한 세션에서 교차 분석할 수 있다는 것 — 이 변화가 현장에서 어떤 방식으로 쓰이게 될지가 앞으로의 흥미로운 관전 포인트입니다.
본 포스팅 참고 자료
-
Anthropic 공식 블로그 — 1M Context GA 발표 (2026.03.13)
https://claude.com/blog/1m-context-ga -
Anthropic 공식 뉴스 — Introducing Claude Opus 4.6 (2026.02.05)
https://www.anthropic.com/news/claude-opus-4-6 -
Anthropic 공식 뉴스 — Introducing Claude Sonnet 4.6 (2026.02.17)
https://www.anthropic.com/news/claude-sonnet-4-6 -
Simon Willison’s Link Blog — 1M Context GA 분석 (2026.03.13)
https://simonwillison.net/2026/Mar/13/1m-context/ -
Martin Alderson — Why Claude’s 1M Context Is a Big Deal (2026.03.15)
https://martinalderson.com/posts/why-claudes-new-1m-context-length-is-a-big-deal/ -
Product with Attitude (Karo Zieminski) — Claude 1M Context Window Guide (2026.03.14)
https://karozieminski.substack.com/p/claude-1-million-context-window-guide-2026 -
Sesame Disk — Claude 1M Token Context Pricing 분석
https://sesamedisk.com/anthropic-claude-1m-token-context-pricing/
※ 본 포스팅은 2026년 3월 17일 기준으로 작성되었습니다. Claude Opus 4.6 / Sonnet 4.6 모델 기준이며, 이후 Anthropic의 서비스 정책·요금제·UI·기능이 변경될 수 있습니다.
수치는 공식 발표 자료를 기반으로 하되, MRCR v2 벤치마크는 Anthropic 자체 발표 기준이며 독립 3자 검증이 진행 중입니다.
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 최신 내용은 anthropic.com에서 확인하세요.

댓글 남기기