Le Chat, 무료인데 이미지까지 됩니다 — 그런데 모델이 뭔지 말 안 합니다

Published on

in

Le Chat, 무료인데 이미지까지 됩니다 — 그런데 모델이 뭔지 말 안 합니다

2026.03.25 기준
Le Chat 최신 업데이트 반영

Le Chat, 무료인데 이미지까지 됩니다 — 그런데 모델이 뭔지 말 안 합니다

ChatGPT 무료 플랜에서 이미지 생성이 제한적인 것과 달리, Le Chat은 무료로 Flux Ultra 기반 이미지 생성, 웹 검색, 문서 업로드까지 제공합니다. 그런데 막상 Pro 요금제($14.99/월)를 결제해도 “내 질문이 어떤 모델로 처리되는지”를 Mistral이 공식적으로 밝히지 않습니다. 이게 2026년 3월 지금, Le Chat을 둘러싼 가장 중요한 질문입니다.

무료 이미지 생성
Flux Ultra
Pro 요금
$14.99/월
최신 모델 출시
2026.03.16

무료인데 왜 이미지 생성까지 되는 걸까요

결론부터 말씀드리면, Mistral AI는 경쟁 서비스와 다른 전략을 쓰고 있습니다. ChatGPT는 무료 플랜에서 DALL·E 이미지 생성을 하루 수 회로 제한하고, Gemini는 일부 이미지 기능을 유료 플랜으로 가두는데 Le Chat은 무료 계정에서도 Black Forest Labs의 Flux Ultra 모델 기반 이미지 생성을 제공합니다. (출처: Mistral AI 공식 블로그, mistral.ai/news/all-new-le-chat, 2025.02.06)

Flux Ultra는 2025년 기준으로도 이미지 품질이 최상위권으로 평가받는 모델입니다. 이걸 공짜로 쓸 수 있다는 건, 단순히 “일단 써보라”는 유인 전략이기도 하고, 동시에 유럽 AI 생태계를 키우려는 Mistral의 정치적 포지셔닝이기도 합니다.

💡 공식 발표문과 실제 무료 플랜 기능을 같이 놓고 보니 이런 차이가 보였습니다. Le Chat 무료 플랜이 제공하는 기능 목록 — 웹 검색, 이미지 생성(Flux Ultra), 문서 업로드·분석, 캔버스, 코드 인터프리터 — 이 가운데 유료 플랜에서만 쓸 수 있는 기능은 “더 높은 사용 한도”와 “우선순위 응답 속도”뿐입니다. 기능의 종류 자체는 무료와 Pro 플랜 사이에 거의 차이가 없다는 점이 다른 서비스와 결정적으로 다릅니다.

그렇다면 Pro 요금제를 낼 이유가 있을까요? 바로 다음 섹션에서 그 함정을 설명합니다.

▲ 목차로 돌아가기

Pro 구독해도 어떤 모델인지 안 알려줍니다

이 부분이 솔직히 가장 아쉬웠습니다. ChatGPT Plus는 “GPT-4o로 처리됩니다”라고 명시하고, Claude Pro는 “Sonnet / Opus” 선택 화면이 있습니다. 그런데 Le Chat Pro는 현재 어떤 모델이 실제로 응답하는지를 Mistral이 공식 답변을 내놓지 않은 부분입니다.

2026년 3월 Reddit r/MistralAI 스레드에서 사용자들이 직접 고객센터에 문의한 결과, “현재는 주로 Mistral Medium 3.2를 쓰는데 작업에 따라 Large 3로 전환된다”는 답변이 왔지만, 다른 스레드에서는 Medium 3, Medium 3.1, Large 3가 뒤섞여 언급됐습니다. 고객센터 답변조차 일관성이 없었습니다. (출처: r/MistralAI, 2026.03.05)

주의할 점: Pro 플랜 $14.99를 결제한다고 해서 Mistral Large 3(675B MoE)가 반드시 구동되는 게 아닙니다. 인터페이스 UI에 “Fast / Think / Research” 세 가지 버튼이 있고, 각각이 내부적으로 다른 모델 또는 모드를 호출하지만 그 매핑이 공식 문서에 나와 있지 않습니다.

이런 구조 때문에 “같은 $15짜리 구독인데 내가 어떤 모델을 쓰는지 모른다”는 상황이 생깁니다. 이게 Le Chat Pro를 선뜻 추천하기 어렵게 만드는 핵심 이유입니다.

▲ 목차로 돌아가기

2026년 3월, Le Chat 내부 엔진이 완전히 바뀌었습니다

2025년 말~2026년 3월 사이 Mistral이 쏟아낸 업데이트 속도는 이전과 비교해 완전히 달라졌습니다. 공식 changelog(docs.mistral.ai/getting-started/changelog)를 기준으로 주요 릴리스를 정리하면 이렇습니다.

출시일 모델/기능 핵심 변화
2025.12.02 Mistral Large 3 675B MoE, Apache 2.0 오픈소스
2025.12.09 Devstral 2 코딩 에이전트 특화, 유료 API 전환
2025.12.18 Mistral OCR 3 손글씨 인식·복잡한 표 추출 기본 탑재
2026.02.04 Voxtral Mini 2 200ms 이하 초저지연 음성 전사, 13개 언어
2026.03.12 Mistral Moderation 2603 Agent·Conversation 별도 Guardrails 지원
2026.03.16 Mistral Small 4 119B MoE, 추론·비전·코딩 통합, 256k 컨텍스트

(출처: Mistral 공식 changelog, docs.mistral.ai/getting-started/changelog)

특히 2026년 3월 5일부터 Le Chat Pro UI에 “Fast / Think / Research” 버튼이 추가됐습니다. 이게 단순 UI 개편이 아닌 멀티모델 아키텍처 전환의 신호라는 점이 중요합니다. Fast는 빠른 인스트럭트 응답, Think는 Magistral 기반 추론 모드, Research는 멀티소스 웹 검색 합성 — 이렇게 작업 유형에 따라 내부 엔진이 자동으로 달라집니다.

▲ 목차로 돌아가기

Mistral Small 4, 이름은 Small인데 119B입니다

2026년 3월 16일 출시된 Mistral Small 4(모델 ID: mistral-small-2603)는 총 파라미터 119B, 그러나 토큰당 활성 파라미터는 6B입니다. “Small”이라는 이름이 붙었지만, 불과 2년 전만 해도 “Large”급으로 불렸을 규모입니다. 커뮤니티에서 “Small은 이제 새로운 Large”라는 반응이 나온 이유입니다. (출처: Mistral AI, mistral.ai/news/mistral-small-4, 2026.03.16)

💡 공식 발표 벤치마크와 실제 커뮤니티 반응을 같이 놓고 보니 이런 차이가 보였습니다. Mistral은 Small 4가 AIME 2025에서 71.2점, LiveCodeBench에서 63.6점을 기록하며 GPT-OSS 120B를 20% 적은 출력 길이로 앞섰다고 발표했습니다. 하지만 커뮤니티 벤치마크에서 Qwen3.5-35B-A3B(총 35B, 활성 3B)가 GPQA Diamond 84.2점으로 Small 4(71.2점)를 13점 차로 앞섰습니다. 훨씬 작은 모델이 더 높은 점수를 낸 셈입니다. (출처: r/LocalLLaMA 벤치마크 비교, 2026.03.16)

이 수치가 의미하는 건 하나입니다. 총 파라미터 숫자만 보고 성능을 가늠하면 안 됩니다. MoE 구조에서 실제로 계산에 참여하는 건 6B뿐이고, 이 6B가 Qwen 35B-A3B(활성 3B)보다 딱히 더 잘하지 못하는 경우도 나옵니다.

한편 Mistral이 내세운 강점도 공식 문서에 분명히 나옵니다. Mistral Small 3 대비 처리량이 3배, 지연시간이 40% 단축됐습니다. 벤치마크 점수가 아니라 “속도 대비 비용”을 따져야 하는 API 서버 운영 환경에서라면, 이 숫자가 훨씬 직접적으로 와닿습니다.

▲ 목차로 돌아가기

실사용자들이 말하는 Le Chat의 실제 한계

2026년 2월 Reddit r/MistralAI에서 “Le Chat vs ChatGPT/Gemini” 비교 스레드가 활발하게 올라왔습니다. 써본 사람들의 평가를 정리하면 공통된 패턴이 보입니다.

Le Chat이 상대적으로 잘하는 것

  • 응답 속도: Flash Answers 기능 덕분에 약 1,000단어/초 수준의 응답 속도를 제공합니다. (출처: Mistral 공식 블로그)
  • EU 관점의 중립성: 정치적 주제에서 미국 중심 편향이 상대적으로 적다는 평가가 여러 사용자에게서 나왔습니다.
  • 창작·롤플레이: Claude보다 검열이 적고, 픽션·세계관 구축에 적합하다는 후기가 많습니다.
  • 데이터 추출·OCR: Mistral OCR 3이 기본 탑재되면서 복잡한 표나 스캔 문서에서 강세를 보입니다.

Le Chat이 아쉬운 것

  • 복잡한 추론: Think 모드(Magistral 기반)가 무한 루프에 빠지거나 불필요하게 길어진다는 후기가 지속 보고됩니다.
  • 코딩 성능: Claude Sonnet 4.5, GLM 4.7 대비 Devstral 2도 실제 복잡한 코드베이스에서 열세라는 평가가 있습니다.
  • Memory 기능: 메모리를 업데이트했어도 며칠 후 초기화되는 현상이 보고됩니다. 아직 안정화 단계입니다.
  • 출력 길이: 답변이 짧게 끊기는 경향이 있어, 긴 형식의 콘텐츠 작성에서는 반복 요청이 필요한 경우가 있습니다.

한 사용자는 “속도는 Le Chat이 최고인데, 한 번에 완성된 결과물이 나오는 경우는 Claude가 훨씬 많다”고 정리했습니다. 속도냐 품질이냐 — 이 선택이 Le Chat 사용의 핵심입니다.

▲ 목차로 돌아가기

Le Chat이 진짜 빛나는 조건이 따로 있습니다

이 섹션이 이 글에서 가장 말하고 싶은 부분입니다. Le Chat을 “ChatGPT의 저렴한 대안”으로만 보면 계속 실망합니다. 써보니까 명확하게 이런 경우에 앞섭니다.

🔹 GDPR·EU 데이터 규정이 민감한 기업/직종

Mistral AI는 파리 기반 프랑스 기업으로 EU AI Act 및 GDPR 적용을 받습니다. 유럽 기업·법률·의료 종사자 중 미국 서버로 민감 데이터를 보내기 꺼리는 경우라면 Le Chat Enterprise나 On-Prem 배포 옵션이 현실적인 선택지입니다.

🔹 API 비용이 중요한 개발자·스타트업

Mistral Large 3 API는 입력 토큰 기준 Claude Sonnet 4.5 대비 약 1/6 수준의 가격대로 형성돼 있습니다. (참고: pricepertoken.com/pricing-page/model/mistral-ai-mistral-large-2512) 처리량이 많은 서비스에서 “충분히 좋은 품질”을 더 싼 값에 뽑아낼 수 있는 구조입니다.

🔹 로컬 LLM 배포 환경

Mistral Small 4와 Mistral Large 3 모두 Apache 2.0 라이선스로 오픈소스로 공개됩니다. 상업적 수정·배포가 가능합니다. 같은 성능대에서 오픈소스 선택지가 없는 OpenAI, Anthropic과 결정적으로 다른 지점입니다.

이 세 가지 조건 중 하나라도 해당된다면, Le Chat(또는 Mistral API)는 생각보다 훨씬 강력한 선택입니다. 반대로 단순히 “가장 똑똑한 챗봇”을 원한다면 지금 당장은 Claude나 Gemini가 낫습니다.

▲ 목차로 돌아가기

Q&A — 자주 묻는 질문 5가지

Q1. Le Chat 무료 플랜에서 이미지는 몇 장까지 생성되나요?

Mistral AI가 무료 플랜의 일일 이미지 생성 상한을 수치로 공식 발표한 자료는 없습니다. 실사용자 후기 기준으로 하루 수십 장까지는 무난하게 생성된다는 보고가 많으나, 정확한 상한은 공개되지 않았습니다. 사용량이 많아지면 속도 제한이 걸리는 방식으로 조절됩니다.

Q2. Le Chat Pro와 ChatGPT Plus, 어느 쪽이 더 낫나요?

가격은 같습니다(둘 다 약 $20/월 또는 Le Chat은 $14.99). 코딩·논리 추론에서는 ChatGPT Plus(GPT-4o)가 앞서는 경우가 많고, 속도·이미지 생성 접근성·EU 데이터 규정 적합성에서는 Le Chat이 앞섭니다. 단순 성능만 본다면 ChatGPT Plus, 데이터 주권이나 비용 효율을 본다면 Le Chat이 유리합니다.

Q3. Mistral Small 4는 Le Chat에서 바로 쓸 수 있나요?

2026년 3월 25일 현재 Mistral Small 4(mistral-small-2603)는 Mistral API, AI Studio, Hugging Face에서 사용 가능합니다. Le Chat 인터페이스에 기본 모델로 탑재됐는지 여부는 Mistral이 공식 발표를 내놓지 않은 부분입니다. API를 통해 직접 호출하거나, Le Chat Agents에서 모델을 선택해 사용하는 방법이 현재로선 확실합니다.

Q4. Mistral OCR 3은 한국어 문서에도 잘 작동하나요?

Mistral OCR 3(mistral-ocr-2512)은 공식적으로 다국어 손글씨 인식과 복잡한 표 추출을 지원한다고 발표했습니다. 한국어 전용 테스트 수치는 공식 발표에 포함되지 않았습니다. 실사용 후기에서는 영어·프랑스어 문서에서 가장 정확도가 높고, 한국어는 인쇄체에선 무난하지만 손글씨에서는 추가 검증이 필요한 수준이라는 평가가 있습니다.

Q5. Le Chat Memories 기능은 지금 모든 계정에서 켜져 있나요?

Memories는 옵트인(opt-in) 방식으로 제공됩니다. 즉 기본으로 켜져 있지 않고 사용자가 직접 활성화해야 합니다. 실사용 보고에 따르면 업데이트된 기억이 며칠 후 초기화되는 현상이 발생하는 경우가 있었습니다. 2026년 3월 현재도 완전히 안정화된 기능은 아닙니다.

▲ 목차로 돌아가기

마치며 — Le Chat을 어떻게 쓸 것인가

Le Chat은 지금 분명히 과도기 상태입니다. 무료로 이미지까지 주는 관대한 정책, 2026년 3월에만 Mistral Small 4·Leanstral·Moderation 2603 세 가지 모델을 연달아 출시한 가속도, 오픈소스 Apache 2.0이라는 경쟁 우위 — 이쪽 면만 보면 상당히 매력적입니다.

하지만 “Pro 요금을 내도 어떤 모델이 구동되는지 모른다”는 투명성 문제, Thinking 모드의 불안정성, 복잡한 코딩·추론에서 여전히 벌어지는 성능 격차는 솔직히 아직 해결이 안 됐습니다. 이 부분이 개선되기 전까지는 “보조 도구”로 병행 사용하는 게 현실적입니다.

개인적으로는 이미지 생성이 무료라는 점, 빠른 응답 속도, EU 기반이라는 점에서 특정 용도로 충분히 쓸 만하다고 봅니다. 다만 $14.99 Pro를 결제하기 전에 — 무료 플랜으로 충분히 써보고, 자신의 주 용도에서 속도 외에 다른 장점이 실제로 느껴지는지 확인한 뒤 결정하는 편이 낫습니다.

▲ 목차로 돌아가기

📚 본 포스팅 참고 자료

  1. Mistral AI 공식 블로그 — Le Chat 출시 발표 (mistral.ai)
  2. Mistral 공식 Changelog (docs.mistral.ai)
  3. Mistral Small 4 공식 발표 (mistral.ai, 2026.03.16)
  4. r/MistralAI — Le Chat 2026년 3월 업데이트 발견 스레드
  5. r/LocalLLaMA — Mistral Small 4 벤치마크 비교 스레드

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 기재된 요금 및 모델 정보는 2026년 3월 25일 기준이며, Mistral AI의 업데이트에 따라 달라질 수 있습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기