노트북LM 신기능: 시네마틱 영상·딥리서치 지금 안 쓰면 손해

Published on

in

노트북LM 신기능: 시네마틱 영상·딥리서치 지금 안 쓰면 손해

🔥 2026년 3월 최신
구글 공식 발표
무료 사용 가능

노트북LM 신기능: 시네마틱 영상·딥리서치
지금 안 쓰면 경쟁자만 앞서갑니다

구글이 2026년 3월 5일, Cinematic Video Overviews를 기습 발표했습니다.
단순한 슬라이드 영상을 넘어 Gemini 3 + Veo 3가 결합된 몰입형 AI 영상 생성이 노트북LM 안에서 가능해졌습니다.
딥리서치 내장, 인포그래픽 자동 생성까지—이 글 하나로 2026년 신기능 전부를 정리합니다.

80+
지원 언어 수
600개
Ultra 소스 한도
77.1%
ARC-AGI-2 점수
무료
기본 사용 요금

노트북LM이 뭔지 아직도 모르시나요?

노트북LM(NotebookLM)은 구글이 2023년 출시한 AI 기반 지식 관리 도구입니다.
핵심 차이점은 단 하나입니다. 일반 AI 챗봇이 인터넷 전체를 학습한 것을 바탕으로 답변한다면,
노트북LM은 내가 올린 자료만을 근거로 답변합니다. 그래서 환각(hallucination)이 구조적으로 억제됩니다.

PDF, 유튜브 영상 URL, 구글 문서, 워드 파일(.docx), 이미지까지 업로드하면
AI가 그 내용을 바탕으로 요약·질의응답·팟캐스트·슬라이드·영상을 자동으로 만들어냅니다.
2026년 2~3월 연속 업데이트를 통해 노트북LM은 이제 단순한 ‘AI 노트’를 훨씬 넘어섰습니다.

💡 핵심 인사이트: 노트북LM의 경쟁력은 ‘내 자료 기반 답변’입니다.
챗GPT나 제미나이처럼 아무 말이나 그럴싸하게 하는 게 아니라,
내가 올린 문서 안에서만 근거를 찾으므로 업무·연구·공부에 훨씬 신뢰도 높은 결과가 나옵니다.

▲ 목차로 돌아가기

딥리서치 내장: AI가 직접 수백 개 웹사이트를 뒤집습니다

기존 노트북LM의 최대 한계는 ‘내가 직접 자료를 찾아서 올려야 한다’는 점이었습니다.
2025년 11월 업데이트로 이 한계가 완전히 사라졌습니다.
이제 노트북LM 안에서 바로 딥리서치(Deep Research)를 실행할 수 있습니다.

빠른 연구 vs 심층 연구

두 가지 모드가 제공됩니다. 빠른 연구(Fast Research)는 Gemini 2.0 Flash 기반으로 수 초 내에 웹 소스를 긁어와 출처와 함께 정리해줍니다.
반면 심층 연구(Deep Research)는 수백 개의 웹사이트·논문·기사를 AI가 스스로 순회하며, 새 정보를 발견할 때마다 검색 방향을 자체 수정합니다.
10~20분이 걸리지만 완전한 출처 명시 보고서로 노트북에 바로 저장됩니다.

그리고 여기서 주목해야 할 점은, 딥리서치가 진행되는 동안에도 사용자는 자신의 기존 소스를 계속 편집하거나 다른 작업을 할 수 있다는 점입니다.
AI가 백그라운드에서 10시간치 리서치를 대신 해주는 동안 내 시간은 온전히 다른 일에 씁니다.
이건 단순한 기능 추가가 아니라 일하는 방식의 변화입니다.

📌 실전 팁: 딥리서치 완료 후 나온 소스 목록을 전부 import하지 마세요.
항상 본인이 직접 원본 페이지를 확인하고 신뢰할 수 있는 소스만 선별해서 import하는 습관이 품질을 결정합니다.

▲ 목차로 돌아가기

시네마틱 비디오: 메모가 영화로 바뀌는 순간

2026년 3월 5일, 구글은 공식 블로그를 통해 Cinematic Video Overviews를 발표했습니다.
이것은 기존 비디오 오버뷰(내레이션이 들어간 슬라이드 영상)를 완전히 다른 차원으로 끌어올린 기능입니다.

기존 영상과 무엇이 다른가?

기존 Video Overviews는 텍스트와 이미지를 슬라이드 형태로 묶어 AI 내레이션을 붙이는 방식이었습니다.
반면 Cinematic Video Overviews는 Gemini 3 + Nano Banana Pro + Veo 3 세 모델이 결합되어
내러티브 구성, 시각 스타일 선택, 영상 흐름 최적화를 AI가 수백 가지 결정을 내리며 몰입형 영상을 완성합니다.

Veo 3가 실제 유동적인 애니메이션 영상을 생성하며,
Nano Banana Pro가 정교한 시각 요소를 더합니다.
즉, 내 리서치 노트 하나가 유튜브 설명 영상 수준의 콘텐츠로 자동 변환됩니다.

⚠️ 현재 제한 사항: 2026년 3월 기준 Cinematic Video Overviews는 영어만 지원하며,
Google AI Ultra 구독자(월정액 최상위 요금제) 대상으로 웹·모바일에서 제공됩니다.
한국어 지원은 아직 공식 발표 없음—단, 오디오 오버뷰의 한국어 지원 확장 전례를 보면 빠른 시일 내에 가능할 것으로 보입니다.

▲ 목차로 돌아가기

인포그래픽·슬라이드덱·데이터테이블 자동 생성

2025년 11월 대규모 업데이트로 노트북LM 스튜디오 패널에 세 가지 핵심 시각 도구가 추가됐습니다.
이 세 기능은 모두 Nano Banana Pro 시각 엔진으로 구동됩니다.

  • 1

    인포그래픽(Infographics): 텍스트 소스를 가로·세로·정사각형 형태의 시각화 이미지로 변환합니다.
    SNS 공유용 세로 인포그래픽, 발표자료용 가로 인포그래픽을 한 클릭으로 만들 수 있으며, 생성된 모든 이미지에는 구글 SynthID 워터마크가 자동 적용됩니다.
  • 2

    슬라이드 덱(Slide Decks): 리서치 노트를 발표용 슬라이드로 자동 변환합니다.
    상세형(Detail)과 발표자용(Presenter) 두 스타일을 제공하며, 2026년 최신 업데이트에서 PPTX 형식 직접 내보내기가 가능해졌습니다.
    슬라이드 내용을 자연어 프롬프트로 수정하는 기능도 지원합니다.
  • 3

    데이터 테이블(Data Tables): 여러 소스에서 추출한 정보를 표 형태로 자동 정리합니다.
    구글 스프레드시트로 직접 내보내기를 지원하므로, 제미나이 AI와 연동하여 추가 분석이 바로 가능합니다.
💡 개인적 의견: 슬라이드 덱 기능이 가장 실용적입니다.
회의 전날 50페이지 보고서를 읽고 직접 PPT를 만들던 시간이, 이제 5분으로 줄어듭니다.
단, AI가 ‘내용 우선순위’를 잘못 파악하는 경우도 있으니 반드시 1차 검토 후 발표에 써야 합니다.

▲ 목차로 돌아가기

오디오 오버뷰의 진화: 실시간 대화가 됩니다

노트북LM을 유명하게 만든 기능인 오디오 오버뷰(팟캐스트 형태 AI 대화 요약)가 2025~2026년에 걸쳐 세 단계 진화를 거쳤습니다.
이제는 단순히 ‘틀어놓고 듣는 팟캐스트’가 아닙니다.

4가지 포맷으로 세분화

Deep Dive(15~20분, 심층 탐구), Brief(5분, 빠른 브리핑), Critique(10~15분, 비판적 분석), Debate(15~20분, 반대 관점 토론) 중 목적에 맞게 선택할 수 있습니다.
같은 소스라도 ‘비판’ 포맷으로 만들면 AI가 자료의 논리적 허점을 집중 파헤칩니다. 논문이나 보고서 검수에 특히 유용합니다.

실시간 양방향 인터랙션

2025년 12월에 추가된 가장 강력한 업그레이드입니다.
팟캐스트 재생 중에 언제든 끼어들어 질문할 수 있습니다. AI 진행자들이 즉각 답변하고 대화 맥락을 유지하며 내용을 이어갑니다.
이것은 일방향 오디오 콘텐츠를 ‘내 전용 튜터’로 바꿔놓는 기능입니다.

한국어 지원은 80개 이상 언어로 이미 확대되었으며, 한국어 오디오 오버뷰도 영어와 동일한 깊이와 밀도를 제공합니다.
모바일 앱에서는 백그라운드 재생 시 재생 위치가 클라우드에 자동 저장됩니다.

▲ 목차로 돌아가기

요금제 완전 비교: 무료로 어디까지 쓸 수 있나?

노트북LM의 가장 큰 장점 중 하나는 핵심 기능을 무료로 쓸 수 있다는 점입니다.
단, 요금제별 한도 차이가 상당하므로 본인 사용 패턴에 맞는 등급을 파악해두는 게 중요합니다.

▲ 2026년 3월 기준 노트북LM 요금제별 주요 한도
구분 무료 Pro ($20/월) Ultra
노트북당 소스 수 50개 300개 600개
총 노트북 수 100개 500개 500개
일일 오디오 생성 3회 20회 200회
일일 영상 생성 제한 20회 20회
시네마틱 비디오 ✅ (영어만)
딥리서치 ✅ (제한)
인포그래픽·슬라이드
소스당 최대 크기 200MB / 500,000단어 (공통)
📌 솔직한 평가: 개인 사용자라면 무료 플랜도 충분합니다.
단, 소스 50개 제한이 생각보다 빨리 찹니다. 분야별로 노트북을 분리해 운용하는 것이 현실적입니다.
콘텐츠 크리에이터나 연구자라면 Pro($20/월)를 강력히 권합니다. 소스 300개는 여유롭게 쓸 수 있습니다.

▲ 목차로 돌아가기

실전 활용 시나리오: 직장인·학생·크리에이터별

기능만 나열하면 와닿지 않습니다. 실제로 어떻게 쓰면 되는지 세 가지 시나리오로 정리했습니다.

① 직장인: 50페이지 보고서를 10분 안에 소화하기

회의 전날 방대한 보고서가 쏟아졌을 때, 노트북LM에 업로드하고 Brief 포맷 오디오 오버뷰를 만들면 출퇴근길 5분 청취로 핵심을 파악할 수 있습니다.
슬라이드 덱 자동 생성으로 PPTX를 뽑아 팀원에게 바로 공유할 수 있고, 딥리서치로 경쟁사 동향을 추가로 긁어와 같은 노트북에 합칩니다.

② 학생: 논문·교재 기반 맞춤형 스터디 도구

교재 PDF와 강의 유튜브 URL을 함께 소스로 업로드하면, 노트북LM이 둘을 연결해서 Q&A를 처리합니다.
플래시카드 자동 생성 후 CSV로 다운로드해서 Anki에 import하면 완벽한 복습 루틴이 완성됩니다.
Critique 포맷 오디오로 내 논리 구조의 약점을 미리 파악하는 것도 추천합니다.

③ 콘텐츠 크리에이터: 리서치부터 콘텐츠까지 원스톱

딥리서치로 주제 관련 최신 소스 20개를 자동 수집한 뒤,
인포그래픽을 SNS 카드뉴스용으로 출력하고,
오디오 오버뷰를 팟캐스트 대본 초안으로 활용하며,
비디오 오버뷰를 유튜브 썸네일 기획에 참고합니다.
한 번의 리서치가 4가지 포맷으로 변환되므로 콘텐츠 생산성이 비교 불가로 올라갑니다.

▲ 목차로 돌아가기

❓ 자주 묻는 질문 (Q&A)

노트북LM은 한국어를 제대로 지원하나요?

오디오 오버뷰, 슬라이드 덱, 인포그래픽, 딥리서치 등 대부분의 기능에서 한국어를 지원합니다.
2025년 4월부터 오디오 오버뷰 한국어 지원이 공식 확대됐으며, 영어와 동일한 깊이의 분석이 가능합니다.
다만 2026년 3월 기준으로 시네마틱 비디오는 아직 영어만 지원합니다.

무료 계정으로 딥리서치를 쓸 수 있나요?

네, 무료 계정에서도 딥리서치를 사용할 수 있습니다. 단, 일일 사용 횟수에 제한이 있으며
소스 한도가 50개로 제한되므로 수집된 소스를 선별적으로 import하는 습관이 필요합니다.
Pro 이상에서는 횟수 제한 없이 자유롭게 사용 가능합니다.

소스 용량 제한(200MB, 50만 단어)을 초과하면 어떻게 되나요?

용량(200MB)을 초과하면 업로드 자체가 차단됩니다. 단어 수(50만 단어) 한도를 초과하면
인터페이스에는 정상 업로드된 것처럼 보여도, AI의 실제 처리 범위는 50만 단어까지만 적용됩니다.
대용량 PDF는 챕터별로 분리해서 여러 소스로 나눠 올리는 것을 권장합니다.

시네마틱 비디오는 언제 한국어를 지원할까요?

구글이 공식적으로 한국어 지원 일정을 발표한 바는 없습니다.
다만 오디오 오버뷰가 출시 약 8개월 만에 80개+ 언어 지원으로 확장된 전례를 보면,
시네마틱 비디오도 수개월 이내에 한국어를 지원할 가능성이 높습니다.
구글 공식 블로그(blog.google)를 통해 업데이트를 확인하시기 바랍니다.

노트북LM이 생성한 콘텐츠를 상업적으로 사용해도 되나요?

구글의 이용약관 및 생성된 콘텐츠의 저작권 귀속은 사용 목적과 원본 소스의 저작권에 따라 달라집니다.
공개 도메인이나 본인 소유 자료를 소스로 사용한 경우에는 상업적 활용 가능성이 높지만,
반드시 구글 이용약관 및 해당 소스의 저작권 조건을 별도로 확인하시기 바랍니다.

마치며: 노트북LM 신기능, 지금 써야 하는 이유

솔직하게 말씀드리면, 노트북LM은 지금 AI 도구 시장에서 가장 저평가된 서비스 중 하나입니다.
챗GPT나 제미나이처럼 눈에 띄는 마케팅은 없지만, 실제 지식 근로자의 생산성에 미치는 영향은 훨씬 직접적입니다.

2026년 3월 기준으로 딥리서치 통합, 시네마틱 비디오 생성, 인포그래픽·슬라이드 자동화, 실시간 오디오 인터랙션까지—
이 모든 기능이 무료 혹은 월 20달러 수준의 비용으로 사용 가능합니다.
경쟁 도구들이 비슷한 기능을 따로따로 유료로 파는 것과 비교하면 압도적인 가성비입니다.

개인적으로 가장 주목하는 방향성은 ‘노트북LM이 지식 소비의 형식을 대체한다’는 것입니다.
긴 글을 읽는 대신 팟캐스트로 듣고, 보고서를 PDF로 받는 대신 슬라이드로 바로 공유하며,
인터넷을 검색하는 대신 AI가 대신 조사해오는 시대입니다.
이 흐름에 지금 올라타는 사람이 1년 후 격차를 만들어냅니다.

※ 본 포스팅은 공개된 정보와 공식 발표를 바탕으로 작성된 정보성 콘텐츠입니다.
서비스 정책 및 요금제는 구글의 결정에 따라 변경될 수 있으며, 최신 정보는 공식 사이트를 통해 확인하시기 바랍니다.
마지막 업데이트: 2026년 3월 8일.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기