구글 서치 라이브, 이 조건 없으면 안 켜집니다

Published on

in

구글 서치 라이브, 이 조건 없으면 안 켜집니다

2026.03.27 기준 / 제미나이 3.1 플래시 라이브 기준

구글 서치 라이브, 이 조건 없으면 안 켜집니다

카메라로 비추고 말하면 AI가 바로 대답한다는 기능. 막상 앱을 열어봤더니 버튼 자체가 없는 분들이 많습니다. 이유가 따로 있습니다.

📱 구글 앱 전용
🌏 200개국 출시
🔊 Gemini 3.1 탑재
⚠️ AI 모드 필수

구글 서치 라이브가 뭔가요? — 결론부터

구글 서치 라이브(Search Live)는 2026년 3월 27일, 한국을 포함한 전 세계 200개 이상 국가에 정식 출시된 실시간 대화형 검색 기능입니다. (출처: 구글 공식 블로그, 2026.03.26) 타이핑 없이 말로 질문하고, 카메라로 사물을 비추면서 AI와 실시간으로 대화하는 방식이 핵심입니다.

구동 모델은 제미나이 3.1 플래시 라이브(Gemini 3.1 Flash Live)입니다. 구글이 “지금까지 만든 최고 품질의 오디오·음성 모델”이라고 표현했고, 음성 입출력을 별도 STT/TTS 없이 오디오 토큰 자체로 처리하는 구조입니다. (출처: Google AI 공식 블로그, 2026.03.26)

가장 직관적인 사용 시나리오는 이렇습니다. 가구를 조립하다 막혔을 때 카메라로 부품을 비추며 “이게 어디 들어가는 거예요?”라고 물으면, AI가 화면을 실시간으로 인식해 단계별 안내를 음성으로 들려주고 관련 웹 링크도 함께 제공합니다.

💡 공식 발표문과 실제 접근 조건을 같이 놓고 보면 한 가지 패턴이 보입니다. 출시 뉴스엔 “200개국 무료 사용”이라는 문장이 강조되지만, 실제로 기능이 뜨는 조건은 따로 있습니다. 아래 섹션에서 바로 설명합니다.

▲ 목차로 돌아가기

버튼이 안 보이는 진짜 이유

많은 분들이 뉴스를 보고 구글 앱을 열었다가 ‘Live’ 아이콘이 아예 보이지 않는 상황을 겪고 있습니다. 이건 버그가 아닙니다. 구글이 공식 지원 문서에 딱 이렇게 명시했습니다 — 서치 라이브는 “AI 모드가 제공되는 모든 언어와 지역에서 사용 가능”하다고요. (출처: Google 검색 고객센터, 2026.03.27)

즉, AI 모드 자체가 계정에 활성화되어 있지 않으면 서치 라이브 버튼도 나타나지 않습니다. 한국은 AI 모드 지원 국가에 포함되어 있고, 별도 유료 구독 없이도 기본 AI 모드는 사용할 수 있습니다. 그런데 계정 국가 설정, 앱 버전, 구글 플레이 스토어 지역 설정이 맞지 않으면 기능이 뜨지 않는 경우가 실제로 보고되고 있습니다.

체크해야 할 조건 3가지

1구글 앱 버전 — iOS/안드로이드 모두 최신 버전으로 업데이트해야 합니다. 구버전에선 AI 모드 탭 자체가 없습니다.

2Google 계정 국가 설정 — 계정의 국가·지역이 대한민국으로 설정되어 있어야 합니다. 해외 계정을 메인으로 사용하는 경우 AI 모드 자체가 뜨지 않을 수 있습니다.

3구글 앱 실행 경로 — 크롬 브라우저가 아닌, 구글 앱(Google App)을 직접 실행해야 합니다. 크롬에서 google.com에 접속하는 방식으로는 서치 라이브의 카메라 연동 기능이 제한됩니다.

⚠️ 이 조건이 핵심입니다: 서치 라이브는 독립 기능이 아니라 AI 모드의 하위 기능입니다. AI 모드가 켜지지 않으면, 출시 뉴스에서 본 모든 기능을 아예 시작할 수 없습니다.

▲ 목차로 돌아가기

제미나이 3.1 플래시 라이브, 숫자로 보면 이렇습니다

구글은 이번 서치 라이브의 엔진인 제미나이 3.1 플래시 라이브 성능을 구체적인 수치로 공개했습니다. 그런데 직접 살펴보면 “역시 대단하다”는 결론만 나오지 않습니다.

벤치마크 수치 비교

벤치마크 Gemini 3.1 Flash Live 비고
ComplexFuncBench Audio
(다단계 음성 함수 호출)
90.8% 이전 모델 대비 1위
Audio MultiChallenge
(실제 대화 중 복잡한 지시 수행)
36.1% 비대화형 모델은 50%+
대화 맥락 유지 길이 2배 향상 2.5 모델 대비

(출처: Google AI 공식 블로그, blog.google, 2026.03.26)

💡 공식 벤치마크 두 개를 나란히 놓고 보면 눈에 띄는 차이가 생깁니다. 실제 대화형 환경에서 복잡한 지시를 따르는 능력(Audio MultiChallenge)은 36.1%인데, 비대화형 오디오 모델이 이 테스트에서 50% 이상을 기록합니다. 구글도 이 수치를 논문처럼 공개한 것입니다. “대화에 최적화된 모델은 비대화형 작업에서 반드시 강한 건 아니다”는 맥락이 숫자에 그대로 드러납니다.

실용적으로 보면: 일상적인 대화형 질문에서 응답 속도와 자연스러움은 이전 모델보다 체감상 빨라졌습니다. 대화 맥락이 2배 길어졌다는 건, 긴 요리 레시피를 따라가거나 복잡한 조립 안내를 중간에 끊지 않고 이어갈 수 있다는 뜻입니다.

▲ 목차로 돌아가기

서치 라이브 vs 제미나이 라이브, 같은 것처럼 보이지만 다릅니다

둘 다 제미나이 3.1 플래시 라이브 모델을 씁니다. 그런데 실행 경로와 목적이 다릅니다. 이걸 헷갈리면 엉뚱한 앱을 찾다가 포기하게 됩니다.

항목 서치 라이브 제미나이 라이브
실행 위치 구글 앱 (검색) 제미나이 앱
카메라 연동 ✅ 실시간 가능 별도 설정 필요
웹 링크 제공 ✅ 답변과 함께 제공 미제공
Google 렌즈 연동 ✅ 렌즈 → Live 전환 없음
주요 용도 실시간 검색·정보 탐색 자유 대화·브레인스토밍

(출처: Google AI 공식 블로그·구글 공식 지원 문서, 2026.03.26~27)

실용적으로 구분하면, 지금 눈앞의 무언가를 카메라로 비추면서 관련 정보를 바로 얻고 싶을 때는 서치 라이브, 주제를 깊이 대화로 탐색하거나 아이디어를 발전시킬 때는 제미나이 라이브가 맞습니다.

▲ 목차로 돌아가기

한국어로 쓸 수 있는 기능, 못 쓰는 기능 구분

“한국에도 출시됐다”는 뉴스만 보면 모든 기능이 한국어로 된다고 생각하기 쉽습니다. 그런데 구글 공식 지원 문서를 직접 확인해보면 기능별로 사용 가능 범위가 다릅니다.

✅ 한국어로 지금 가능한 것

  • 음성으로 질문하고 음성으로 답변 받기 (서치 라이브 기본 기능)
  • 카메라로 사물을 비추며 대화 (제미나이 3.1 플래시 라이브 기반, 한국어 지원 확인)
  • 구글 렌즈에서 Live 모드로 바로 전환
  • 답변과 함께 웹 링크 제공 (AI 개요 방식)

⚠️ 아직 한국에서 제한적인 것

  • Gemini 3 Pro (AI 모드 심층 기능) — 현재 한국을 포함한 대부분 국가에서 영어로만 제공됩니다. 한국어로 복잡한 추론 기반 검색을 하면 기본 모델(빠른 모드)이 적용됩니다. (출처: Google 검색 고객센터, 2026.03 기준)
  • 개인 인텔리전스 맞춤화 — Gmail·포토 연동 개인화 기능은 현재 미국 영어 사용자에게만 제공됩니다.
  • Gemini 3 Pro 이미지 생성 — 영어 제공 국가 중 AI 플러스/프로/울트라 구독자에게만 해당됩니다.

요약하면, 음성+카메라 실시간 검색 자체는 한국어로 됩니다. 그런데 AI 모드 안에서도 가장 심층적인 추론 레이어는 아직 한국어 전면 지원이 아닙니다.

▲ 목차로 돌아가기

기대했던 것과 달랐던 부분

서치 라이브를 소개하는 글들이 대부분 “이런 게 가능하다”는 방향으로만 흘러가는데, 막상 공식 문서와 실측 수치를 나란히 놓으면 몇 가지 현실적인 부분이 눈에 들어옵니다.

아직 36%짜리인 부분

앞서 언급한 Audio MultiChallenge에서 제미나이 3.1 플래시 라이브의 점수는 36.1%입니다. (출처: Scale AI Audio MultiChallenge 리더보드, 2026.03 기준) 이 벤치마크는 실제 대화 환경에서 복잡한 지시를 따르는 능력을 테스트합니다. 비대화형 모델은 50%를 넘기는 수치인데, 실시간 대화에 최적화된 모델이 오히려 낮은 점수를 받는 구조입니다. 실시간 응답 속도와 대화 자연스러움에 집중하느라 복잡한 지시 수행 능력에서 트레이드오프가 생긴 것입니다.

💡 “실시간 대화에 강한 AI가 당연히 복잡한 지시도 잘 따를 것”이라는 흔한 가정이 수치 앞에서 맞지 않는 경우입니다. 구글이 이 데이터를 직접 공개했다는 점이 흥미롭습니다.

목소리가 너무 사람 같아서 생기는 문제

Ars Technica가 2026년 3월 26일 보도한 내용에서 지적한 것처럼, 3.1 플래시 라이브 모델은 이전보다 훨씬 더 사람 목소리에 가깝습니다. (출처: Ars Technica, 2026.03.26) 구글이 이를 의식해서 SynthID 워터마크를 모든 오디오 출력에 적용했습니다. 사람 귀에는 들리지 않지만 기술적으로 탐지 가능한 방식으로 AI 생성 음성임을 표시하는 것입니다.

단, SynthID는 사람이 “이게 AI 목소리다”라고 직접 느끼게 해주는 건 아닙니다. 탐지 도구로 확인할 수 있는 것이지, 대화 중에 AI임을 알아채는 건 아직 어렵습니다. 이건 기술적 개선이기도 하지만 동시에 사용자 입장에서 인지하기 어려운 영역이 커졌다는 의미이기도 합니다.

AI 모드도 항상 정확하지 않습니다

구글 공식 지원 문서에 직접 이런 문장이 있습니다. “초기 단계의 다른 AI 제품과 마찬가지로 AI 모드도 항상 정확하지는 않습니다.” 웹 콘텐츠를 잘못 해석하거나 맥락을 놓칠 수 있다는 내용도 포함되어 있습니다. (출처: Google 검색 고객센터, 2026.03 기준) 중요한 정보는 두 곳 이상에서 확인하라는 가이드가 공식 문서에 명시되어 있습니다.

▲ 목차로 돌아가기

자주 묻는 것들

Q. 구글 서치 라이브는 유료인가요?
기본 서치 라이브 기능은 무료입니다. AI 모드가 지원되는 국가에서 별도 구독 없이 사용할 수 있습니다. 단, AI 모드 안에서 Gemini 3 Pro 모델을 사용하려면 Google AI Plus, Pro, Ultra 요금제 구독이 필요합니다. 서치 라이브 자체는 기본(빠른 모드) 모델로 무료 사용이 됩니다. (출처: Google 검색 고객센터, 2026.03)
Q. 아이폰에서도 됩니까?
됩니다. 안드로이드와 iOS 모두 지원합니다. 구글 앱(Google App)을 App Store에서 최신 버전으로 설치하고, 앱을 직접 실행한 뒤 검색창 하단의 ‘Live’ 아이콘(파형 모양)을 탭하면 됩니다. 단, AI 모드가 계정에 활성화되어 있어야 버튼이 나타납니다.
Q. 서치 라이브와 제미나이 라이브를 같이 쓰는 게 낫나요?
용도에 따라 다릅니다. 눈앞의 사물 정보 검색이나 실시간 문제 해결(가구 조립, 식물 관리, 여행지 정보)은 서치 라이브가 낫습니다. 웹 링크도 함께 제공되기 때문입니다. 반면 아이디어 정리, 긴 대화형 브레인스토밍, 글쓰기 방향 잡기는 제미나이 라이브가 더 자연스럽습니다.
Q. 대화 내용이 저장되나요?
AI 모드 기록은 계정에 저장됩니다. 이전 대화에서 중단한 지점을 이어서 시작할 수 있는 기능이 있고, 기록은 직접 삭제할 수 있습니다. 구글 계정의 ‘내 활동’ 페이지에서 관리가 가능합니다. ‘웹 및 앱 활동’을 꺼두어도 AI 모드 접근 자체는 되지만, 이전 대화를 이어가는 기능은 사용할 수 없습니다. (출처: Google 검색 고객센터, 2026.03)
Q. 서치 라이브가 말하는 목소리를 AI인지 어떻게 확인하나요?
구글은 모든 서치 라이브 오디오 출력에 SynthID 워터마크를 적용합니다. 이 워터마크는 사람 귀에 들리지 않지만, SynthID 탐지 도구를 통해 기술적으로 확인할 수 있습니다. 일반 사용자가 대화 중에 직접 구분하는 건 어렵습니다. 구글이 AI 목소리 인식 문제에 대응하기 위해 기술적 방어막을 쌓은 것으로 볼 수 있습니다. (출처: Google AI 공식 블로그, 2026.03.26)

▲ 목차로 돌아가기

마치며

구글 서치 라이브는 쓸 만한 기능이 맞습니다. 카메라로 사물을 비추면서 AI와 대화하고 웹 링크까지 받는 경험은 기존 검색과 분명히 다릅니다. 제미나이 3.1 플래시 라이브가 붙으면서 응답이 빨라졌고, 대화 맥락 유지 길이도 2배가 됐습니다.

다만 막상 써보려는 분들이 가장 먼저 맞닥뜨리는 건 “버튼이 없다”는 문제입니다. AI 모드 활성화가 선행 조건이고, 그게 안 되면 서치 라이브도 없습니다. 그리고 Audio MultiChallenge 36.1%라는 수치가 보여주듯, 실시간 대화에 최적화된 모델이 복잡한 지시 수행에서는 아직 한계가 있습니다.

개인적으로 가장 쓸만하다고 느끼는 시나리오는 핸즈프리로 정보가 필요한 상황입니다. 요리 중이거나, 뭔가 조립하거나, 낯선 장소에서 주변을 탐색할 때요. 그 외 복잡한 분석이나 긴 글쓰기 작업은 아직 다른 도구가 더 낫습니다.

기능 자체는 진짜 새로운 방향을 보여줍니다. 단, 기대치를 정확하게 설정하고 쓰는 게 중요합니다.

▲ 목차로 돌아가기

📚 본 포스팅 참고 자료

  1. Google AI 공식 블로그 — Gemini 3.1 Flash Live 발표
    https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-flash-live/
  2. Google 검색 고객센터 — AI 모드 사용 가능 여부 및 기능 안내
    https://support.google.com/websearch/answer/16011537?hl=ko
  3. Ars Technica — Gemini 3.1 Flash Live 인간 목소리 유사성 분석
    https://arstechnica.com/ai/2026/03/the-debut-of-…
  4. 9to5Google — Gemini 3.1 Flash Live 기능 상세 보도 (2026.03.26)
    https://9to5google.com/2026/03/26/gemini-3-1-flash-live/
  5. ZDNet Korea — 구글 서치 라이브 한국 출시 보도 (2026.03.27)
    https://zdnet.co.kr/view/?no=20260327182806

본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 본문의 모든 수치와 기능 정보는 2026년 3월 27일 기준이며, 구글의 업데이트에 따라 달라질 수 있습니다. 중요한 정보는 반드시 공식 구글 지원 문서 및 공식 블로그에서 직접 확인하시기 바랍니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기