Gemini 3.1 Flash Live 기준
오늘 전 세계 출시
구글 서치 라이브, 전 세계 풀렸어도
이 조건 있습니다
오늘(2026년 3월 27일) 구글이 서치 라이브(Search Live)를 200개국 이상에 전면 오픈했습니다. Gemini 3.1 Flash Live라는 새 오디오 모델을 얹어서요. 근데 막상 공식 문서를 뜯어보면, “최고 품질”이라는 홍보 문구랑 실제 벤치마크 점수 사이에 꽤 큰 간극이 있습니다. 써보기 전에 알아두면 좋을 것들을 정리했습니다.
서치 라이브가 뭔지부터 — 구글 앱 안에 숨어 있습니다
구글 서치 라이브(Search Live)는 구글 앱의 검색창 바로 아래에 있는 라이브 아이콘을 탭하면 시작됩니다. 별도 앱을 설치하거나 유료 플랜에 가입할 필요가 없습니다. Android와 iOS 구글 앱 모두에서 동일하게 작동하고, AI 모드(AI Mode)가 활성화된 지역이라면 바로 쓸 수 있습니다. (출처: Google 공식 블로그, 2026.03.26)
핵심은 음성과 카메라를 동시에 쓸 수 있다는 점입니다. 예를 들어 선반을 조립하는 도중 카메라를 켜고 “이 나사가 어느 구멍에 맞는 거야?”라고 말하면, 구글이 카메라 화면을 보면서 음성으로 답해줍니다. 기존 텍스트 검색이나 음성 검색과는 입력 방식 자체가 다릅니다. Google Lens를 쓰다가 화면 하단의 ‘Live’ 버튼을 눌러도 곧바로 연결됩니다.
오늘 오픈과 함께 모델도 바뀌었습니다. 기존 서치 라이브에서 쓰이던 모델에서 Gemini 3.1 Flash Live로 교체됐습니다. 90개 이상의 언어를 지원하는 다국어 오디오 모델인 만큼 이번 전 세계 확장을 기술적으로 뒷받침하는 역할을 하고 있습니다.
Gemini 3.1 Flash Live, “최고 품질”인데 점수가 36%인 이유
💡 공식 발표문에 나온 벤치마크 수치 두 개를 같이 놓고 보니, 홍보와 성능 사이에 이런 차이가 보였습니다.
구글은 이번 발표에서 Gemini 3.1 Flash Live를 “역대 최고 품질의 오디오 및 음성 모델”이라고 했습니다. 그런데 공식 벤치마크 수치 두 개를 나란히 놓으면 그림이 좀 달라집니다.
| 벤치마크 | 점수 | 측정 항목 |
|---|---|---|
| ComplexFuncBench Audio | 90.8% | 여행 예약 등 다단계 함수 호출 |
| Audio MultiChallenge (thinking 모드 ON) |
36.1% | 실제 대화 중 끊김·주저함·복잡한 지시 따르기 |
ComplexFuncBench Audio 90.8%는 구조화된 작업에서 나온 점수입니다. “항공권 예약 후 호텔도 추가해줘” 같은 단계별 지시를 얼마나 잘 처리하는지를 봅니다. 반면 Audio MultiChallenge는 실제 대화에서 흔히 나오는 말 끊김, 주저하는 표현, 예상 밖의 흐름을 얼마나 소화하는지를 측정합니다. (출처: Google 공식 블로그, 2026.03.26 / Scale AI Audio MultiChallenge 벤치마크)
핵심은 이겁니다 — 대화형으로 설계되지 않은 일반 오디오 모델들이 Audio MultiChallenge에서 50%를 넘기는 경우가 있습니다. (출처: Ars Technica, 2026.03.26) 구조화된 업무용 질의에서는 강하지만, 사람이 실제로 말하는 방식처럼 어물어물 물어보거나 중간에 말을 바꾸는 상황에서는 아직 여지가 있다는 뜻입니다. 일상적인 잡담보다는 명확하게 질문할 때 훨씬 잘 작동합니다.
200개국 오픈이지만 접근 조건이 따로 있습니다
구글 공식 블로그에는 “AI Mode가 지원되는 200개국 이상에서 서치 라이브를 이용할 수 있다”고 나와 있습니다. (출처: Google Search Live 공식 블로그, 2026.03.26) 여기서 짚고 넘어가야 할 게 있습니다 — 서치 라이브 자체의 조건이 아니라, AI Mode 활성화 여부가 선행 조건이라는 점입니다.
💡 구글 AI Mode 지원 국가 목록은 구글 지원 페이지(support.google.com/websearch/answer/16011537)에서 직접 확인할 수 있습니다. 목록은 수시로 업데이트됩니다.
현재 AI Mode는 미국, 영국, 일본, 인도, 호주 등에서는 안정적으로 지원되고 있습니다. 한국의 경우, 구글이 AI Mode 지원 지역을 넓히고 있는 과정에서 순차 확대 중이며 2026년 3월 기준 공식 지원 국가 목록에 한국이 포함되어 있는지는 구글 지원 페이지에서 최신 정보를 확인하는 것이 가장 정확합니다. 이 부분에 대해 구글이 공식 일정을 별도로 발표하지 않았습니다.
정리하면, 구글 앱을 설치한다고 바로 서치 라이브가 보이는 게 아닙니다. 검색창 하단에 라이브 아이콘이 표시되는지 직접 확인해보는 게 제일 빠릅니다. AI Mode 자체도 오늘 기준으로 계속 확산 중이라, 어제는 안 보이던 아이콘이 오늘 생길 수도 있습니다.
이전 버전에서 되던 기능이 오히려 빠졌습니다
💡 공식 마이그레이션 문서와 실제 사용 환경을 같이 놓고 보니, 신규 모델로 올라가면서 빠진 것들이 눈에 들어왔습니다.
Gemini 3.1 Flash Live가 이전 모델(Gemini 2.5 Flash Native Audio)보다 전반적으로 개선됐다는 건 맞습니다. 그런데 구글 공식 마이그레이션 가이드에는 이런 내용이 들어 있습니다. (출처: Google AI for Developers 공식 문서, 2026.03.)
| 기능 | 이전 버전 | 3.1 Flash Live |
|---|---|---|
| 비동기 함수 호출 (Async function calling) |
지원 | 미지원 (동기만 가능) |
| 능동적 오디오 (Proactive audio) |
지원 | 미지원 |
| 감정 반응 대화 (Affective dialogue) |
지원 | 미지원 |
| URL 컨텍스트 | – | 미지원 |
일반 소비자 입장에선 서치 라이브나 Gemini Live만 쓰니까 위 항목들이 직접 눈에 보이지는 않습니다. 하지만 기존에 Gemini Live API로 음성 에이전트를 만들던 개발자라면, 2.5 Flash Native Audio에서 3.1 Flash Live로 올릴 때 비동기 함수 호출 로직을 전부 동기 방식으로 다시 짜야 합니다. 구글이 이유를 별도로 공개하지 않은 부분입니다.
또 하나 주목할 부분은 thinking 설정 방식의 변경입니다. 이전 버전의 `thinkingBudget` 파라미터가 `thinkingLevel`(minimal / low / medium / high)로 바뀌었습니다. 기본값이 `minimal`로 잡혀 있는데, 이는 지연 시간을 최소화하기 위한 설정입니다. 즉 기본 상태에서는 최대 성능이 아니라 빠른 응답 우선으로 동작합니다.
SynthID 워터마크 — 귀로는 절대 못 듣습니다
Gemini 3.1 Flash Live가 생성하는 모든 오디오에는 SynthID 워터마크가 삽입됩니다. 구글 딥마인드 공식 모델 카드에 “All audio generated by 3.1 Flash Live is watermarked with SynthID”라고 명시돼 있습니다. (출처: Google DeepMind 모델 카드, 2026.03.26)
여기서 짚어야 할 게 있습니다 — SynthID는 사람 귀로는 들리지 않습니다. 오디오 파형 자체에 신호가 녹아 있어서 전용 감지 도구가 있어야만 AI 생성 여부를 판별할 수 있습니다. Ars Technica는 이 점을 지적하며, 기술이 너무 자연스럽게 발전한 나머지 AI와 대화하고 있다는 사실 자체를 모를 수 있다고 봤습니다. (출처: Ars Technica, 2026.03.26) SynthID가 거짓 정보를 막아줄 수는 있지만, 대화 중에는 작동하지 않는다는 뜻입니다.
Verizon, Home Depot 같은 기업들이 이미 콜센터에 Gemini 3.1 Flash Live를 도입했다는 점을 감안하면, 앞으로 고객 응대 전화에서 AI와 사람을 구분하기가 점점 더 어려워집니다. 이게 좋은 일인지 나쁜 일인지는 쓰는 맥락에 따라 다르겠지만, 사용자로서는 알고 있어야 할 변화입니다.
실제로 어디에 쓰면 좋은가 — 비교해봤습니다
서치 라이브가 생긴 이후 가장 많이 나오는 비교 대상은 Perplexity의 음성 검색입니다. 직접 써본 사람들 사이에서 나오는 공통 평가는 대략 이렇게 정리됩니다 — 구글 AI 모드는 일상적인 즉각 답변과 로컬 검색에서 강하고, Perplexity는 깊은 리서치와 인용 출처 확인에서 더 정밀합니다. (출처: ClickUp 비교 분석 2025.09 / PCMag AI 검색 엔진 테스트 2026.03)
서치 라이브가 가장 빛나는 순간은 “지금 눈앞에 있는 것”에 대해 물어볼 때입니다. 카메라를 켜고 식물을 보여주면서 “이게 뭔지, 물 얼마나 줘야 해?”라고 묻거나, 요리하다가 재료 이름을 말하며 “이걸로 뭘 만들 수 있어?”라고 이어가는 식입니다. 텍스트를 입력할 수 없는 상황에서 진가가 나옵니다.
반면 논문, 법률 자료, 복잡한 기술 문서를 정밀하게 찾아야 할 때는 여전히 텍스트 기반 검색이나 전문 리서치 도구가 더 적합합니다. Gemini 3.1 Flash Live의 지식 컷오프가 2025년 1월로 설정돼 있다는 점도 기억해두면 좋습니다. (출처: Google AI for Developers 공식 문서, 2026.03.) 최신 뉴스나 데이터를 요구하는 질문에서 검색 기반 응답과 모델 기반 응답이 섞이는 만큼, 출처를 직접 확인하는 습관이 여전히 필요합니다.
자주 나오는 질문 5가지
마치며
구글 서치 라이브의 전 세계 확산은 분명 의미 있는 변화입니다. 검색창에 타이핑하는 대신 말하고 보여주면서 대화하는 방식이, 특정 상황에서는 기존 검색보다 훨씬 편합니다. Gemini 3.1 Flash Live가 실시간 음성 처리에서 이전 세대보다 나아진 것도 사실입니다.
다만 “200개국 오픈”이라는 문장을 그대로 받아들이기 전에, AI Mode 선행 조건과 벤치마크 점수 간의 간극, 그리고 이전 버전에서 빠진 기능들을 한 번쯤 따져보는 게 좋습니다. 기술 발표 글에서 강조하는 수치와 실제 사용 환경 사이에는 늘 거리가 있고, 이번 경우도 예외는 아닙니다. 직접 앱을 열어 라이브 아이콘이 뜨는지 확인해보는 것부터 시작하면 됩니다.
📎 본 포스팅 참고 자료
본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 구글 서치 라이브 및 Gemini 3.1 Flash Live는 현재 프리뷰 단계의 기능을 포함하고 있으며, AI Mode 지원 국가 목록은 수시로 업데이트됩니다. 정확한 최신 정보는 구글 공식 지원 페이지에서 확인하세요.











댓글 남기기