비주얼 인텔리전스: “한국어 된다” 믿으면
장소 식별 기능만 빠지는 이유
iOS 26이 출시된 뒤 “드디어 한국어로 비주얼 인텔리전스를 쓸 수 있다”는 소식이 퍼졌습니다. 그런데 아이폰 카메라를 들고 카페 간판이나 거리 풍경을 찍어봤다면, 기대했던 장소 식별 결과가 나오지 않아 당황했을 수도 있습니다. 이 글은 그 이유를 애플 공식 문서로 직접 짚어드립니다.
온디바이스 처리 · 비용 없음
장소 식별: 한국어 미지원(공식)
비주얼 인텔리전스란 무엇인가
비주얼 인텔리전스(Visual Intelligence)는 아이폰 카메라를 눈처럼 활용해 화면에 보이는 사물, 텍스트, 장소 등을 실시간으로 인식하는 애플의 AI 기능입니다. iOS 26(2025년 9월 16일 정식 출시, 현재 최신 버전 iOS 26.3.1 기준) 기준으로 한국어 환경에서 공식 지원이 확장되었으며, 아이폰을 가진 누구나 바로 사용할 수 있습니다.
핵심 기능은 크게 다섯 가지로 나뉩니다. 먼저 화면에 표시된 텍스트를 요약하거나 번역하는 텍스트 상호 작용, 카메라로 찍은 식물·동물 등을 알아내는 사물 식별, 행사 포스터를 자동으로 캘린더에 등록하는 이벤트 감지, Google 검색이나 ChatGPT와 바로 연결하는 검색 연동, 그리고 논란이 되는 장소 식별입니다. 이 중에서 비주얼 인텔리전스라는 단어를 들었을 때 가장 먼저 떠오르는 기능이 바로 장소 식별인데, 한국어 환경에서는 이 기능만 별도의 제한이 걸려 있습니다.
💡 이 글에서만 확인할 수 있는 것: 애플 공식 기능 가용성 문서(apple.com/kr/ios/feature-availability)와 Apple Intelligence 지원 문서(support.apple.com/ko-kr/121115)를 교차 분석해, 한국어 환경에서 실제로 작동하는 기능과 그렇지 않은 기능을 항목별로 구분했습니다. 대부분의 블로그가 “한국어 지원 됐다”는 사실만 전달하지만, 세부 제한 조건을 공식 수치로 설명한 글은 찾기 어렵습니다.
한국어로 되는 것 vs 안 되는 것 — 공식 문서 기준 전체 목록
iOS 26.1부터 한국어로 Apple Intelligence를 쓸 수 있게 되면서, 비주얼 인텔리전스 기능도 한국어 환경에서 대부분 활성화되었습니다. 그러나 애플이 공식 지원 문서(support.apple.com/ko-kr/121115, 2025.12.19 기준)에서 명시한 내용을 보면, 비주얼 인텔리전스의 세부 기능 중 하나에 명확한 예외가 존재합니다.
| 기능 | 한국어 지원 | 비고 |
|---|---|---|
| 텍스트 요약·상호 작용 | ✅ 지원 | iOS 26 이상 |
| 식물·동물 식별 | ✅ 지원 | iOS 26 이상 |
| 포스터 → 캘린더 이벤트 | ✅ 지원 | iOS 26 이상 |
| ChatGPT에게 물어보기 | ✅ 지원 | ChatGPT 서비스 가능 지역 |
| Google 및 앱에서 검색 | ✅ 지원 | iOS 26 이상 |
| 📍 카메라로 장소 식별 | ❌ 미지원 | 한국어는 지원 언어 목록 제외 (출처: Apple 공식 문서 각주 8) |
이 표의 마지막 행이 핵심입니다. 공식 문서 각주 8번에는 “iPhone 카메라를 사용하여 장소를 식별하는 비주얼 인텔리전스 기능은 중국어, 네덜란드어, 덴마크어, 영어, 프랑스어, 독일어, 이탈리아어, 일본어, 노르웨이어, 포르투갈어, 스페인어, 스웨덴어, 튀르키예어 및 베트남어로 제공됩니다”라고 명시되어 있습니다. 한국어는 이 목록에 포함되어 있지 않습니다. 즉, 아이폰을 한국어로 설정하고 카메라를 켜 길거리나 건물을 찍어도 장소 식별 기능은 동작하지 않습니다. 다른 기능은 모두 한국어로 쓸 수 있지만, 이 한 가지만은 예외인 셈입니다.
장소 식별이 한국어에서 빠진 진짜 이유
장소 식별 기능은 단순히 앱 언어를 번역하는 작업과는 차원이 다릅니다. 이 기능은 카메라가 포착한 건물·간판·거리 풍경을 AI가 분석해 “어느 나라의 어느 지역에 있는 무엇”인지를 특정해야 합니다. 이를 위해서는 각 언어권에 맞는 지리 정보 데이터베이스와 해당 언어로 훈련된 장소 인식 모델이 필요합니다. 애플은 현재 장소 식별을 14개 언어로 제공 중이지만, 한국어는 아직 해당 지역 특화 모델이 완성 단계에 이르지 않은 것으로 보입니다.
비슷한 사례로, Google Lens의 장소 식별 기능이 2017년부터 영어 중심으로 시작해 한국어를 포함한 다국어 지원을 수년에 걸쳐 점진적으로 확장했다는 점을 떠올릴 수 있습니다. 애플의 비주얼 인텔리전스는 이보다 훨씬 늦게 출시된 만큼, 한국어 장소 식별 지원이 향후 iOS 업데이트에서 추가될 가능성은 충분히 열려 있습니다. 현재 상황은 “아직 안 된다”이지 “영구적으로 안 된다”가 아닙니다.
📌 직접 확인할 수 있는 수치: 애플 공식 문서(support.apple.com/ko-kr/121115) 각주 8번 원문에는 장소 식별이 지원되는 14개 언어가 나열되어 있습니다. 이 목록을 다른 Apple Intelligence 기능의 지원 언어(한국어, 영어, 중국어 등 16개)와 비교하면, 장소 식별만 유독 지원 언어 수가 적다는 것을 즉각 확인할 수 있습니다. 이것이 의미하는 바는 하나입니다. 장소 식별은 단순한 언어 번역 이상의 데이터 구축이 필요한 기능이며, 한국어 지원은 현재 준비 중 단계로 봐야 한다는 것입니다.
iPhone 15 Pro도 쓸 수 있다 — 단, 버튼이 다르다
비주얼 인텔리전스가 처음 소개됐을 때 많은 사람들이 “iPhone 16부터만 된다”고 알고 있었습니다. 이는 기능 자체가 iPhone 16의 카메라 컨트롤(Camera Control) 버튼과 함께 공개되었기 때문입니다. 그런데 현재 Apple 공식 지원 문서(Use visual intelligence on iPhone, support.apple.com)에 따르면, iPhone 17e, iPhone 16e, iPhone 15 Pro, iPhone 15 Pro Max에서도 비주얼 인텔리전스를 사용할 수 있습니다. 단, 활성화 방법이 다릅니다.
iPhone 16 이상 기기에는 카메라 컨트롤 버튼이 있어 이 버튼을 길게 눌러 바로 비주얼 인텔리전스를 호출합니다. 반면 iPhone 15 Pro 및 15 Pro Max는 카메라 컨트롤 버튼이 없으므로, 설정에서 액션 버튼 또는 잠금 화면에 비주얼 인텔리전스를 할당하는 방식으로 사용합니다. 기능의 작동 방식은 두 기기에서 동일합니다. (출처: macobserver.com, 2025.04.07 / Apple Support 공식 문서)
🔧 설정 방법 (iPhone 15 Pro 기준):
설정 → 액션 버튼 → 비주얼 인텔리전스 선택
이후 액션 버튼을 길게 누르면 카메라가 열리며 비주얼 인텔리전스가 활성화됩니다.
이것이 의미하는 것: iPhone 15 Pro 사용자라면 지금 당장 설정 한 번으로 기능을 쓸 수 있다는 뜻입니다. 기기를 교체하지 않아도 됩니다.
지원 기기 요약 (2026.03 기준)
| 기기 | 지원 여부 | 활성화 방법 |
|---|---|---|
| iPhone 16 / 16 Plus / 16 Pro / 16 Pro Max | ✅ | 카메라 컨트롤 버튼 길게 누르기 |
| iPhone 17 / 17 Air / 17 Pro 시리즈 | ✅ | 카메라 컨트롤 버튼 길게 누르기 |
| iPhone 16e / 17e | ✅ | 액션 버튼 또는 잠금 화면 할당 |
| iPhone 15 Pro / 15 Pro Max | ✅ | 액션 버튼 또는 잠금 화면 할당 |
| iPhone 15 / 15 Plus 이하 | ❌ | Apple Intelligence 미지원 기기 |
온디바이스 처리의 숨겨진 의미 — 클라우드 AI와 다른 점
“비주얼 인텔리전스는 온디바이스로 처리된다.” 이 문장을 보고 “빠르겠구나” 정도로 넘기기 쉽습니다. 하지만 이 구조가 의미하는 바는 훨씬 큽니다.
ChatGPT, 구글 렌즈, 삼성 갤럭시 AI처럼 클라우드 기반으로 동작하는 AI 기능들은 연산 결과를 외부 서버에서 받아옵니다. 이는 세 가지 구조적 약점으로 이어집니다. 첫째, 내 사진과 화면 정보가 외부 서버로 전송됩니다. 둘째, 무료로 제공되더라도 서버 운영 비용이 쌓이면서 결국 사용 횟수 제한이나 유료화로 이어질 가능성이 있습니다. 셋째, 인터넷 연결이 끊기면 기능이 멈춥니다. 반면 Apple Intelligence의 핵심 기능은 기기 내 칩(A17 Pro 이상)에서 직접 처리됩니다.
실사용 후기(opensea.kr, 2025.11.08)에서 확인된 바에 따르면, 비행기 모드 상태에서도 이미지 플레이그라운드와 글쓰기 도구 같은 주요 Apple Intelligence 기능이 정상 작동했습니다. ChatGPT와의 연동 기능만 인터넷이 필요했습니다. 이것이 사용자에게 의미하는 바는 분명합니다. 비주얼 인텔리전스를 포함한 Apple Intelligence의 온디바이스 기능은 횟수 제한 없이, 비용 없이, 데이터 유출 걱정 없이 쓸 수 있다는 것입니다.
🔍 공식 문서 기준 저장 공간 요구사항: Apple Intelligence를 사용하려면 기기에 최소 7GB의 여유 저장 공간이 필요합니다. (출처: support.apple.com/ko-kr/121115) 이는 온디바이스 AI 모델 파일을 기기 내에 직접 저장하기 때문입니다. 클라우드 AI는 서버가 모델을 갖고 있지만, Apple Intelligence는 모델을 기기 안에 보관합니다. 7GB라는 수치 자체가 “이 기능이 완전히 내 기기 안에서 돌아간다”는 증거입니다.
비주얼 인텔리전스 200% 활용 전략
장소 식별이 한국어에서 빠져 있다는 사실을 알고 나면 오히려 어떻게 활용해야 할지 명확해집니다. 장소 식별이 필요한 상황에서는 Google Lens 앱(무료, iOS 지원)을 병행하면 됩니다. 구글 렌즈는 한국어 환경에서도 장소 식별이 작동하며, 비주얼 인텔리전스와 달리 클라우드 기반이라 결과가 더 풍부합니다.
상황별 추천 사용법
카페 메뉴판·행사 포스터
비주얼 인텔리전스 사용. 텍스트를 읽어 요약·번역하거나 일정 등록이 가능합니다. 한국어로 완벽하게 작동합니다.
식물·동물·QR 코드 식별
비주얼 인텔리전스 사용. 한국어 환경에서도 사물 식별은 문제없이 작동합니다.
건물·거리·랜드마크 식별
Google Lens 앱 사용 권장. 비주얼 인텔리전스 장소 식별은 한국어 미지원. Google Lens는 한국어 환경에서도 장소를 잘 인식합니다.
화면 속 복잡한 질문 처리
비주얼 인텔리전스에서 ChatGPT에게 바로 물어보기 기능 사용. 화면 캡처 없이 바로 질문이 전달됩니다.
덧붙이자면, 비주얼 인텔리전스를 단축어(Shortcuts)와 연결하면 훨씬 유용해집니다. iOS 26 기준으로 단축어의 ‘모델 사용’ 동작을 통해 Apple Intelligence 모델을 직접 호출할 수 있습니다. 예를 들어, 스크린샷을 찍은 뒤 비주얼 인텔리전스 분석 결과를 메모 앱으로 자동 저장하는 단축어를 만들면 반복 작업을 줄일 수 있습니다.
Q&A
Q1. 비주얼 인텔리전스를 켜려면 iOS 26이 꼭 있어야 하나요?
비주얼 인텔리전스 자체는 iOS 26(2025년 9월 출시)부터 한국어를 포함한 전체 형태로 활성화되었습니다. 다만 기기 조건도 중요합니다. Apple Intelligence를 지원하는 기기(iPhone 15 Pro 이상)여야 하며, iOS 26.1 이상에서 한국어 지원 범위가 본격적으로 확장되었습니다. 현재 최신 버전인 iOS 26.3.1로 업데이트하는 것을 권장합니다.
Q2. 장소 식별을 한국어로 쓰고 싶다면 기기 언어를 영어로 바꾸면 되나요?
기기 언어와 Siri 언어를 영어로 설정하면 장소 식별을 포함한 더 넓은 범위의 비주얼 인텔리전스를 사용할 수 있습니다. 단, Apple Intelligence 공식 문서에 따르면 “기기 언어 및 Siri 언어가 지원되는 언어와 동일한 언어로 설정되어야” 하므로, 두 설정을 함께 영어로 변경해야 합니다. 인터페이스가 영어로 바뀌는 불편함을 감수해야 한다는 점을 고려해야 합니다.
Q3. 비주얼 인텔리전스 사용에 별도 요금이 발생하나요?
비주얼 인텔리전스의 온디바이스 처리 기능(텍스트 요약, 사물 식별, 포스터 인식 등)은 추가 요금 없이 무제한으로 사용할 수 있습니다. 단, ChatGPT와 연동하는 기능을 사용할 경우 ChatGPT 서비스 약관이 적용됩니다. 무료 ChatGPT 계정으로도 기본적인 연동은 가능합니다.
Q4. 아이패드에서도 비주얼 인텔리전스를 사용할 수 있나요?
비주얼 인텔리전스의 카메라 기반 기능은 공식 지원 문서상 iPhone 전용으로 명시되어 있습니다. 아이패드(M1 이상)에서는 글쓰기 도구, Image Playground, 젠모지 등의 Apple Intelligence 기능은 사용 가능하지만, 비주얼 인텔리전스의 카메라 실시간 인식 기능은 현재 아이패드에서 지원되지 않습니다.
Q5. 한국어 장소 식별 지원은 언제쯤 추가될까요?
애플은 공식적으로 일정을 발표하지 않았습니다. 다만, iOS 26.1(2025년 11월)에서 이미지 생성과 실시간 번역이 한국어에 추가되었고, 향후 업데이트에서 단계적 확장이 이루어지는 패턴이 있습니다. 합리적인 예상으로는 iOS 27이나 iOS 26.x 마이너 업데이트 중 하나에서 한국어 장소 식별이 추가될 가능성이 있습니다. 애플 공식 페이지(apple.com/kr/ios/feature-availability)를 주기적으로 확인하는 것이 가장 정확합니다.
마치며
비주얼 인텔리전스는 한국어 환경에서 쓸 수 있는 기능이 많습니다. 텍스트 요약, 사물 식별, 이벤트 캘린더 등록, ChatGPT 연동까지 대부분의 기능이 한국어로 정상 작동합니다. 하지만 카메라로 장소를 식별하는 기능 하나만은 현재 한국어가 제외된 상태입니다. 이 사실을 모르면 기능이 왜 안 되는지 한참을 헤매게 됩니다.
개인적으로는 이 온디바이스 처리 구조가 비주얼 인텔리전스의 가장 큰 강점이라고 생각합니다. 언젠가 다른 AI 서비스들이 유료화되거나 사용 제한을 걸어올 때, Apple Intelligence의 온디바이스 기능만큼은 구독료 없이 안전하게 쓸 수 있다는 점은 장기적으로 상당한 가치를 가집니다. 장소 식별 한국어 지원이 추가되는 날이 온다면, 비주얼 인텔리전스는 지금보다 훨씬 완성도 높은 도구가 될 것입니다.
본 포스팅 참고 자료
※ 본 포스팅은 iOS 26.3.1(2026.03.17 기준) 및 Apple 공식 지원 문서를 바탕으로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 최신 정보는 Apple 공식 사이트(apple.com/kr)에서 확인하시기 바랍니다.


댓글 남기기