Android AppFunctions, 이 기기에서만 됩니다

Published on

in

Android AppFunctions, 이 기기에서만 됩니다

Android 16 기준
2026.03.19 기준
갤럭시 S26 / Pixel 10 기준

Android AppFunctions,
이 기기에서만 됩니다

“갤럭시 S26에 Gemini가 앱을 대신 실행해준다”는 말이 많이 나왔습니다. 그런데 막상 써보려고 하면 걸리는 조건들이 있습니다. Android AppFunctions가 실제로 무엇인지, 어떤 기기에서 어떤 언어로 써야 하는지 공식 문서 기준으로 정리했습니다.

Android 16
최소 요구 버전
영어 전용
화면 자동화 현재 지원
2개 국가
한국·미국 1차 출시

Gemini가 앱을 “대신 실행”한다는 게 무슨 뜻인가요?

갤럭시 S26 발표 이후 “Gemini가 알아서 음식을 주문해준다”는 이야기가 많이 나왔습니다. 개념은 맞는데, 구체적으로 어떻게 동작하는지 설명한 글은 별로 없었습니다. 결론부터 말씀드리면, 이 기능의 핵심은 Android AppFunctions라는 새로운 플랫폼 기능입니다. 기존에 AI가 앱을 쓰려면 화면을 직접 읽고 버튼을 눌러야 했습니다. 그 방식은 느리고, 앱 UI가 조금만 바뀌어도 깨졌습니다.

AppFunctions는 그 방식 대신, 앱이 스스로 “내가 할 수 있는 기능 목록”을 AI에게 공개하도록 설계된 구조입니다. 예를 들어 배달 앱이 orderFood()라는 함수를 AppFunctions로 등록해 두면, Gemini는 화면을 굳이 스크래핑하지 않고도 그 함수를 직접 호출합니다. 구글 Android Developers Blog(2026.02.25)는 이 구조를 “앱이 스스로를 설명하는(Self-describing) 도구로 공개하는 것”이라고 정의했습니다. (출처: Android Developers Blog, 2026.02.25)

이것이 기존 앱 자동화와 근본적으로 다른 이유는, AI가 임의로 앱을 조작하는 게 아니라 앱 개발자가 허용한 범위 안에서만 기능을 실행하기 때문입니다. 보안 구조 자체가 설계 단계부터 포함돼 있습니다.

▲ 목차로 돌아가기

AppFunctions가 작동하는 구조

💡 공식 발표문과 실제 동작 흐름을 같이 놓고 보니 이런 차이가 보였습니다

AppFunctions는 서버 없이 기기 안에서 동작하는 ‘MCP(Model Context Protocol)’와 같은 구조입니다. 클라우드 기반 MCP가 서버 측 도구를 AI와 연결한다면, AppFunctions는 스마트폰 앱 내부 기능을 AI와 연결합니다. (출처: Android Developers 공식 문서, 2026.03.14 기준)

공식 개발자 문서에서 정의한 AppFunctions의 동작 순서는 4단계입니다. (출처: developer.android.com/ai/appfunctions, 최종 업데이트 2026-03-14)

1단계

AppFunction 선언 — 앱이 빌드 시 “메모 작성”, “메시지 보내기” 같은 기능을 함수로 선언합니다. Kotlin 어노테이션 @AppFunction만 붙이면 됩니다.

2단계

스키마 자동 생성 — AppFunctions Jetpack 라이브러리가 앱에 선언된 모든 함수를 나열하는 XML 스키마 파일을 자동으로 만들어 Android OS에 색인합니다.

3단계

메타데이터 검색 — Gemini 등 에이전트 앱이 사용자 요청을 받으면 등록된 AppFunction 목록에서 적합한 함수를 찾습니다.

4단계

함수 선택·실행 — 적절한 파라미터로 함수를 호출합니다. 사용자는 앱을 직접 열지 않아도 됩니다.

이 구조가 실제로 어떻게 쓰이는지 공식 블로그에서 제시한 예시가 있습니다. 갤럭시 S26의 삼성 갤러리 앱이 AppFunctions를 구현한 최초 사례입니다. Gemini에게 “삼성 갤러리에서 내 고양이 사진 보여줘”라고 말하면, Gemini가 화면을 직접 스크롤하지 않고 갤러리 앱의 AppFunction을 호출해 결과를 Gemini 앱 안에 바로 보여줍니다. 이 결과물로 “이 사진을 친구에게 문자로 보내줘” 같은 후속 명령까지 이어서 처리할 수 있습니다. (출처: Android Developers Blog, 2026.02.25)

이 수치가 의미하는 바는, 앱 UI가 어떻게 바뀌어도 AI가 안정적으로 기능을 실행할 수 있다는 점입니다. 화면 스크래핑 방식은 UI 업데이트 한 번에 오작동하지만, AppFunctions는 함수 자체가 변하지 않는 한 흔들리지 않습니다.

▲ 목차로 돌아가기

한국에서 쓰려면 이 조건을 먼저 봐야 합니다

⚠️ 한국 출시 = 한국어 지원이 아닙니다

구글 공식 지원 문서에는 “현재 화면 자동화는 영어로만 제공“이라고 명시돼 있습니다. 한국이 1차 출시 국가에 포함된 것은 맞지만, 실제로 Gemini에게 명령을 내릴 때는 영어를 써야 합니다. (출처: support.google.com/pixelphone/answer/16940971, 2026.03 기준)

이 부분이 뉴스 기사에서 잘 빠진 내용입니다. 실제 조건을 정리하면 이렇습니다.

조건 항목 세부 내용
지원 기기 갤럭시 S26 시리즈, Pixel 10 / 10 Pro / 10 Pro XL (한국에서는 Pixel 10 기기 지원 안 됨)
지원 국가 한국, 미국 (베타 1차 출시)
지원 언어 영어 전용 (2026.03 기준)
계정 조건 만 18세 이상 개인 Google 계정 (직장·학교 계정 불가)
Android 버전 AppFunctions 자체는 Android 16 이상 필요
지원 앱 범위 음식 배달, 식료품, 차량 공유 카테고리 일부 앱만 초기 지원
사용 한도 일일 요청 수 한도 존재, 한도 초과 시 당월 잔여량 안내

한국에 먼저 출시된 이유는 뚜렷합니다. 갤럭시 S26의 글로벌 점유율과 한국의 AI 기능 수요를 고려한 결정입니다. 그러나 “한국 출시”와 “한국어 지원”은 현재 시점에서 다른 이야기입니다. 이 차이를 인지하고 쓰는 것과 모르고 쓰는 것은 경험의 질이 완전히 달라집니다.

▲ 목차로 돌아가기

UI 자동화는 AppFunctions와 다른 것입니다

💡 두 기능을 같은 것으로 묶어서 설명하는 글이 많은데, 공식 문서를 보면 완전히 다른 레이어입니다

구글 Android Developers Blog에서 명확히 구분합니다. AppFunctions는 앱 개발자가 기능을 직접 등록하는 “정식 연동”이고, UI 자동화는 AppFunctions가 없는 앱을 위한 “임시 폴백(fallback)”입니다. 지금 갤럭시 S26에서 작동하는 음식 주문·차량 호출 기능은 UI 자동화입니다. (출처: Android Developers Blog, 2026.02.25)

두 가지를 구체적으로 비교하면 이렇습니다.

구분 AppFunctions UI 자동화 (화면 자동화)
개발자 작업 필요 ✅ 필요 (어노테이션 추가) ❌ 불필요 (플랫폼이 처리)
안정성 높음 (함수 직접 호출) 상대적으로 낮음 (화면 읽기 방식)
속도 빠름 느릴 수 있음
현재 지원 범위 Calendar, Notes, Tasks + 삼성 갤러리 음식·식료품·차량 공유 일부 앱
보안 앱이 허용한 범위만 실행 가상 환경 내에서 제한적 실행

막상 써보면 이 단계에서 멈추는 경우가 있습니다. Gemini에게 “피자 주문해줘”라고 했는데 아무 반응이 없거나, 중간에 “직접 제어”를 요청하는 상황이 생기는 이유입니다. 공식 문서는 “Gemini는 실수를 할 수 있으며, 요청 사항을 잘못 따르거나 사용자의 허락 없이 구매 또는 주문을 진행할 수 있다”고 명시하고 있습니다. (출처: support.google.com/pixelphone/answer/16940971) 이 말은 베타라는 의미이기도 하지만, 아직 신뢰하고 완전히 맡겨도 되는 단계가 아니라는 뜻이기도 합니다.

실제로 발생할 수 있는 오류는 이렇습니다. 잘못된 수량을 장바구니에 담거나, 작업이 완료되지 않았는데 완료됐다고 확인하거나, 원하는 상품 대신 다른 상품을 선택하는 경우가 공식 문서에 명시된 오류 유형입니다. 비용이 발생하는 작업에서는 반드시 중간 확인이 필요합니다.

▲ 목차로 돌아가기

개발자라면 지금 알아야 할 것

💡 앱 사용자 수가 많아도, Gemini가 앱을 찾지 못하면 UI 자동화 폴백으로 밀려납니다

AppFunctions를 구현하지 않은 앱은 Gemini가 화면 스크래핑 방식으로 처리합니다. 이 경우 실패율이 높고 속도가 느립니다. 구글이 AppFunctions 없는 앱을 “폴백(fallback)” 대상으로 분류한다고 공식 블로그에서 명시했습니다. (출처: Android Developers Blog, 2026.02.25)

AppFunctions 구현은 생각보다 간단합니다. AppFunctions Jetpack 라이브러리를 의존성에 추가하고, 외부에 노출할 함수에 @AppFunction(isDescribedByKDoc=true) 어노테이션을 붙이면 됩니다. XML 스키마는 빌드 시 자동으로 생성됩니다. 공식 문서의 예시 코드에서 메모 앱을 기준으로 createNote(), editNote(), listNotes() 세 함수를 구현한 완성 예제를 제공합니다. (출처: developer.android.com/ai/appfunctions)

중요한 것은 호출자 권한입니다. AppFunction을 실행하려면 EXECUTE_APP_FUNCTIONS 권한이 있는 앱만 호출할 수 있습니다. 현재는 Gemini가 그 권한을 가진 대표 에이전트입니다. 이 권한 구조는 임의의 앱이 다른 앱 기능을 무단으로 실행하는 것을 막는 안전장치입니다.

구글은 Android 17에서 이 생태계를 더 많은 기기 제조사와 앱으로 확장할 계획이라고 밝혔습니다. 지금 AppFunctions를 구현해두면, 향후 Gemini 이외의 에이전트 앱과도 자동으로 연동될 가능성이 있습니다. 일종의 “AI 검색 가능성(AI Discoverability)”을 앱 레벨에서 확보하는 작업이라고 볼 수 있습니다.

▲ 목차로 돌아가기

AppFunctions가 실제로 바꿔놓는 것

솔직히 말하면, 지금 당장의 AppFunctions 생태계는 아직 초기입니다. 지원하는 앱이 제한적이고, 화면 자동화는 영어만 됩니다. 그런데 이 기술이 의미 있는 이유는 현재 상태가 아니라 구조에 있습니다.

기존 스마트폰 인터페이스는 “앱을 열고 → UI를 탐색하고 → 기능을 실행”하는 흐름이었습니다. AppFunctions는 그 흐름에서 가운데 두 단계를 없애려는 시도입니다. 앱이 “내가 할 수 있는 것”을 AI에게 직접 알려주고, AI가 사용자의 자연어 요청을 받아서 해당 함수를 바로 실행하는 구조입니다. 이것이 완성되면 앱 UI의 역할이 달라집니다. 화면을 통해 사람을 끌어들이는 것 외에, 함수를 통해 AI에게 발견되는 것이 중요해집니다.

실제로 사용해보면 지금도 체감이 되는 부분이 있습니다. 갤럭시 S26에서 전원 버튼을 길게 눌러 Gemini를 호출하면, 백그라운드에서 작업이 진행되는 동안 다른 앱을 계속 쓸 수 있습니다. 진행 상황 알림을 탭하면 Gemini가 어떤 화면을 조작하고 있는지 실시간으로 보입니다. 이 경험은 기존의 “AI에게 정보를 물어보는” 방식과는 다릅니다. AI가 앱 안으로 들어가서 일을 처리하는 방식입니다.

이 부분이 좀 아쉬웠습니다. 한국에 먼저 출시됐다고 해서 바로 쓸 수 있을 것 같지만, 영어 명령이 필요하고 지원 앱도 제한적이어서 일상에서 자연스럽게 쓰기까지 시간이 더 필요합니다. 기대했던 것과 달랐습니다. 그러나 구조 자체는 맞는 방향이고, Android 17에서 확장된다는 로드맵을 고려하면 지금 이해해두면 늦지 않습니다.

▲ 목차로 돌아가기

자주 묻는 것들

Q. 갤럭시 S26이 없으면 AppFunctions를 쓸 수 없나요?
AppFunctions 플랫폼 자체는 Android 16 이상이면 동작하도록 설계됐습니다. 그러나 Gemini의 화면 자동화(UI 자동화) 베타 기능은 현재 갤럭시 S26 시리즈와 Pixel 10 시리즈에서만 지원됩니다. AppFunctions를 직접 호출하는 에이전트 앱을 개발하거나, 향후 지원 기기가 확대될 때까지 기다려야 합니다. (출처: Android Developers Blog, 2026.02.25)
Q. 한국어로 Gemini에게 명령해도 작동하나요?
구글 공식 지원 문서(2026.03 기준)에 “현재 화면 자동화는 영어로만 제공”이라고 명시돼 있습니다. 한국이 1차 출시 국가에 포함됐지만, 명령 언어는 현재 영어여야 합니다. 향후 한국어 지원 시점은 구글이 공식 발표하지 않은 상태입니다. (확인 필요)
Q. Gemini가 결제까지 자동으로 해버릴 수 있나요?
결제·구매 완료 단계에서는 Gemini가 반드시 사용자에게 확인을 요청하도록 설계돼 있습니다. 그러나 공식 문서는 “사용자의 허락 없이 구매 또는 주문이 진행될 수 있다”는 오류 가능성도 함께 명시하고 있습니다. 비용이 발생하는 작업에서는 반드시 진행 상황을 직접 확인하는 것이 권장됩니다. (출처: support.google.com/pixelphone/answer/16940971)
Q. AppFunctions를 구현한 앱은 지금 얼마나 있나요?
공식적으로 발표된 것은 삼성 갤러리(갤럭시 S26 기준)이며, Google Calendar, Google Notes, Google Tasks에서도 AppFunctions 연동이 지원됩니다. 구글은 현재 소수의 앱 개발자와 협력 중이며, 더 많은 개발자를 대상으로 한 참여 확대 계획을 올해 하반기에 발표할 예정이라고 밝혔습니다. (출처: Android Developers Blog, 2026.02.25)
Q. iOS의 Siri Shortcuts와 어떻게 다른가요?
Siri Shortcuts는 사용자가 직접 자동화 흐름을 구성하는 방식이라 AI가 자율적으로 판단하지 않습니다. AppFunctions는 AI 에이전트가 사용자의 자연어 요청을 분석해 가장 적합한 앱 기능을 자율적으로 선택하고 실행하는 구조입니다. 즉 Shortcuts는 “사람이 시나리오를 만들고 AI가 실행”하는 방식이고, AppFunctions는 “사람이 결과만 말하고 AI가 시나리오와 실행을 모두 담당”하는 방식입니다.

▲ 목차로 돌아가기

마치며

Android AppFunctions를 한마디로 정리하면, “앱이 AI에게 자신을 소개하는 표준 방식”입니다. 지금 당장은 갤럭시 S26과 Pixel 10에서만 쓸 수 있고, 영어 명령만 지원하고, 지원 앱도 제한적입니다. 그 조건을 모르고 기대하면 실망이 크고, 알고 쓰면 현재로서도 충분히 흥미로운 경험입니다.

이게 핵심입니다. AppFunctions는 기능이 아니라 생태계의 기초 공사입니다. Android 17에서 더 많은 기기와 앱으로 확장될 예정이고, 개발자라면 지금 구조를 이해해두는 것이 나중에 훨씬 빠르게 대응할 수 있습니다. 사용자라면, 한국어 지원 여부를 주시하면서 현재는 지원 앱과 조건을 확인하고 쓰는 것이 현실적입니다.

생각보다 간단합니다. 조건을 알고 나면, 이 기능이 왜 지금 이 시점에 나왔는지가 자연스럽게 이해됩니다.

▲ 목차로 돌아가기

본 포스팅 참고 자료

  1. Android Developers 공식 문서 — AppFunctions 개요 (최종 업데이트 2026-03-14)
  2. Android Developers Blog — The Intelligent OS: Making AI agents more helpful (2026.02.25)
  3. Google 지원 문서 — Android Gemini 화면 자동화 공식 안내 (2026.03 기준)
  4. Gemini 앱 공식 릴리즈 노트 (2026.02.19 기준)
  5. ZDNet Korea — 구글 제미나이, 안드로이드 AI 자동화 베타 한국·갤럭시S26 1차 적용 (2026.02.26)


※ 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. Android AppFunctions 및 Gemini 화면 자동화는 베타 기능으로, 지원 기기·언어·앱 범위가 업데이트에 따라 달라질 수 있습니다. 본문의 수치 및 기능 설명은 2026.03.19 기준 공식 문서를 토대로 작성됐습니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기