Android AppFunctions
제미나이가 앱 대신 일한다,
지금 모르면 뒤처진다
앱을 직접 열 필요 없이 AI 에이전트가 알아서 실행하는 시대가 왔습니다.
Android 16부터 탑재된 AppFunctions의 모든 것을 지금 바로 확인하세요.
📦 Jetpack 1.0.0-alpha08
🤖 Gemini × Galaxy S26 실제 적용
📱 Android 16 이상 지원
Android AppFunctions란 무엇인가?
Android AppFunctions는 스마트폰에 설치된 앱이 자신의 핵심 기능을 AI 에이전트나 어시스턴트에게 직접 노출할 수 있도록 해주는 Android 16 플랫폼 기능입니다. 구글이 2026년 2월 25일 공식 블로그를 통해 상세 내용을 공개했으며, 같은 날 Jetpack 라이브러리 최신 버전(1.0.0-alpha08, 2026년 3월 11일 출시)도 함께 업데이트되었습니다.
쉽게 말하면 이렇습니다. 기존에는 “오늘 오후 5시에 택배 찾으러 가라고 알림 맞춰줘”라는 요청을 받았을 때 AI가 할 수 있는 일이 거의 없었습니다. 직접 앱을 열어 버튼을 누르고 시간을 입력하는 과정을 사용자가 다 해야 했죠. 하지만 AppFunctions가 적용된 환경에서는 제미나이가 해당 할 일 앱의 ‘작업 생성’ 기능을 직접 호출해 제목·시간·위치를 자동으로 채웁니다. 사용자는 말 한 마디로 끝입니다.
이 기능은 Android 개발자라면 이미 알 법한 AppSearch와 KSP(Kotlin Symbol Processing) 컴파일러 플러그인을 기반으로 동작하며, 개발자는 함수에 @AppFunction 어노테이션만 붙이면 AI 에이전트가 그 기능을 탐색하고 실행할 수 있게 됩니다. 복잡한 서버 세팅이나 별도 API 구축 없이 코드 몇 줄로 연동이 완성된다는 점이 가장 큰 장점입니다.
모바일 MCP: 서버 없이 온디바이스에서 작동하는 이유
IT 업계에서 2025~2026년 가장 많이 언급되는 기술 용어 중 하나가 MCP(Model Context Protocol)입니다. MCP는 AI 에이전트가 외부 서버에 있는 도구들을 표준화된 방식으로 호출하는 규약인데, AppFunctions는 이것의 모바일 온디바이스 버전이라고 이해하면 됩니다. 구글 스스로도 공식 문서에서 “AppFunctions는 MCP 내 도구의 모바일 버전 역할을 한다”고 명시했습니다.
차이점은 하나입니다. MCP는 서버를 경유하지만 AppFunctions는 기기 내부에서 직접 실행됩니다. 이는 두 가지 이점을 가져옵니다. 첫째, 인터넷 연결이 불안정하거나 없는 환경에서도 작동할 수 있습니다. 둘째, 사진·메모·일정 같은 민감한 개인정보가 외부 서버로 전송될 필요가 없어 프라이버시 보호에 유리합니다. 구글이 이 기능을 설계할 때 “프라이버시와 보안을 핵심으로 삼았다”고 강조한 이유가 바로 여기에 있습니다.
| 구분 | 기존 MCP (서버 측) | Android AppFunctions (온디바이스) |
|---|---|---|
| 실행 위치 | 외부 클라우드 서버 | 기기 내부 (로컬) |
| 인터넷 필요 여부 | 필수 | 불필요 (오프라인 동작 가능) |
| 개인정보 유출 위험 | 서버 경유로 상대적 높음 | 기기 내 처리로 낮음 |
| 개발 난이도 | 서버 구축 필요 | @AppFunction 어노테이션만으로 구현 |
| 적용 플랫폼 | AI 에이전트 범용 | Android 16 이상 전용 |
개인적인 견해를 덧붙이자면, MCP가 ‘인터넷이 연결된 세계의 표준’이라면 AppFunctions는 ‘스마트폰이라는 개인 공간의 표준’이 되려는 시도입니다. 두 규약이 서로 경쟁하는 것이 아니라 에이전트가 원격 도구와 로컬 도구를 모두 고려해 동작하게 되는 구조로, 미래의 AI 스마트폰 경험은 이 두 레이어가 매끄럽게 연동될 때 비로소 완성될 것입니다.
실생활 활용 사례 4가지
구글이 공식 문서에서 직접 제시한 시나리오 네 가지를 실제 체감 가능한 언어로 풀어봤습니다. 각 예시는 현재 이미 구현된 수준이거나, Android 17에서 확대 예정인 기능들입니다.
📝 할 일 & 생산성
“오늘 오후 5시에 회사에서 택배 찾아오라고 알려줘”라고 말하면, 제미나이가 관련 할 일 앱을 찾아 제목·시간·위치를 자동 입력해 작업을 생성합니다. 사용자가 앱을 열 필요가 전혀 없습니다.
🎵 미디어 & 엔터테인먼트
“올해 최고의 재즈 앨범으로 새 플레이리스트 만들어줘”라고 요청하면, 음악 앱 내 플레이리스트 생성 함수가 바로 실행됩니다. 컨텍스트(“2026년 재즈 앨범”)를 자동 전달해 콘텐츠까지 즉시 채워집니다.
📧 교차 앱 워크플로
“Lisa 이메일에서 면 레시피 찾아서 재료를 쇼핑 목록에 추가해줘.” 이메일 앱 검색 → 재료 추출 → 쇼핑 앱 기능 호출이 단일 명령어로 연쇄 실행됩니다. 이것이 멀티 에이전트 시대의 본모습입니다.
📷 갤러리 검색 (Galaxy S26 실제 적용)
“삼성 갤러리에서 내 고양이 사진 보여줘.” 제미나이가 Samsung Gallery의 AppFunction을 트리거해 결과를 제미나이 앱 안에서 직접 보여줍니다. 음성으로도 텍스트로도 작동하며, OneUI 8.5 이상으로 확대 예정입니다.
Galaxy S26·Pixel 10에서 지금 당장 쓸 수 있는 기능
AppFunctions는 현재 Galaxy S26 시리즈와 일부 Pixel 10 기기에서 베타 형태로 실제 서비스 중입니다. 사용자 입장에서 체감되는 변화는 “제미나이 앱 하나로 모든 앱을 제어할 수 있게 된다”는 것입니다. 전원 버튼 길게 누르기로 제미나이를 호출하면 멀티스텝 자동화가 바로 시작됩니다.
현재 지원되는 앱 카테고리 (베타 기준)
구글 캘린더, 구글 노트, 구글 태스크가 AppFunctions 기반 통합의 선두 주자입니다. 여기에 삼성 갤러리가 추가된 상태이며, 음식 배달·식료품·라이드셰어 카테고리 앱들이 UI 자동화 방식으로 미국과 한국에서 베타 운영 중입니다. 즉, 한국 사용자들도 Galaxy S26에서 일부 기능을 지금 바로 경험할 수 있다는 의미입니다.
UI 자동화 프레임워크: 코드 없이 에이전트 도달 범위 확대
AppFunctions 외에도 구글은 ‘아직 AppFunctions 통합이 없는 앱’을 위해 UI 자동화 프레임워크를 병행 개발 중입니다. 개발자가 코드를 한 줄도 추가하지 않아도 플랫폼이 UI를 분석해 자동화를 수행하는 방식입니다. 복잡한 피자 주문, 멀티스톱 카풀 예약, 지난 장보기 목록 재주문 같은 작업이 그 대상입니다. 진행 중인 작업은 알림이나 ‘라이브 뷰’로 모니터링할 수 있으며, 언제든 사용자가 수동으로 개입해 제어권을 가져올 수 있습니다.
개발자라면 반드시 알아야 할 구현 방법
AppFunctions 통합은 생각보다 진입 장벽이 낮습니다. Jetpack 라이브러리 세 가지를 build.gradle에 추가하고, 노출할 함수에 어노테이션을 붙이면 끝입니다. 2026년 3월 11일 출시된 1.0.0-alpha08에서는 PendingIntent 외에 Parcelable 지원이 추가되었고, 플랫폼 요청·응답 간 변환 API가 신규 포함되었습니다. 또한 AppFunctionManagerCompat의 이름이 AppFunctionManager로 변경되었으니 기존 alpha 버전 사용자는 반드시 업데이트가 필요합니다.
Gradle 의존성 추가 (Kotlin DSL 기준)
아래 세 가지 라이브러리를 앱 모듈의 build.gradle.kts에 추가합니다. KSP 플러그인이 컴파일 시점에 XML 스키마를 자동 생성하므로, KSP가 프로젝트에 이미 설정되어 있어야 합니다.
implementation(“androidx.appfunctions:appfunctions-service:1.0.0-alpha08”)
ksp(“androidx.appfunctions:appfunctions-compiler:1.0.0-alpha08”)
@AppFunction 어노테이션으로 기능 노출하기
노출할 함수에 @AppFunction(isDescribedByKDoc = true)를 붙이면, KDoc 주석이 LLM이 읽는 자연어 설명으로 자동 변환됩니다. 즉, 어노테이션 하나로 AI 에이전트에게 “이 함수가 무엇을 하는지” 설명하는 스키마가 자동 생성됩니다. 개발자가 별도 JSON 스키마를 작성하거나 서버에 등록할 필요가 전혀 없습니다.
구현 시 중요한 제약 사항은 EXECUTE_APP_FUNCTIONS 권한이 있어야만 함수를 호출할 수 있다는 점입니다. 현재는 구글 제미나이와 같이 구글이 승인한 에이전트만 이 권한을 갖습니다. 서드파티 에이전트까지 문호를 여는 시점은 Android 17 출시와 함께 구글이 별도 발표할 예정입니다.
Android 17에서 더 강력해질 AppFunctions 전망
구글은 공식 블로그를 통해 Android 17에서 AppFunctions와 UI 자동화 프레임워크를 “더 많은 사용자, 개발자, 기기 제조사에게 확대”할 것이라고 명확히 밝혔습니다. 현재 베타 단계에서 Galaxy S26과 일부 Pixel 10으로 제한된 기능이 Android 17이 안정화 버전으로 출시되는 하반기(예상)부터 대폭 넓어질 것입니다.
기대되는 Android 17 주요 변화
현재 AppFunctions는 Alpha 단계로, 베타·정식 출시 전까지 API가 계속 변경될 수 있습니다. 개인적으로는 올해 안에 세 가지 변화가 일어날 것이라고 예상합니다. 첫째, 서드파티 에이전트 앱에 대한 EXECUTE_APP_FUNCTIONS 권한 부여 정책 공개. 둘째, Jetpack AppFunctions의 베타 또는 RC 버전 출시. 셋째, Google I/O 2026(날짜 미정)에서의 대규모 생태계 발표가 그것입니다.
AppFunctions vs 기존 앱 구조: 무엇이 달라지나
AppFunctions는 단순한 기능 추가가 아니라, 앱과 사용자 사이의 상호작용 패러다임 자체를 바꿉니다. 기존 앱 생태계는 “사용자가 앱을 열고, 화면을 탐색하고, 버튼을 누르는” 구조였습니다. 앱의 성공 지표도 DAU(일일 활성 사용자)나 세션 시간 같은 ‘앱 내 체류’에 집중해 있었습니다.
하지만 AppFunctions 생태계에서는 사용자가 앱을 직접 열지 않아도 됩니다. 오히려 앱의 성공 지표는 “AI 에이전트가 얼마나 자주 내 앱의 기능을 호출했는가”로 이동합니다. 이는 앱 개발자에게 완전히 다른 설계 철학을 요구합니다. UI/UX 최적화보다 기능 명세의 명확성이 더 중요해지는 것입니다. KDoc으로 얼마나 정확하게 함수를 설명했느냐가 AI 에이전트가 해당 함수를 선택할 확률을 좌우합니다.
| 항목 | 기존 앱 패러다임 | AppFunctions 시대 |
|---|---|---|
| 사용자 진입점 | 앱 아이콘 → 화면 탐색 | 자연어 명령 → AI가 함수 직접 호출 |
| 성공 지표 | DAU, 세션 시간, 리텐션 | 에이전트 호출 횟수, 태스크 완료율 |
| 개발 우선순위 | UI/UX 디자인 | 기능 명세(KDoc) 정확성 |
| 경쟁 우위 | 더 예쁜 인터페이스 | AI가 더 잘 이해하는 함수 설계 |
| 데이터 처리 | 앱 서버 경유 가능 | 기기 내 온디바이스 처리 권장 |
솔직히 말하면, 이 변화는 일부 앱에게는 위협이 될 수 있습니다. 특히 콘텐츠 소비가 아닌 ‘작업 실행’ 중심의 앱들, 예컨대 캘린더·할 일·메모·쇼핑 앱은 사용자가 앱을 직접 켜는 빈도가 줄어들 수 있습니다. 반면 AppFunctions를 잘 구현한 앱은 제미나이라는 거대한 유통망을 무료로 활용하게 되는 셈입니다. 앞으로 앱스토어 최적화(ASO)만큼이나 AppFunctions 최적화가 앱 마케팅의 핵심 전략이 될 날이 머지않았습니다.
자주 묻는 질문 (Q&A)
Q1. Android AppFunctions를 쓰려면 어떤 기기가 필요한가요?
AppFunctions는 Android 16 이상을 실행하는 기기에서 작동합니다. 현재 일반 사용자 기준으로는 Galaxy S26 시리즈와 일부 Pixel 10 기기에서 베타 서비스 중입니다. Android 17이 정식 출시되면 지원 기기 범위가 크게 확대될 예정입니다. 개발자는 Android 16 에뮬레이터 또는 실기기에서 지금 바로 테스트할 수 있습니다.
Q2. 개인정보는 안전한가요? AI 에이전트에 앱 접근을 허용하면 위험하지 않나요?
AppFunctions는 온디바이스에서 처리되어 데이터가 외부 서버로 전송되지 않습니다. 또한 EXECUTE_APP_FUNCTIONS 권한을 가진 승인된 에이전트만 함수를 호출할 수 있어, 임의의 앱이 다른 앱에 접근하는 것은 불가능합니다. 결제처럼 민감한 작업은 반드시 사용자 확인 단계를 거치도록 설계되어 있습니다. 다만, 아직 알파 단계이므로 프로덕션 사용 전에 보안 업데이트를 지속 모니터링하는 것을 권장합니다.
Q3. 제미나이 외에 다른 AI 에이전트도 AppFunctions를 쓸 수 있나요?
현재는 EXECUTE_APP_FUNCTIONS 권한이 구글이 승인한 에이전트(주로 Gemini)에게만 부여됩니다. 서드파티 에이전트 앱이 이 권한을 받을 수 있는 정책은 아직 공개되지 않았으며, Android 17 발표 혹은 Google I/O 2026에서 구체적인 내용이 나올 것으로 예상됩니다. 미래에는 승인 기반으로 다양한 에이전트가 AppFunctions를 활용할 수 있는 생태계가 형성될 것입니다.
Q4. 기존 앱 개발자가 AppFunctions를 지원하면 어떤 이점이 있나요?
가장 직접적인 이점은 제미나이를 통한 새로운 사용자 접점 확보입니다. 사용자가 앱을 직접 열지 않아도 제미나이를 통해 앱의 기능이 실행되므로, 앱 설치 후 사용률이 높아질 수 있습니다. 또한 Google I/O 이후 생태계가 확장될 때 이미 통합을 마친 앱이 에이전트의 우선 선택을 받을 가능성이 높습니다. 진입 비용은 매우 낮은 편으로, Jetpack 라이브러리 추가와 어노테이션 몇 개로 충분합니다.
Q5. AppFunctions 1.0.0-alpha08에서 달라진 점이 무엇인가요?
2026년 3월 11일 출시된 alpha08의 주요 변경 사항은 세 가지입니다. 첫째, PendingIntent 외에 Parcelable 지원이 추가되어 데이터 전달 방식이 유연해졌습니다. 둘째, 플랫폼 요청 및 응답 간 변환 API가 신규 추가되었습니다. 셋째, AppFunctionManagerCompat의 이름이 AppFunctionManager로 변경되었으므로 이전 버전에서 마이그레이션하는 경우 코드 수정이 필요합니다. 또한 Java 11 타겟으로 이동했으므로 빌드 환경 확인도 필요합니다.
🔚 마치며 — AppFunctions는 ‘앱의 종말’이 아니라 ‘앱의 진화’입니다
일부에서는 AI 에이전트가 앱을 대신하면 앱 자체가 필요 없어지는 것 아니냐는 우려를 제기합니다. 하지만 Android AppFunctions를 깊이 들여다보면 오히려 반대의 방향을 가리키고 있습니다. 결국 AI 에이전트도 실행할 수 있는 ‘기능’이 있어야 합니다. 그 기능을 제공하는 것은 여전히 앱입니다.
AppFunctions는 앱의 역할을 “사용자가 켜는 프로그램”에서 “에이전트가 활용하는 도구”로 확장시킵니다. 잘 구현된 앱일수록 AI 에이전트의 신뢰받는 파트너가 됩니다. 지금 이 시점, 한국어로 AppFunctions를 심층적으로 다루는 콘텐츠가 거의 없다는 것은 역으로 이 기술을 선점할 수 있는 절호의 기회라는 뜻이기도 합니다. Android 17 정식 출시 전, 지금이 준비할 적기입니다.
본 포스팅은 Android Developers 공식 문서 및 Google 개발자 블로그(2026.02.25, 2026.03.11)를 기반으로 작성되었습니다.
AppFunctions는 현재 알파 단계로, API 명세는 정식 출시 전 변경될 수 있습니다.
최신 정보는 공식 문서를 통해 반드시 확인하시기 바랍니다.


댓글 남기기