GitHub Copilot Free·Pro·Pro+ 해당
GitHub Copilot, 비공개 저장소 코드도 빠지는 이유
2026년 4월 24일, GitHub Copilot의 GitHub Copilot 학습 데이터 옵트아웃 정책이 조용히 바뀝니다. 기본값이 “수집 허용”으로 전환되고, 설정을 바꾸지 않으면 코드 스니펫·채팅 대화·수락 패턴이 AI 모델 훈련에 쓰입니다. 비공개 저장소라도 Copilot을 쓰는 순간 예외가 아닙니다.
4월 24일, 실제로 무슨 일이 생기는가
GitHub이 2026년 3월 25일 공식 블로그를 통해 발표한 내용을 직접 읽어봤습니다. 핵심은 간단합니다. 4월 24일부터 Copilot Free, Pro, Pro+ 사용자의 “상호작용 데이터”가 AI 모델 훈련에 쓰이기 시작하고, 기본 설정은 수집 허용입니다.
(출처: GitHub 공식 changelog, 2026.03.25)
“상호작용 데이터”라는 표현이 모호하게 느껴질 수 있는데, GitHub 공식 FAQ에는 수집 항목이 꽤 구체적으로 나열됩니다. 코드 스니펫, Copilot Chat 세션 전체, 제안을 수락하거나 거부한 기록, 커서 주변 코드 컨텍스트, 파일명과 저장소 구조까지 포함됩니다. 단순한 사용 로그가 아닙니다.
별도 공지를 받지 못했다면 이유가 있습니다. GitHub은 이메일을 발송했다고 밝혔지만, 많은 개발자가 알아채지 못한 채 4월 24일을 맞이하게 됩니다. 기본값이 허용이기 때문에, 설정을 건드리지 않으면 자동으로 데이터가 수집됩니다.
수집되는 데이터, 생각보다 넓습니다
GitHub 공식 FAQ에 수집 항목이 직접 열거됩니다. (출처: github.com/orgs/community/discussions/188488, 2026.04)
| 데이터 유형 | 구체적 내용 | 실질적 의미 |
|---|---|---|
| 코드 스니펫 | Copilot에 입력하거나 수락한 코드 | 비즈니스 로직, API 연동 코드 포함 |
| 채팅 대화 전체 | Copilot Chat 세션 맥락 전체 | 아키텍처 논의, 버그 분석 내용 |
| 수락·거부 기록 | 제안 채택 여부 | “좋은 코드” 기준으로 모델 학습 |
| 커서 주변 컨텍스트 | 커서 위치 기준 주변 코드 | DB 스키마, 인증 흐름 노출 가능 |
| 파일명·저장소 구조 | 파일명, 디렉토리 구조, 탐색 패턴 | 시스템 설계 의도가 드러남 |
파일명과 저장소 구조까지 포함된다는 점이 중요합니다. 코드 한 줄이 아니라 프로젝트 전체 맥락이 수집됩니다. 이 정보가 조합되면 단순 코드 이상의 정보가 됩니다.
비공개 저장소는 안전할까 — 공식 FAQ로 직접 확인한 결과
💡 공식 FAQ와 실제 사용 흐름을 나란히 놓고 보니 이런 차이가 보였습니다 — “비공개 저장소 코드는 수집 안 된다”는 말과 “수집된다”는 말이 동시에 맞을 수 있는 조건이 있습니다.
GitHub 공식 FAQ를 읽으면 처음에는 안심이 됩니다. “비공개 저장소에 저장된 소스 코드는 AI 모델 훈련에 사용하지 않는다”고 분명히 적혀 있습니다. 그런데 바로 아래 문장이 핵심입니다.
“If a Copilot user has their settings set to enable model training on their interaction data, code snippets from private repositories can be collected and used for model training while the user is actively engaged with Copilot while working in that repository.”
(출처: GitHub 공식 FAQ — Community Discussions #188488, 2026.04)
저장된 코드는 건드리지 않지만, Copilot을 열고 작업하는 순간에는 비공개 저장소도 예외가 아닙니다. 개발 작업이 본질적으로 인터랙티브하다는 점을 감안하면, “저장소 코드는 안 쓴다”는 말이 실제로 제공하는 보호는 생각보다 좁습니다.
실제로 보안이 중요한 프로젝트일수록 Copilot을 더 적극적으로 쓰는 경향이 있습니다. 복잡한 로직을 빠르게 구현하거나 버그를 디버깅할 때 Copilot Chat을 열게 되고, 바로 그 순간의 맥락이 수집 대상이 됩니다. “저장소는 안전하다”는 안심이 오히려 더 무심하게 만들 수 있습니다.
Business·Enterprise만 빠지는 이유가 따로 있습니다
💡 같은 제품인데 왜 요금제에 따라 정책이 다를까, 공식 FAQ에 숨겨진 이유가 있었습니다.
Copilot Business·Enterprise 사용자는 이번 정책 변경에서 완전히 제외됩니다. “더 비싼 요금제니까 보호해 준다”고 이해하기 쉬운데, GitHub 공식 FAQ의 설명은 조금 다릅니다.
“Our agreements with Business and Enterprise customers prohibit using their Copilot interaction data for model training, and we honor those commitments.”
(출처: GitHub 공식 FAQ — Community Discussions #188488, 2026.04)
기업 계약에 학습 데이터 활용 금지 조항이 들어가 있기 때문입니다. 윤리적 선택이 아니라 계약상 의무입니다. 반대로 말하면, 개인·소규모 팀은 이 계약 보호가 없기 때문에 기본값이 수집 허용으로 설정된 것입니다.
한 가지 더 짚을 점이 있습니다. GitHub 공식 FAQ는 “유료 조직의 멤버이거나 외부 협력자로 등록된 계정은, 그 계정이 Copilot Free·Pro·Pro+로 작업 중이어도 해당 조직의 저장소 데이터는 학습에서 제외한다”고 밝혔습니다. 프리랜서로 기업 저장소에 접근 중이라면 그 세션의 데이터는 보호받을 수 있다는 뜻입니다. 단, 개인 프로젝트로 돌아가는 순간 다시 수집 대상이 됩니다.
옵트아웃 방법 — 설정 경로와 주의사항
개인 계정 기준 설정 경로
직접 확인한 경로는 다음과 같습니다. github.com/settings/copilot 에 접속한 후 Privacy 섹션에서 “Allow GitHub to use my data for AI model training” 항목을 Disabled로 변경하면 됩니다.
(출처: GitHub 공식 changelog, 2026.03.25)
github.com에 로그인 후 우측 상단 프로필 클릭 → Settings
좌측 사이드바에서 Copilot 클릭
Privacy 섹션 스크롤 → “Allow GitHub to use my data for AI model training”
드롭다운을 Disabled로 변경 후 저장
알아야 할 주의사항 3가지
① GitHub 계정이 여러 개라면 각 계정마다 따로 설정해야 합니다. 하나의 계정에서 옵트아웃해도 다른 계정에는 적용되지 않습니다.
② 설정 변경 후 에디터 재시작이 필요합니다. GitHub 문서는 설정 적용까지 최대 30분이 걸릴 수 있다고 안내합니다. VS Code를 사용 중이라면 완전히 종료 후 재시작하는 게 확실합니다.
③ 이전에 이미 “prompt and suggestion collection” 설정을 꺼둔 경우, 그 설정은 그대로 유지됩니다. 새로 옵트아웃하지 않아도 기존 선택이 반영됩니다. (출처: GitHub 공식 FAQ, 2026.04)
나중에 옵트아웃해도 되는 경우와 안 되는 경우
💡 옵트아웃 후 “이미 들어간 데이터는요?”라는 질문에 공식 입장과 기술적 현실이 다릅니다.
4월 24일 이후라도 언제든 옵트아웃할 수 있습니다. 설정을 바꾸는 즉시 그 이후부터는 수집이 중단됩니다. 그러나 이미 수집된 데이터는 어떻게 될까요?
GitHub의 공식 입장은 “옵트아웃 시점 이후의 데이터만 보호되며, 이미 훈련에 통합된 데이터는 삭제되지 않는다”는 것입니다. 모델 훈련은 데이터셋을 재구성해 반복하는 방식이고, 한 번 가중치에 반영된 패턴은 개별 데이터 삭제만으로 사라지지 않습니다. 나중에 옵트아웃해도 그 기간 동안의 코드 패턴은 이미 모델 안에 들어가 있습니다.
⚠️ 민감한 프로젝트 작업 중이라면
클라이언트 코드, 미출시 제품, 보안 관련 코드를 Copilot으로 작업했다면 4월 24일 이전에 옵트아웃을 완료하는 것이 유일한 선제 조치입니다. 사후 삭제는 불가합니다.
학생이나 교원 자격으로 Copilot Pro를 무료로 쓰는 경우는 이번 정책 변경 대상에서 제외됩니다. (출처: GitHub 공식 FAQ, 2026.04) 일반 Pro 유료 구독자는 동일하게 적용 대상입니다.
Q&A
마치며
이번 정책 변경에서 눈에 띄는 점은 두 가지입니다. 첫째, 비공개 저장소도 Copilot을 활성화한 채 작업하는 순간에는 수집 대상이 됩니다. “저장된 코드”와 “사용 중 코드”의 경계가 생각보다 얇습니다. 둘째, Business·Enterprise 사용자가 제외되는 이유는 기술적 보호가 아니라 계약상 금지 조항입니다. 같은 플랫폼 안에서 계약 협상력에 따라 프라이버시 수준이 달라지는 구조입니다.
솔직히 말하면, Copilot을 쓰지 않을 이유는 없습니다. 개발 생산성에 실질적인 도움이 되는 도구입니다. 다만 어떤 데이터가 어떤 조건에서 나가는지 정확히 알고 선택하는 것과 모른 채 쓰는 것은 다릅니다. 옵트아웃 후에도 Copilot 기능은 그대로 사용할 수 있습니다. 2분이면 충분합니다.
클라이언트 코드, 출시 전 제품, 보안 관련 작업을 Copilot으로 진행 중이라면 4월 24일 이전에 설정을 확인하는 것이 맞습니다. 사후에는 이미 들어간 데이터를 되돌릴 수 없습니다.
본 포스팅 참고 자료
- GitHub 공식 changelog — Updates to Privacy Statement and Terms of Service (https://github.blog/changelog/2026-03-25…)
- GitHub 공식 커뮤니티 FAQ — Copilot data use for model training (https://github.com/orgs/community/discussions/188488)
- ghacks.net — GitHub Enables Copilot Data Collection For AI Training By Default (https://www.ghacks.net/2026/03/26/…)
- windowsforum.com — GitHub Copilot Privacy Shift Analysis (https://windowsforum.com/…)
본 포스팅은 2026년 4월 20일 기준 공식 발표 자료를 토대로 작성되었습니다. 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있으며, 최신 내용은 GitHub 공식 문서에서 확인하시기 바랍니다.

댓글 남기기