IT/AI
Anthropic 공식 보고서
Anthropic AI 조사,
8만 명이 원한 건 따로 있었습니다
AI에게 “마법처럼 뭐든 해준다면 뭘 원하냐”고 물었을 때, 가장 많이 나온 대답은 업무 자동화가 아니었습니다. Anthropic이 2025년 12월 한 주 동안 159개국, 80,508명을 AI가 직접 인터뷰한 결과입니다. 역대 최대 규모의 정성 연구라고 공식 발표했고, 공식 부록 PDF까지 전부 뜯어봤습니다.
업무 효율? 정작 원한 건 ‘퇴근 후 삶’이었습니다
결론부터 말씀드리면, 응답자의 18.8%가 “업무 효율 향상”을 1순위로 꼽았습니다. 표면상으로는 역시 일 얘기가 1위입니다. 그런데 Anthropic이 여기서 추가 질문을 했습니다. “그 효율이 실현되면, 정작 당신이 원하는 게 뭐냐“고요. 그러자 프레임이 바뀌었습니다.
멕시코의 소프트웨어 엔지니어는 이렇게 말했습니다. “AI 덕분에 제시간에 퇴근해서 아이들을 학교에서 데려오고, 밥 먹이고, 같이 놀 수 있게 됐어요.” 콜롬비아 사무직 응답자는 “AI로 더 효율적으로 일하게 됐어요. 지난 화요일엔 덕분에 엄마랑 같이 요리할 수 있었어요”라고 했습니다. 업무 자동화를 원한다고 시작한 사람들이, 사실은 가족과의 시간을 원하고 있었습니다. 전체 11%가 AI 생산성 혜택을 “가족과 여가를 위한 시간 확보”로 최종 귀결시켰고, 추가 10%는 아예 경제적 독립 수단으로 연결했습니다. (출처: Anthropic, “What 81,000 people want from AI”, 2026.03.18)
💡 공식 보고서 수치와 실제 발언을 나란히 놓고 보면, “AI = 업무 도구”라는 틀이 얼마나 얕은 설명인지 드러납니다. 데이터 뒤에 있는 욕구는 언제나 더 사적입니다.
9개 분류 중 개인 변환(13.7%), 삶 관리(13.5%), 시간 자유(11.1%)가 각각 2~4위를 차지했습니다. 합산하면 약 38%가 “일을 잘하기 위해”가 아니라 “삶을 더 잘 살기 위해” AI를 원한다는 뜻입니다. AI가 생산성 도구라는 통념이, 숫자로 보면 이미 과반이 아닙니다.
AI를 가장 믿으면서 가장 무서워하는 직군
공식 보고서에서 가장 눈에 띈 직군이 있습니다. 변호사입니다. 변호사의 절반 가까이(약 50%)가 AI의 오류를 직접 경험했다고 답했습니다. 전체 평균(37%)보다 훨씬 높습니다. 그런데 아이러니하게도, AI가 의사결정에 실제로 도움이 됐다는 비율도 변호사가 전체 직군 중 가장 높았습니다. (출처: Anthropic 공식 보고서 본문, 2026.03.18)
이 조합이 뭘 의미하는지를 한 변호사 응답자가 직접 표현했습니다. “계약서 검토에 AI를 쓰면서 시간을 아끼고 있어요. 동시에 두렵습니다. 내가 스스로 읽는 능력을 잃고 있는 건 아닐까. 생각하는 게 마지막 경계선이었는데.” 쓸수록 의존하고, 의존할수록 두려워집니다. 가장 자주 오류를 만난 직군이 가장 많이 활용하고 있는 역설입니다.
💡 공식 발표문과 직군별 수치를 함께 놓고 보니, “AI를 가장 불신하는 사람이 가장 안 쓴다”는 상식이 틀렸다는 걸 알 수 있습니다. 실제로는 가장 의심하는 사람이 가장 많이 씁니다.
의사, 금융 전문가, 법조인 등 고위험 판단이 필요한 직군은 AI 오류를 전체 평균의 두 배 가까이 언급했습니다. 이들이 AI를 끊지 않는 이유는 단순합니다. 오류가 있어도, 없는 것보다 실제 결과가 낫기 때문입니다.
| 직군 | AI 오류 직접 경험 | 의사결정 혜택 체감 |
|---|---|---|
| 변호사 | 약 50% | 전체 최상위 |
| 의사·헬스케어 | 평균 2배 | 높음 |
| 전체 평균 | 37% | 22% |
(출처: Anthropic “What 81,000 people want from AI” 공식 보고서, 2026.03.18, anthropic.com/features/81k-interviews)
동아시아(한국 포함)만 유독 다른 이유
보고서에서 지역별 차이를 들여다봤을 때 동아시아가 가장 독특한 패턴을 보였습니다. AI를 통한 개인 변환(Personal Transformation) 희망 비율이 19%로 전체 지역 중 1위, 경제적 독립 희망도 15%로 역시 1위입니다. (출처: Anthropic 공식 보고서, 2026.03.18)
보고서는 그 이유를 정성 분석에서 찾았습니다. 동아시아 응답자들은 경제적 독립을 개인 소비가 아니라 부모 부양과 가족 책임과 연결했습니다. 한국 응답자 중 한 명은 “부모님 노후를 책임지고, 가족 모두가 행복하게 살기 위해 돈이 필요하다”고 표현했습니다. 서구권에서 “자유”를 위한 경제적 독립과는 맥락이 다릅니다. 가족 의무라는 구조적 압박이 AI에 대한 기대치를 더 높이는 방향으로 작용하고 있습니다.
반면 동아시아는 거버넌스(AI 규제 부재 우려)가 12%로 전체 최저, 감시·프라이버시 우려도 7%로 최저입니다. 누가 AI를 통제하는지보다 AI가 나한테 무엇을 하는지를 더 걱정합니다. 인지 퇴화(18%)와 삶의 의미 상실(13%)이 동아시아에서는 오히려 상위권입니다. AI 규제 논의가 한국에서 개인 영역으로 수렴하는 배경이 여기 있습니다.
두려움은 뉴스에서 오는 게 아니었습니다
이번 보고서에서 가장 의미 있다고 본 발견이 여기 있습니다. 응답자들의 두려움이 어디서 왔는지를 분석했는데, 예상과 달랐습니다. 두려움의 상당 부분이 뉴스나 미래 예측이 아니라 직접 경험에서 나왔습니다.
공식 부록 PDF의 상관관계 수치를 보면, 경험에서 나온 걱정과 기대의 공동 발생 계수(φ)는 평균 +0.20인 반면, 예상·추측 기반의 계수는 +0.07에 불과합니다. 경험자일수록 같은 기술에 대해 혜택과 위험을 동시에 구체적으로 말합니다. (출처: Anthropic 공식 부록 PDF, 2026.03.19 기준 수정본, 부록 PDF 원문)
수치로 이해하면 이렇습니다. 감정적 지지를 AI에서 받았다고 말한 사람은, 감정적 의존을 두려워할 가능성이 기준치의 3배(3.04×)입니다. 두려운 사람이 안 쓰는 게 아니라, 가장 깊이 쓴 사람이 가장 생생하게 두려워합니다.
💡 “AI 쓰면 이런 게 걱정된다”는 말이 사용 경험이 없는 사람보다 많이 쓰는 사람에게서 훨씬 많이 나왔습니다. 우려가 사용을 막는 게 아니라, 사용이 우려를 만들고 있습니다.
인지 퇴화 우려를 직접 경험했다고 밝힌 비율은 교사(24%), 학계(19%), 재학생(16%) 순이었습니다. 기술 직군(4%)이나 자영업자들은 거의 경험하지 않았습니다. 같은 AI를 써도 의도적 학습과 강요된 학습 사이의 차이가 인지 퇴화 경험에 극적인 차이를 만들고 있습니다.
개발도상국이 선진국보다 AI에 더 낙관적인 역설
전체 응답자의 67%가 AI에 긍정적이었는데, 지역별 격차가 눈에 띕니다. 사하라 이남 아프리카, 중앙아시아, 남아시아에서는 응답자의 17~18%가 AI에 아무런 우려가 없다고 답했습니다. 북미와 서유럽에서 같은 응답은 8~9%에 그쳤습니다. (출처: Anthropic 공식 보고서, 2026.03.18)
왜 그럴까요. 보고서는 여러 설명을 제시합니다. 우선, AI가 아직 이들의 일터에 깊숙이 들어오지 않았기 때문에 일자리 위협이 추상적입니다. 북미·서유럽에서는 이미 실제 해고 사례를 목격했기 때문에 구체적인 두려움이 됩니다. 또 하나, 개발도상국 응답자들에게 AI는 자본을 우회하는 수단입니다. 카메룬의 한 창업자는 이렇게 말했습니다. “IT 인프라가 취약한 나라 출신이고 실패를 여러 번 감당할 수 없어요. AI 덕분에 사이버보안, UX 디자인, 마케팅, 프로젝트 관리를 동시에 전문가 수준으로 끌어올렸어요. 평등화 장치입니다.”
이 패턴이 흥미로운 이유는 따로 있습니다. AI에 대한 낙관도가 높은 지역은 실제 AI 사용 빈도가 낮은 지역과 상당히 겹칩니다. 즉, 많이 쓸수록 냉정해지는 것이 아니라, 많이 써봤을 때 두려움도 혜택도 함께 구체화됩니다. 낙관론이 반드시 사용 경험의 반영이 아니라는 겁니다.
Anthropic이 이 조사를 한 진짜 이유
보고서 도입부에는 목적이 직접 적혀 있습니다. “AI가 잘 되는 세계가 어떤 모습인지에 대한 공론이 너무 추상적이다. 이미 AI를 쓰고 있는 사람들의 구체적인 열망에 기반한 비전이 필요했다.” 쉽게 말하면, Anthropic이 Claude를 어떻게 만들어야 하는지를 알기 위한 조사입니다. (출처: Anthropic 공식 보고서 서문, 2026.03.18)
실제로 보고서 말미에는 이렇게 씁니다. “이번 인터뷰는 우리가 이미 하고 있는 작업의 중요성을 재확인시켜줬고, 새로운 질문도 던졌습니다.” 다음 Anthropic Interviewer 연구는 Claude가 실제로 사람들의 삶을 더 나아지게 하고 있는지를 장기 추적하는 방향으로 예고됐습니다. 제품 개선 로드맵의 근거로 이 조사 데이터가 쓰인다는 뜻입니다.
💡 112,846건이 접수됐고 80,508건이 품질 기준을 통과했습니다. 스팸·성의 없는 답변·너무 짧은 응답이 걸러졌습니다. 나머지 응답의 97.6%는 핵심 질문에 실질적인 내용을 담았습니다. (출처: 공식 부록 PDF, 2026.03.19)
과거 AI 기업의 사용자 조사가 설문지 형식이었다면, 이번은 AI가 직접 인터뷰어로 나선 첫 대규모 정성 연구입니다. 사회적 부담이 없기 때문에 응답자들이 더 솔직하게 털어놓았다고 보고서는 밝힙니다. 그 결과, 슬픔, 정신건강 위기, 재정적 어려움, 전쟁 중 감정 지지 사례 같은 이야기가 예상 밖으로 많이 나왔습니다.
Q&A
마치며
솔직히 말하면, 처음엔 이 보고서가 Anthropic의 자사 홍보용이겠거니 했습니다. 막상 공식 원문과 부록 PDF를 전부 읽어보니 생각보다 날 것의 내용이 많았습니다. 실망한 사람 비율(18.9%), 인지 퇴화를 경험했다는 교사·학계 응답자, 전쟁 중 AI에 의지한 우크라이나 병사 발언까지 그냥 놔뒀습니다.
기억해둘 수치는 세 개입니다. 혜택과 두려움을 동시에 말하는 사람이 평균치 대비 1.6~3배 많다는 공동 발생 수치, 변호사의 50%가 AI 오류를 직접 겪었으면서도 혜택을 가장 많이 말한다는 역설, 동아시아에서 개인 변환과 경제적 독립 욕구가 전 세계 1위라는 지역 패턴. 이 세 가지가 보고서가 말하려는 핵심입니다.
다음 Anthropic Interviewer 연구가 나오면 또 들여다볼 예정입니다. 이번엔 “뭘 원하냐”였다면 다음은 “실제로 됐냐”를 묻겠다고 했으니까요.
📚 본 포스팅 참고 자료
- Anthropic, “What 81,000 people want from AI” (2026.03.18) — anthropic.com/features/81k-interviews
- Anthropic, 공식 부록 PDF (2026.03.19 수정) — 부록 PDF 원문
- Euronews, “Light and shade: What 81,000 people want and don’t want from AI” (2026.03.20) — euronews.com
- 조선비즈, “앤트로픽 한국 인구 대비 클로드 사용량 최상위권” (2026.01.16) — biz.chosun.com
- Anthropic, “Protecting the wellbeing of users” — anthropic.com/news
※ 본 포스팅 작성 이후 서비스 정책·UI·기능이 변경될 수 있습니다. 본문 수치는 Anthropic 공식 보고서(2026.03.18 발표, 2026.03.19 부록 수정) 기준이며, 이후 업데이트된 수치가 있을 경우 공식 페이지를 직접 확인하시기 바랍니다.

댓글 남기기