DeerFlow 2.0 완전정복: AI가 혼자 일하는 시대, 지금 안 쓰면 손해

Published on

in

DeerFlow 2.0 완전정복: AI가 혼자 일하는 시대, 지금 안 쓰면 손해
🔥 GitHub 트렌딩 1위 · 2026년 3월 최신

DeerFlow 2.0 완전정복: 코딩 없이 AI가
혼자 일하는 시대, 지금 안 쓰면 손해

ByteDance가 공개한 오픈소스 슈퍼에이전트 — 연구·코딩·PPT·영상 제작을 AI가 혼자 처리합니다

⭐ GitHub 3만+ 스타
📅 2026.02.28 공개
🆓 MIT 라이선스
🤖 멀티에이전트 오케스트레이션

DeerFlow 2.0은 틱톡을 만든 ByteDance가 공개한 오픈소스 슈퍼에이전트 프레임워크입니다.
단순한 챗봇이 아니라, 실제 컴퓨터처럼 작동하며 복잡한 업무를 스스로 처리하는 AI 에이전트입니다.

DeerFlow 2.0이란? — 단순 챗봇과 무엇이 다른가

DeerFlow 2.0은 ByteDance가 2026년 2월 28일에 공개한 오픈소스 슈퍼에이전트 하니스(SuperAgent Harness)입니다. 공개 당일 GitHub 트렌딩 전체 1위를 기록했고, 불과 2주 만에 스타 수가 3만 개를 넘어섰습니다. 이름은 “Deep Exploration and Efficient Research Flow”의 약자로, 원래는 내부 딥리서치 도구였지만 2.0 버전에서 완전히 새로 작성되며 범용 슈퍼에이전트로 진화했습니다.

기존 ChatGPT나 Claude와의 결정적 차이는 “실행(Execution)”에 있습니다. 기존 AI는 텍스트 박스 안에서 대화하고, 코드를 ‘제안’합니다. 여러분이 그 코드를 복사해서 직접 실행해야 합니다. DeerFlow는 다릅니다. AI에게 실제 컴퓨터를 한 대 쥐어주는 방식입니다. Docker 기반의 격리된 샌드박스 환경 안에서 파일을 만들고, 코드를 실행하고, 결과물을 만들어냅니다.

DeerFlow 2.0이 할 수 있는 일의 범위는 웹 리서치, 코드 작성 및 실행, 발표 슬라이드 제작, 영상 생성, 데이터 파이프라인 자동화까지 광범위합니다. MIT 라이선스라 완전 무료이며, 셀프호스팅이 가능해 데이터 프라이버시 걱정 없이 사용할 수 있다는 것도 큰 장점입니다.

💡 핵심 인사이트: DeerFlow는 ‘AI 어시스턴트’가 아닌 ‘AI 직원’에 가깝습니다. 지시를 받고 스스로 계획을 세우고, 실행하고, 결과물을 만들어냅니다. 여러분은 상사처럼 목표만 알려주면 됩니다.

▲ 목차로 돌아가기

핵심 구조 해부 — 슈퍼에이전트가 일하는 방식

DeerFlow 2.0의 구조는 리드 에이전트(Lead Agent)가 프로젝트 매니저 역할을 하고, 각 업무에 특화된 하위 에이전트(Sub-Agents)를 필요에 따라 생성·조율하는 방식입니다. LangGraph와 LangChain 위에 구축되어 있으며, 에이전트 간 상태 관리와 장기 메모리를 체계적으로 처리합니다.

복잡한 요청이 들어오면 DeerFlow는 먼저 태스크 분해(Task Decomposition)를 수행합니다. 예를 들어 “2026년 한국 AI 스타트업 TOP 10을 조사해서 발표 자료를 만들어줘”라고 입력하면, 리드 에이전트가 이 작업을 ‘웹 검색’, ‘데이터 분석’, ‘이미지 생성’, ‘슬라이드 제작’ 등의 하위 태스크로 분해하고 각각의 전문 에이전트를 병렬로 실행시킵니다.

에이전트 역할 주요 작업
Researcher 정보 수집 웹 검색, 문서 분석, 출처 인용
Coder 코드 개발 Python·JS 코드 작성 및 실행
Planner 계획 수립 단계별 실행 전략 설계
Executor 명령 실행 bash 명령어, 파일 시스템 조작
Reviewer 품질 검토 코드 리뷰, 오류 수정, 검증

특히 샌드박스 파일 시스템이 핵심입니다. 모든 에이전트가 격리된 Docker 컨테이너 안에서 실행되기 때문에 여러분의 PC에 직접적인 영향을 주지 않으면서도, /mnt/workspace 내의 파일을 자유롭게 읽고 쓰고 실행할 수 있습니다. 또한 장기 메모리(Long-term Memory) 기능 덕분에 이전 세션에서 여러분이 선호하는 작성 스타일이나 프로젝트 구조를 기억하고 다음 작업에 반영합니다.

▲ 목차로 돌아가기

5분 만에 설치하는 법 — Docker로 바로 시작

DeerFlow 2.0 설치에서 가장 권장되는 방법은 Docker를 이용한 All-in-One 방식입니다. 직접 Python 환경을 구성하는 방법도 있지만, 의존성 충돌이나 버전 문제를 피하려면 Docker가 압도적으로 편리합니다. 아래 단계를 순서대로 따라가면 대부분의 환경에서 5분 안에 실행할 수 있습니다.

사전 준비 사항

시작 전 아래 항목이 설치되어 있어야 합니다. make check 명령으로 한 번에 확인할 수 있습니다.

  • Docker Desktop (Windows/macOS) 또는 Docker Engine (Linux)
  • Node.js 22+ 및 pnpm
  • Python 3.11+ 및 uv
  • Git

설치 5단계

STEP 1

저장소 복제
git clone https://github.com/bytedance/deer-flow.git
cd deer-flow
STEP 2

설정 파일 생성
make config
→ config.yaml 및 .env 파일이 자동 생성됩니다.
STEP 3

LLM 모델 설정 (config.yaml 편집)
models:
  - name: gpt-4o
    display_name: GPT-4o
    use: langchain_openai:ChatOpenAI
    model: gpt-4o
    api_key: $OPENAI_API_KEY
    max_tokens: 4096
    temperature: 0.7

→ OpenAI 외 Claude, Gemini, DeepSeek, Ollama 로컬 모델 모두 지원합니다.
STEP 4

API 키 설정 (.env 파일 편집)
TAVILY_API_KEY=your-tavily-api-key
OPENAI_API_KEY=your-openai-api-key

→ Tavily는 웹 검색 기능 사용 시 필요합니다. 무료 플랜으로 시작 가능합니다.
STEP 5

Docker 시작
make docker-init # 최초 1회만 실행 (샌드박스 이미지 다운로드)
make docker-start # 서비스 시작

→ 브라우저에서 http://localhost:3000 으로 접속하면 됩니다.
⚠️ 주의: 최초 docker-init 실행 시 샌드박스 이미지 다운로드로 시간이 걸릴 수 있습니다. 이후 실행부터는 빠릅니다.

▲ 목차로 돌아가기

실전 활용법 4가지 — 오늘 당장 써먹을 수 있는 명령어

DeerFlow 2.0이 강력한 이유는 자연어로 명령을 내리기만 해도 AI가 알아서 계획을 세우고 실행하기 때문입니다. 아래는 바로 복사해서 사용할 수 있는 실전 프롬프트 4가지입니다. 각 명령어는 단순해 보이지만 내부에서는 수십 번의 에이전트 간 통신과 실행이 일어납니다.

활용 ①
심층 리서치 보고서 자동 생성

여러 Researcher 에이전트가 병렬로 정보를 수집한 뒤 종합 보고서를 마크다운으로 출력합니다. 인용 출처까지 자동으로 붙습니다.

2026년 국내 AI 스타트업 투자 현황을 조사하고, 분야별·투자 규모별로 정리한 5페이지 분량의 보고서를 작성해 줘. 출처 링크도 포함해 줘.

활용 ②
코드 작성 → 실행 → 결과물 저장

Planner·Coder·Executor·Reviewer가 순차적으로 작동하며, 실제 샌드박스에서 코드를 실행해 결과를 /mnt/outputs에 저장합니다.

Python으로 최근 1년간 KOSPI 지수 데이터를 가져와서 이동평균선(20일·60일)과 함께 그래프로 시각화하고, PNG 파일로 저장해 줘.

활용 ③
발표 슬라이드 자동 제작

built-in 스킬인 slide-creation을 활용해 리서치 결과를 바로 프레젠테이션 파일로 변환합니다. Marp 또는 Reveal.js 형식 지원.

LLM 시장에서 오픈소스 AI와 클로즈드 AI의 경쟁 현황을 조사하고, 10슬라이드 분량의 발표 자료를 HTML 형식으로 만들어 줘. 제목 슬라이드와 결론 슬라이드도 포함해 줘.

활용 ④
Telegram 연동 — 대화로 AI 직원 부리기

텔레그램 봇과 연동하면 스마트폰에서 채팅으로 DeerFlow에게 작업을 시킬 수 있습니다. 외출 중에도 AI가 PC에서 알아서 일합니다.

config.yaml에서 channels.telegram.enabled: true로 설정하고, BotFather에서 발급받은 토큰을 .env의 TELEGRAM_BOT_TOKEN에 입력한 뒤 재시작하면 됩니다.

▲ 목차로 돌아가기

GPT·Claude와 비교 — 어디서 쓰면 가장 강한가

DeerFlow 2.0이 공개되자 많은 분들이 궁금해하는 것이 “ChatGPT나 Claude 대신 써야 하나?”입니다. 결론부터 말씀드리면 완전히 다른 도구이므로 대체재가 아닌 상호 보완재로 보는 것이 맞습니다. DeerFlow는 LLM에 종속되지 않아 GPT-4o, Claude 3.5, Gemini, DeepSeek 어떤 모델이든 뒤에서 엔진으로 사용할 수 있습니다.

구분 ChatGPT / Claude DeerFlow 2.0
실행 방식 텍스트 제안 실제 코드 실행
에이전트 수 단일 에이전트 다중 에이전트 병렬
파일 시스템 없음 (일부 제한적) 격리 샌드박스 제공
장기 메모리 제한적 세션 간 지속 기억
비용 구독료 필요 무료 (API 비용만)
설치 난이도 없음 (웹 접속) Docker 설치 필요

개인적인 의견을 드리자면, DeerFlow가 빛을 발하는 상황은 ‘오래 걸리고, 반복적이고, 여러 단계가 얽힌 업무’입니다. 예를 들어 경쟁사 분석 보고서 작성, 데이터 수집·가공·시각화 자동화, 주기적인 뉴스 모니터링 같은 작업이죠. 반면 간단한 질문이나 창의적인 글쓰기는 여전히 ChatGPT나 Claude가 훨씬 편합니다. DeerFlow는 ‘스위스 아미 나이프’라기보다 ‘전동 드릴’에 가깝습니다. 무거운 작업에 쓸수록 진가가 나옵니다.

▲ 목차로 돌아가기

주의사항과 한계 — 솔직히 이건 아직 부족합니다

DeerFlow 2.0에 흥분하기 전에, 솔직한 한계도 알고 시작하셔야 합니다. 화려한 GitHub 스타 수와 달리 실제 사용하다 보면 몇 가지 불편함이 있습니다. 아직 2.0 초기 버전이기 때문에 커뮤니티에서 버그가 꾸준히 보고되고 있는 상태라는 점을 먼저 말씀드립니다.

첫 번째 한계는 실행 시간입니다. 복잡한 멀티에이전트 작업은 수분에서 수십 분까지 걸릴 수 있습니다. 기본 recursion_limit이 100으로 설정되어 있어서 작업 도중 에이전트가 중단되는 경우가 있습니다. 긴 작업을 돌릴 때는 이 값을 충분히 올려줘야 합니다. 두 번째는 API 비용입니다. 오케스트레이터가 여러 에이전트를 병렬로 돌리는 구조상 단일 질문보다 토큰 소모가 몇 배나 많습니다. GPT-4o를 붙이면 복잡한 작업 하나에 $0.5~$2 이상 나올 수 있습니다. 비용에 민감하다면 DeepSeek이나 Gemini Flash 같은 저렴한 모델을 먼저 연결해보세요.

세 번째는 한국어 처리 최적화 문제입니다. 한국어로 명령을 내릴 수 있지만 내부 에이전트 간 통신, 스킬 정의 파일, 오류 메시지 등이 영어 기반이라 한국어 환경에서 간혹 이상한 출력이 나오는 경우가 있습니다. 현재는 중요한 작업일수록 영어로 프롬프트를 작성하는 것을 권장합니다. 마지막으로 Windows 환경에서 Docker 세팅이 까다로운 경우가 있으니, WSL2 기반 환경을 구성하고 진행하시는 것이 안전합니다.

💡 현실적인 추천: 처음부터 GPT-4o를 연결하지 말고, Ollama로 DeepSeek-R1-7B 같은 로컬 모델을 붙여서 먼저 테스트해 보세요. 비용 걱정 없이 DeerFlow의 구조와 흐름을 파악한 뒤, 실제 업무에 쓸 때 강력한 모델로 바꾸는 것이 최선의 접근법입니다.

▲ 목차로 돌아가기

자주 묻는 질문 (Q&A)

Q1
DeerFlow 2.0은 완전 무료인가요?

DeerFlow 자체는 MIT 라이선스 오픈소스라 무료입니다. 다만 뒤에서 돌아가는 LLM API 비용(OpenAI, Claude 등)과 웹 검색을 위한 Tavily API 비용은 별도로 발생합니다. Tavily는 월 1,000회 무료 플랜이 있고, Ollama로 로컬 모델을 연결하면 API 비용 없이 완전 무료로 사용할 수 있습니다.

Q2
코딩을 전혀 모르는 사람도 쓸 수 있나요?

설치 과정(Docker, git, 터미널 명령어)에서 약간의 기술적 장벽이 있어 완전 초보자에게는 다소 어렵습니다. 하지만 설치를 한 번 완료한 이후부터는 웹 UI에서 자연어로 명령을 내리는 것만으로 모든 작업이 가능합니다. 유튜브에 설치 가이드 영상이 많으니 참고하시면 충분히 따라하실 수 있습니다.

Q3
ByteDance가 만든 거라 데이터가 중국 서버로 가는 것 아닌가요?

DeerFlow 자체는 셀프호스팅 오픈소스이므로 여러분의 서버나 PC에서만 실행됩니다. ByteDance 서버에는 아무것도 전송되지 않습니다. 단, LLM API로 OpenAI나 Anthropic 같은 외부 서비스를 연결하면 해당 회사의 서버에는 프롬프트가 전달됩니다. 보안이 중요하다면 Ollama로 완전 로컬 LLM을 연결하는 것을 추천합니다.

Q4
Perplexity Deep Research나 ChatGPT Tasks와 뭐가 다른가요?

Perplexity Deep Research나 ChatGPT Tasks는 클라우드 기반의 단일 에이전트 서비스입니다. DeerFlow는 멀티에이전트를 병렬로 실행하고, 실제 코드를 내 환경에서 실행하며, 파일을 직접 생성·저장할 수 있다는 점에서 본질적으로 다릅니다. 또한 오픈소스이므로 커스터마이징 범위가 훨씬 넓습니다.

Q5
어떤 모델과 연결할 때 가성비가 가장 좋나요?

리서치 위주의 가벼운 작업이라면 Gemini 2.0 Flash가 속도와 비용 면에서 최고의 가성비를 보입니다. 코드 생성과 복잡한 추론이 필요한 작업이라면 DeepSeek-V3이 GPT-4o 대비 훨씬 저렴하면서도 준수한 성능을 냅니다. 완전 무료를 원한다면 Ollama에서 llama3.3-70B 또는 DeepSeek-R1-7B를 로컬로 구동하는 것을 추천합니다.

▲ 목차로 돌아가기

마치며 — 총평

DeerFlow 2.0은 분명히 2026년 상반기를 대표하는 오픈소스 프로젝트 중 하나입니다. GitHub 트렌딩 1위라는 수치가 단순한 과대 홍보가 아닌 이유는, 그동안 AI 에이전트 생태계에서 ‘실행 환경’이라는 결정적인 퍼즐 조각이 빠져 있었기 때문입니다. DeerFlow는 AI에게 실제 컴퓨터를 줘서 그 퍼즐을 맞췄습니다.

물론 아직 초기 버전의 거친 부분이 있고, 설치 장벽이 있고, API 비용 고려도 필요합니다. 하지만 무거운 리서치·자동화 업무를 반복적으로 하는 분들, 특히 콘텐츠 제작자·리서처·데이터 분석가라면 지금 당장 테스트해볼 만한 충분한 가치가 있습니다. AI 도구는 써본 사람과 안 써본 사람의 격차가 시간이 지날수록 벌어집니다. 오늘 설치해 보시기 바랍니다.

종합 평점:
설치 편의성 ★★★☆☆ / 기능 완성도 ★★★★☆ / 비용 효율성 ★★★★☆ / 확장성 ★★★★★ / 한국어 지원 ★★★☆☆

▲ 목차로 돌아가기

※ 본 포스팅은 DeerFlow 2.0의 공개 GitHub 저장소(MIT 라이선스) 및 공식 문서를 기반으로 작성되었습니다. LLM API 비용 및 서비스 정책은 각 제공사의 기준에 따라 변동될 수 있으며, 오픈소스 프로젝트 특성상 기능 및 인터페이스는 버전에 따라 달라질 수 있습니다. 투자·법률·의료 조언이 아닙니다.

댓글 남기기


최신 글


아이테크 어른경제에서 더 알아보기

지금 구독하여 계속 읽고 전체 아카이브에 액세스하세요.

계속 읽기