/ 디렉터리 / 플레이그라운드 / deep-research
● 커뮤니티 u14app ⚡ 바로 사용

deep-research

제작: u14app · u14app/deep-research

자신의 LLM 키를 사용하여 ~2분 안에 완전한 심층 연구 보고서를 생성합니다 — 한 번의 도구 호출로 서버 내에서 다단계 웹 검색을 수행합니다.

u14app/deep-research는 MCP 서버로 노출된 연구 에이전트입니다. 자신의 모델(Gemini, OpenAI, Claude, Deepseek, Ollama 등)을 가져오고, 필요에 따라 검색 제공자 키(Tavily, Firecrawl, Exa, Brave)를 제공합니다. 한 번의 도구 호출로 계획, 검색, 작성을 실행합니다 — 인용이 포함된 마크다운 보고서를 반환합니다.

왜 쓰나요

핵심 기능

라이브 데모

실제 사용 모습

deep-research.replay ▶ 준비됨
0/0

설치

클라이언트 선택

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop → Settings → Developer → Edit Config 열기. 저장 후 앱 재시작.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Cursor는 Claude Desktop과 동일한 mcpServers 스키마 사용. 프로젝트 설정이 전역보다 우선.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Cline 사이드바의 MCP Servers 아이콘 클릭 후 "Edit Configuration" 선택.

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop과 같은 형식. Windsurf 재시작 후 적용.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "deep-research",
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ]
    }
  ]
}

Continue는 맵이 아닌 서버 오브젝트 배열 사용.

~/.config/zed/settings.json
{
  "context_servers": {
    "deep-research": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "deep-research"
        ]
      }
    }
  }
}

context_servers에 추가. 저장 시 Zed가 핫 리로드.

claude mcp add deep-research -- npx -y deep-research

한 줄 명령. claude mcp list로 확인, claude mcp remove로 제거.

사용 사례

실전 활용법: deep-research

2분 안에 경쟁사 시장 조사를 생산하는 방법

👤 창업자, PM, 전략 분석가 ⏱ ~10 min beginner

언제 쓸까: 한 분야의 출처 있는 현황(예: '오픈소스 벡터 DB')이 필요하고 빈 문서 앞에 있을 때

사전 조건
  • LLM API 키(MCP_AI_PROVIDER + 제공자 키) — aistudio.google.com에서 Gemini 키를 받거나 platform.openai.com에서 OpenAI 키를 받으세요
  • 선택적 검색 키(Tavily 또는 Firecrawl) — tavily.com 또는 firecrawl.dev — 무료 요금제는 몇 개의 보고서로 충분합니다
흐름
  1. 집중된 주제로 연구 도구를 호출합니다
    2026년 기준 'RAG용 관리형 벡터 데이터베이스: 가격 책정, 수집 규모, 하이브리드 검색 지원'에 대한 심층 연구를 실행합니다. 1500단어를 목표로 하고 인용을 포함합니다.✓ 복사됨
    → 장시간 실행되는 호출이 링크가 포함된 구조화된 보고서를 반환합니다
  2. 비교 표를 요청합니다
    보고서에서 마크다운 표를 생성합니다: 제공자 | 무료 요금제 | 최대 벡터 | 하이브리드 검색 | 주석✓ 복사됨
    → 어디든 붙여넣을 수 있는 깔끔한 표
  3. 한 경쟁사에 집중합니다
    2024년 이후 Qdrant의 가격 변화에만 집중한 두 번째 심층 연구를 실행합니다.✓ 복사됨
    → 더 긴밀하고 구체적인 보고서

결과: 리더십에 같은 날에 보낼 수 있는 1-2k 단어의 인용 브리핑

함정
  • 일부 MCP 클라이언트의 기본 2분 타임아웃이 호출을 중단합니다 — 클라이언트 타임아웃을 600초로 증가시키세요 — 이것은 장시간 실행되는 도구입니다
  • 검색 제공자가 아무것도 반환하지 않으면 인용이 환각될 수 있습니다 — 더 높은 접지를 위해 모델 기본 검색보다 Tavily 또는 Firecrawl을 사용합니다
함께 쓰기: firecrawl · notion

출처가 포함된 기술 결정 메모를 작성하는 방법

👤 선임 엔지니어, 아키텍트 ⏱ ~15 min intermediate

언제 쓸까: 두 가지 기술 중에서 선택해야 하고 방어 가능한 작성이 필요할 때

흐름
  1. 질문을 명확하게 정의합니다
    심층 연구: 'Rails 7 모놀리식이 2026년에 sidekiq-pro로 마이그레이션해야 할까요, 아니면 전용 Go 워커 서비스로 마이그레이션해야 할까요?' — 운영 비용, 실패 모드, 커뮤니티 지원을 비교합니다. 인용이 포함된 1200단어를 반환합니다.✓ 복사됨
    → 각 옵션별로 장단점이 있는 출처 있는 메모
  2. 반대 의견을 요청합니다
    이제 메모를 반박합니다 — 회의론자는 어떻게 말할까요?✓ 복사됨
    → 출처에 근거한 반박 논증

결과: 아키텍처 검토를 위한 준비가 완료된 결정 메모 + 반박 메모

함정
  • 보고서가 빠르게 오래되었습니다 — 2024년 정보가 2026년 현실과 모순될 수 있습니다 — '2026년 기준'으로 쿼리를 고정하고 발행하기 전에 다시 실행합니다
함께 쓰기: notion · github

논문의 문헌 검토 섹션을 작성하는 방법

👤 연구자, 대학원생 ⏱ ~20 min intermediate

언제 쓸까: 분야를 알지만 확인할 구조화된 개요 + 인용이 필요할 때

흐름
  1. 범위와 기간을 정의합니다
    기간 2022-2026에서 '트랜스포머 주의 헤드의 기계적 해석 가능성'에 대한 심층 연구. 주제별로 구성합니다(회로, 중첩, SAE). arXiv를 인용합니다.✓ 복사됨
    → arXiv 링크가 있는 주제별 검토
  2. paper-search로 상호 확인합니다
    보고서에서 누락된 주요 논문을 찾기 위해 paper-search MCP를 사용합니다.✓ 복사됨
    → 격차 목록

결과: 직접 읽어서 확인해야 할 출처가 포함된 초안 섹션

함정
  • 출처를 읽지 않고 Claude가 생산한 것을 인용하지 마세요 — 출력을 시작 참고문헌으로 취급합니다 — 인용하는 모든 논문을 읽습니다
함께 쓰기: paper-search

조합

다른 MCP와 조합해 10배 효율

deep-research + firecrawl

합성하기 전에 firecrawl을 사용하여 더 높은 품질의 웹 검색을 수행합니다

firecrawl을 검색 백엔드로 사용하여 'AI 코딩 에이전트 벤치마크 Q1 2026'에 대한 심층 연구를 수행합니다.✓ 복사됨
deep-research + notion

완성된 보고서를 팀 검토를 위해 Notion 데이터베이스에 드롭합니다

심층 연구가 완료된 후 '연구' 아래에 오늘 날짜를 제목으로 하는 Notion 페이지를 만들고 전체 마크다운을 붙여넣습니다.✓ 복사됨
deep-research + paper-search

학술 주제를 위해 웹 검색을 arXiv 커버리지와 결합합니다

헌법적 AI에 대한 심층 연구 보고서를 작성한 다음 paper-search를 사용하여 출처에서 누락된 2025-2026 arXiv 논문을 추가합니다.✓ 복사됨

도구

이 MCP가 노출하는 것

도구입력언제 호출비용
deep_research topic: str, depth?: 'shallow'|'standard'|'deep', length_words?: int, language?: str 채팅 회신이 아닌 출처가 있는 보고서를 원할 때 많은 LLM + 검색 호출 — 모델에 따라 보고서당 $0.05-$0.50을 계획합니다

비용 및 제한

운영 비용

API 쿼터
선택한 LLM + 검색 제공자 할당량으로 제한됩니다
호출당 토큰
단일 보고서는 계획 + 합성에 걸쳐 생각 모델에서 50k-300k 토큰을 소비합니다
금액
자신의 키를 가져오세요 — Gemini Flash에서 보고서당 $0.05-$0.50; Claude Opus에서 $1-$5
저렴한 계획자 + 비싼 작성자 분할을 사용합니다: MCP_TASK_MODEL=gemini-flash, MCP_THINKING_MODEL=claude-sonnet. 3-5배 비용 절감.

보안

권한, 시크릿, 파급범위

최소 스코프: 활성화한 제공자의 API 키
자격 증명 저장: 환경 변수(MCP_AI_PROVIDER, 제공자 API 키, 검색 키, 선택적 ACCESS_PASSWORD)
데이터 외부 송신: 프롬프트는 구성한 LLM 제공자 + 검색 제공자로 이동합니다. MCP 서버 자체는 전화를 걸지 않습니다
절대 부여 금지: 프로덕션 청구 키 — 월간 한도가 있는 범위가 지정된 키를 사용합니다

문제 해결

자주 발생하는 오류와 해결

클라이언트가 2분에 타임아웃됩니다

MCP 클라이언트 타임아웃을 600초로 증가시키세요. 이 도구는 설계상 장시간 실행됩니다.

MCP_AI_PROVIDER가 누락되었습니다

MCP_AI_PROVIDER 환경 변수를 다음 중 하나로 설정합니다: google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, ollama.

확인: env | grep MCP_AI_PROVIDER
검색이 아무것도 반환하지 않음 / 보고서가 비어 있음

MCP_SEARCH_PROVIDER를 '모델'에서 'tavily' 또는 'firecrawl'로 전환하고 키를 제공합니다.

ACCESS_PASSWORD로 보호된 서버에서 401

클라이언트 구성에 암호를 헤더로 추가합니다: 'Authorization: Bearer <password>'.

대안

deep-research 다른 것과 비교

대안언제 쓰나단점/장점
OpenAI Deep ResearchChatGPT Pro을 결제하고 설정이 없기를 원할 때MCP 없음, BYO-모델 없음, OpenAI로 고정됨
Gemini Deep Research이미 Gemini Advanced를 사용 중일 때동일한 벤더 고정 트레이드오프
firecrawl MCP원본 스크랩된 페이지를 원하고 직접 합성할 때자동 계획자 없음. 단계를 직접 조율합니다

더 보기

리소스

📖 GitHub에서 공식 README 읽기

🐙 열린 이슈 보기

🔍 400+ MCP 서버 및 Skills 전체 보기