/ 目录 / 演练场 / deep-research
● 社区 u14app ⚡ 即开即用

deep-research

作者 u14app · u14app/deep-research

使用你的 LLM key 在约 2 分钟内生成完整的深度研究报告 —— 一次工具调用,服务器内的多步骤网络研究。

u14app/deep-research 是一个以 MCP server 形式暴露的研究代理。你自带模型(Gemini、OpenAI、Claude、Deepseek、Ollama 等),可选配搜索提供商 key(Tavily、Firecrawl、Exa、Brave)。单次工具调用运行规划、搜索和写作 —— 返回一份有引用的 markdown 报告。

为什么要用

核心特性

实时演示

实际使用效果

deep-research.replay ▶ 就绪
0/0

安装

选择你的客户端

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

打开 Claude Desktop → Settings → Developer → Edit Config。保存后重启应用。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Cursor 使用与 Claude Desktop 相同的 mcpServers 格式。项目级配置优先于全局。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

点击 Cline 侧栏中的 MCP Servers 图标,然后选 "Edit Configuration"。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

格式与 Claude Desktop 相同。重启 Windsurf 生效。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "deep-research",
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ]
    }
  ]
}

Continue 使用服务器对象数组,而非映射。

~/.config/zed/settings.json
{
  "context_servers": {
    "deep-research": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "deep-research"
        ]
      }
    }
  }
}

加入 context_servers。Zed 保存后热重载。

claude mcp add deep-research -- npx -y deep-research

一行命令搞定。用 claude mcp list 验证,claude mcp remove 卸载。

使用场景

实战用法: deep-research

如何在 2 分钟内生成竞争对手市场扫描

👤 创始人、产品经理、战略分析师 ⏱ ~10 min beginner

何时使用: 你需要获得某个领域的有来源的全景图(比如'开源向量数据库'),但面对的是空白文档。

前置条件
  • LLM API key(MCP_AI_PROVIDER + 提供商 key) — 从 aistudio.google.com 获取 Gemini key 或从 platform.openai.com 获取 OpenAI key
  • 可选的搜索 key(Tavily 或 Firecrawl) — tavily.com 或 firecrawl.dev —— 免费层足够支撑几份报告
步骤
  1. 使用聚焦的话题调用研究工具
    对'用于 RAG 的托管向量数据库:截至 2026 年的定价、摄取规模和混合搜索支持'进行深度研究。目标 1500 字,包含引用。✓ 已复制
    → 长时间运行的调用返回一份包含链接的结构化报告
  2. 请求对比表
    从报告中生成 markdown 表格:provider | free tier | max vectors | hybrid search | notes。✓ 已复制
    → 可以粘贴到任何地方的整洁表格
  3. 深入研究一个竞争对手
    运行第二次深度研究,仅关注 Qdrant 自 2024 年以来的定价变化。✓ 已复制
    → 更紧凑、更具体的报告

结果: 一份 1-2k 字的有引用的简报,你可以在同一天发给领导。

注意事项
  • 某些 MCP 客户端的默认 2 分钟超时会中断调用 — 将客户端超时提高到 600 秒 —— 这是一个长时间运行的工具
  • 如果搜索提供商返回空结果,引用可能会出现幻觉 — 使用 Tavily 或 Firecrawl 而不是模型原生搜索以获得更高的接地性
搭配使用: firecrawl · notion

如何生成带有来源的技术决策备忘录

👤 高级工程师、架构师 ⏱ ~15 min intermediate

何时使用: 你需要在两种技术之间做出选择,并需要一份有说服力的文档。

步骤
  1. 清晰地框定问题
    深度研究:'Rails 7 单体应该在 2026 年迁移到 sidekiq-pro 还是到专属 Go worker 服务?' —— 权衡运维成本、故障模式、社区支持。返回 1200 字的引用内容。✓ 已复制
    → 每个选项都有来源的优缺点备忘录
  2. 请求反方意见
    现在反驳这个备忘录 —— 一个怀疑者会说什么?✓ 已复制
    → 以来源为基础的反对论点

结果: 一份决策备忘录 + 反驳备忘录,准备好进行架构审查。

注意事项
  • 报告会很快过时 —— 2024 年的信息可能与 2026 年的现实相矛盾 — 用'截至 2026 年'固定查询,发布前重新运行
搭配使用: notion · github

如何为论文起草文献综述部分

👤 研究人员、研究生 ⏱ ~20 min intermediate

何时使用: 你对该领域有了解,但希望获得一份结构化的概述 + 可以检查的引用。

步骤
  1. 定义范围和时间跨度
    对'transformer 注意力头的机械可解释性 2022-2026'进行深度研究。按主题组织(circuits、superposition、SAE)。引用 arXiv。✓ 已复制
    → 带 arXiv 链接的主题综述
  2. 使用 paper-search 进行交叉检查
    使用 paper-search MCP 查找报告中缺失的任何主要论文。✓ 已复制
    → 差距列表

结果: 一份包含你仍需通过直接阅读来验证的来源的草稿部分。

注意事项
  • 不要引用 Claude 生成的内容而不阅读来源 — 将输出视为起始参考书目 —— 阅读你引用的每一篇论文
搭配使用: paper-search

组合

与其他 MCP 搭配,撬动十倍杠杆

deep-research + firecrawl

在综合前使用 firecrawl 进行更高质量的网络检索

使用 firecrawl 作为搜索后端,深度研究'AI 编码代理基准 Q1 2026'。✓ 已复制
deep-research + notion

将完成的报告放入 Notion 数据库供团队审查

深度研究完成后,在'Research'下创建一个标题为今天日期的 Notion 页面,并粘贴完整的 markdown。✓ 已复制
deep-research + paper-search

结合网络研究和 arXiv 覆盖范围来处理学术主题

做一份关于宪法 AI 的深度研究报告,然后使用 paper-search 添加来源中缺失的任何 2025-2026 arXiv 论文。✓ 已复制

工具

此 MCP 暴露的能力

工具输入参数何时调用成本
deep_research topic: str, depth?: 'shallow'|'standard'|'deep', length_words?: int, language?: str 当你想要一份有来源的报告而不是聊天回复时 Many LLM + search calls — plan for $0.05-$0.50 per report depending on model

成本与限制

运行它的成本

API 配额
受你选择的 LLM + 搜索提供商配额限制
每次调用 Token 数
单份报告在规划 + 综合的思维模型上消耗 50k-300k tokens
费用
自备 key —— Gemini Flash 上每份报告 $0.05-$0.50;Claude Opus 上 $1-$5
提示
使用廉价规划器 + 昂贵编写器分割:MCP_TASK_MODEL=gemini-flash,MCP_THINKING_MODEL=claude-sonnet。节省 3-5 倍成本。

安全

权限、密钥、影响范围

最小权限: 你启用的提供商的 API key
凭据存储: 环境变量(MCP_AI_PROVIDER、提供商 API key、搜索 key、可选 ACCESS_PASSWORD)
数据出站: 你的 prompt 流向你配置的 LLM 提供商 + 搜索提供商;MCP server 本身不会回传数据
切勿授予: 生产计费 key —— 使用有月度上限的受限 key

故障排查

常见错误与修复

客户端在 2 分钟时超时

将 MCP 客户端超时提高到 600 秒。这个工具按设计是长时间运行的。

缺少 MCP_AI_PROVIDER

将 MCP_AI_PROVIDER 环境变量设置为以下之一:google、openai、anthropic、deepseek、xai、mistral、azure、openrouter、ollama。

验证: env | grep MCP_AI_PROVIDER
搜索返回空结果 / 报告为空

将 MCP_SEARCH_PROVIDER 从'model'切换到'tavily'或'firecrawl'并提供 key。

来自 ACCESS_PASSWORD 保护服务器的 401

将密码作为 header 添加到客户端配置:'Authorization: Bearer <password>'。

替代方案

deep-research 对比其他方案

替代方案何时用它替代权衡
OpenAI Deep Research你为 ChatGPT Pro 付费并希望零配置无 MCP、无 BYO 模型、锁定在 OpenAI
Gemini Deep Research你已经使用 Gemini Advanced相同的锁定供应商权衡
firecrawl MCP你想要原始爬取的页面并将自己进行综合没有自主规划器;你编排步骤

更多

资源

📖 阅读 GitHub 上的官方 README

🐙 查看未解决的 issue

🔍 浏览全部 400+ MCP 服务器和 Skills