/ Diretório / Playground / deep-research
● Comunidade u14app ⚡ Instantâneo

deep-research

por u14app · u14app/deep-research

Gere um relatório de pesquisa profunda completo em ~2 minutos usando suas próprias chaves de LLM — uma chamada de ferramenta, pesquisa web multi-etapas dentro do servidor.

u14app/deep-research é um agente de pesquisa exposto como um servidor MCP. Você traz seu próprio modelo (Gemini, OpenAI, Claude, Deepseek, Ollama, etc.) e opcionalmente uma chave de provedor de busca (Tavily, Firecrawl, Exa, Brave). Uma única chamada de ferramenta executa planejamento, busca e escrita — retornando um relatório markdown citado.

Por que usar

Principais recursos

Demo ao vivo

Como fica na prática

deep-research.replay ▶ pronto
0/0

Instalar

Escolha seu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Abra Claude Desktop → Settings → Developer → Edit Config. Reinicie após salvar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Cursor usa o mesmo esquema mcpServers que o Claude Desktop. Config de projeto vence a global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Clique no ícone MCP Servers na barra lateral do Cline, depois "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Mesmo formato do Claude Desktop. Reinicie o Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "deep-research",
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ]
    }
  ]
}

O Continue usa um array de objetos de servidor em vez de um map.

~/.config/zed/settings.json
{
  "context_servers": {
    "deep-research": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "deep-research"
        ]
      }
    }
  }
}

Adicione em context_servers. Zed recarrega automaticamente ao salvar.

claude mcp add deep-research -- npx -y deep-research

Uma linha só. Verifique com claude mcp list. Remova com claude mcp remove.

Casos de uso

Usos do mundo real: deep-research

Como produzir uma varredura de mercado competitivo em 2 minutos

👤 Fundadores, PMs, analistas de estratégia ⏱ ~10 min beginner

Quando usar: Você precisa de um panorama fundamentado de um espaço (digamos, 'bancos de dados de vetores de código aberto') e um documento em branco está olhando para você.

Pré-requisitos
  • Uma chave de API LLM (MCP_AI_PROVIDER + chave de provedor) — Obtenha uma chave Gemini em aistudio.google.com ou uma chave OpenAI em platform.openai.com
  • Chave de busca opcional (Tavily ou Firecrawl) — tavily.com ou firecrawl.dev — o nível gratuito é suficiente para alguns relatórios
Fluxo
  1. Chame a ferramenta de pesquisa com um tópico focado
    Execute pesquisa profunda sobre 'bancos de dados de vetores gerenciados para RAG: preços, escala de ingestão e suporte a busca híbrida a partir de 2026'. Objetivo 1500 palavras, inclua citações.✓ Copiado
    → Chamada de longa duração retorna um relatório estruturado com links
  2. Solicite uma tabela de comparação
    A partir do relatório, produza uma tabela markdown: provedor | nível gratuito | máx de vetores | busca híbrida | notas.✓ Copiado
    → Tabela limpa que você pode colar em qualquer lugar
  3. Aprofunde-se em um concorrente
    Execute um segundo passe de pesquisa profunda focado apenas nas mudanças de preços da Qdrant desde 2024.✓ Copiado
    → Relatório mais apertado e específico

Resultado: Um resumo citado de 1-2k palavras que você pode enviar à liderança no mesmo dia.

Armadilhas
  • Tempo limite padrão de 2 minutos em alguns clientes MCP mata a chamada — Aumente o tempo limite do cliente para 600s — esta é uma ferramenta de longa duração
  • As citações podem alucinar se o provedor de busca não retornar nada — Use Tavily ou Firecrawl em vez de busca nativa do modelo para maior fundamentação
Combine com: firecrawl · notion

Como produzir um memorando de decisão técnica com fontes

👤 Engenheiros sênior, arquitetos ⏱ ~15 min intermediate

Quando usar: Você tem que escolher entre duas tecnologias e precisa de uma redação defensável.

Fluxo
  1. Estruture a pergunta nitidamente
    Pesquisa profunda: 'Um monolito Rails 7 deve migrar para sidekiq-pro ou para um serviço de worker Go dedicado em 2026?' — pesar custo de operações, modos de falha, suporte da comunidade. Retorne 1200 palavras com citações.✓ Copiado
    → Memorando fundamentado com prós/contras por opção
  2. Peça a visão contrária
    Agora refute o memorando — o que um cético diria?✓ Copiado
    → Contra-argumentos fundamentados nas fontes

Resultado: Um memorando de decisão + contra-memorando, pronto para uma revisão de arquitetura.

Armadilhas
  • O relatório fica desatualizado rapidamente — informações de 2024 podem contradizer a realidade de 2026 — Fixe as consultas com 'a partir de 2026' e execute novamente antes de publicar
Combine com: notion · github

Como redigir uma seção de revisão de literatura para um artigo

👤 Pesquisadores, alunos de pós-graduação ⏱ ~20 min intermediate

Quando usar: Você conhece o campo mas quer um panorama estruturado + citações para verificar.

Fluxo
  1. Defina o escopo e o período de tempo
    Pesquisa profunda sobre 'interpretabilidade mecanística de cabeças de atenção do transformador 2022-2026'. Organize por tema (circuitos, superposição, SAE). Cite arXiv.✓ Copiado
    → Revisão temática com links do arXiv
  2. Verifique com paper-search
    Use paper-search MCP para encontrar artigos importantes ausentes do relatório.✓ Copiado
    → Lista de lacunas

Resultado: Uma seção de rascunho com fontes que você ainda precisa verificar lendo diretamente.

Armadilhas
  • Não cite o que Claude produziu sem ler a fonte — Trate a saída como uma bibliografia inicial — leia cada artigo que você cita
Combine com: paper-search

Combinações

Combine com outros MCPs para 10× de alavancagem

deep-research + firecrawl

Use firecrawl para recuperação web de maior qualidade antes de sintetizar

Usando firecrawl como backend de busca, pesquisa profunda 'benchmarks de agentes de codificação de IA Q1 2026'.✓ Copiado
deep-research + notion

Coloque o relatório finalizado em um banco de dados Notion para revisão da equipe

Após a conclusão da pesquisa profunda, crie uma página Notion intitulada com a data de hoje em 'Pesquisa' e cole o markdown completo.✓ Copiado
deep-research + paper-search

Combine pesquisa web com cobertura do arXiv para tópicos acadêmicos

Faça um relatório de pesquisa profunda sobre AI constitucional, depois use paper-search para adicionar artigos do arXiv 2025-2026 ausentes das fontes.✓ Copiado

Ferramentas

O que este MCP expõe

FerramentaEntradasQuando chamarCusto
deep_research topic: str, depth?: 'shallow'|'standard'|'deep', length_words?: int, language?: str Quando você quer um relatório fundamentado, não uma resposta de chat Muitas chamadas de LLM + busca — planeje $0,05-$0,50 por relatório dependendo do modelo

Custo e limites

O que custa rodar

Cota de API
Limitado pelas cotas do seu LLM escolhido + provedor de busca
Tokens por chamada
Um único relatório consome 50k-300k tokens no modelo de pensamento em todo planejamento + síntese
Monetário
Traga suas próprias chaves — $0,05-$0,50 por relatório no Gemini Flash; $1-$5 no Claude Opus
Dica
Use uma divisão de planejador barato + escritor caro: MCP_TASK_MODEL=gemini-flash, MCP_THINKING_MODEL=claude-sonnet. Economia de 3-5x custo.

Segurança

Permissões, segredos, alcance

Escopos mínimos: Chaves de API para os provedores que você habilita
Armazenamento de credenciais: Variáveis de ambiente (MCP_AI_PROVIDER, chaves de API do provedor, chaves de busca, ACCESS_PASSWORD opcional)
Saída de dados: Seus prompts vão para qualquer provedor de LLM + provedor de busca que você configure; o servidor MCP em si não faz contato com a casa
Nunca conceda: Chaves de cobrança de produção — use uma chave com escopo e limite mensal

Solução de problemas

Erros comuns e correções

Cliente expira em 2 minutos

Aumente o tempo limite do cliente MCP para 600s. Esta ferramenta é de longa duração por design.

MCP_AI_PROVIDER ausente

Defina a variável de ambiente MCP_AI_PROVIDER para uma das seguintes: google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, ollama.

Verificar: env | grep MCP_AI_PROVIDER
Busca não retorna nada / relatório está vazio

Mude MCP_SEARCH_PROVIDER de 'model' para 'tavily' ou 'firecrawl' e forneça a chave.

401 de servidor protegido por ACCESS_PASSWORD

Adicione a senha à configuração do cliente como um cabeçalho: 'Authorization: Bearer <password>'.

Alternativas

deep-research vs. outros

AlternativaQuando usarTroca
OpenAI Deep ResearchVocê paga por ChatGPT Pro e quer zero configuraçãoSem MCP, sem modelo próprio, preso ao OpenAI
Gemini Deep ResearchVocê já usa Gemini AdvancedMesmo comprometimento de fornecedor bloqueado
firecrawl MCPVocê quer páginas raspadas brutas e sintetizará você mesmoSem planejador autônomo; você orquestra as etapas

Mais

Recursos

📖 Leia o README oficial no GitHub

🐙 Ver issues abertas

🔍 Ver todos os 400+ servidores MCP e Skills