/ Directorio / Playground / deep-research
● Comunidad u14app ⚡ Instantáneo

deep-research

por u14app · u14app/deep-research

Genera un informe completo de investigación profunda en ~2 minutos usando tus propias claves LLM — una llamada a herramienta, investigación web multi-paso dentro del servidor.

u14app/deep-research es un agente de investigación expuesto como servidor MCP. Trae tu propio modelo (Gemini, OpenAI, Claude, Deepseek, Ollama, etc.) y opcionalmente una clave de proveedor de búsqueda (Tavily, Firecrawl, Exa, Brave). Una única llamada a herramienta ejecuta planificación, búsqueda y escritura — devolviendo un informe markdown citado.

Por qué usarlo

Características clave

Demo en vivo

Cómo se ve en la práctica

deep-research.replay ▶ listo
0/0

Instalar

Elige tu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Abre Claude Desktop → Settings → Developer → Edit Config. Reinicia después de guardar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Cursor usa el mismo esquema mcpServers que Claude Desktop. La configuración del proyecto prevalece sobre la global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Haz clic en el icono MCP Servers de la barra lateral de Cline y luego en "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Mismo formato que Claude Desktop. Reinicia Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "deep-research",
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ]
    }
  ]
}

Continue usa un array de objetos de servidor en lugar de un mapa.

~/.config/zed/settings.json
{
  "context_servers": {
    "deep-research": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "deep-research"
        ]
      }
    }
  }
}

Añádelo a context_servers. Zed recarga en caliente al guardar.

claude mcp add deep-research -- npx -y deep-research

Un solo comando. Verifica con claude mcp list. Quita con claude mcp remove.

Casos de uso

Usos del mundo real: deep-research

Cómo producir un análisis competitivo del mercado en 2 minutos

👤 Fundadores, PM, analistas de estrategia ⏱ ~10 min beginner

Cuándo usarlo: Necesitas un panorama documentado de un espacio (digamos, 'bases de datos vectoriales de código abierto') y tienes un documento en blanco esperándote.

Requisitos previos
  • Una clave API LLM (MCP_AI_PROVIDER + clave del proveedor) — Obtén una clave Gemini en aistudio.google.com u una clave OpenAI en platform.openai.com
  • Clave de búsqueda opcional (Tavily o Firecrawl) — tavily.com o firecrawl.dev — la capa gratuita es suficiente para algunos informes
Flujo
  1. Llama a la herramienta de investigación con un tema enfocado
    Ejecuta investigación profunda en 'bases de datos vectoriales gestionadas para RAG: precios, escala de ingesta y soporte de búsqueda híbrida a partir de 2026'. Objetivo 1500 palabras, incluye citas.✓ Copiado
    → La llamada de larga ejecución devuelve un informe estructurado con enlaces
  2. Solicita una tabla de comparación
    Del informe, produce una tabla markdown: proveedor | capa gratuita | vectores máx | búsqueda híbrida | notas.✓ Copiado
    → Tabla limpia que puedas pegar en cualquier lugar
  3. Profundiza en un competidor
    Ejecuta un segundo paso de investigación profunda enfocado solo en los cambios de precios de Qdrant desde 2024.✓ Copiado
    → Informe más ajustado y específico

Resultado: Un resumen citado de 1-2k palabras que puedas enviar a liderazgo el mismo día.

Errores comunes
  • El tiempo de espera predeterminado de 2 minutos en algunos clientes MCP mata la llamada — Aumenta el tiempo de espera del cliente a 600s — esta es una herramienta de larga ejecución
  • Las citas pueden alucinar si el proveedor de búsqueda no devuelve nada — Usa Tavily o Firecrawl en lugar de búsqueda nativa del modelo para un mayor anclaje
Combinar con: firecrawl · notion

Cómo producir un memorando de decisión técnica con fuentes

👤 Ingenieros senior, arquitectos ⏱ ~15 min intermediate

Cuándo usarlo: Tienes que elegir entre dos tecnologías y necesitas un escrito defendible.

Flujo
  1. Encuadra la pregunta claramente
    Investigación profunda: '¿Debería un monolito Rails 7 migrar a sidekiq-pro o a un servicio worker Go dedicado en 2026?' — sopesa costo operativo, modos de fallo, soporte comunitario. Devuelve 1200 palabras con citas.✓ Copiado
    → Memorando documentado con pros/contras por opción
  2. Solicita la perspectiva contraria
    Ahora refuta el memorando — ¿qué diría un escéptico?✓ Copiado
    → Contra-argumentos basados en las fuentes

Resultado: Un memorando de decisión + contra-memorando, listo para una revisión de arquitectura.

Errores comunes
  • El informe se vuelve obsoleto rápidamente — la información de 2024 puede contradecir la realidad de 2026 — Fija consultas con 'a partir de 2026' y vuelve a ejecutar antes de publicar
Combinar con: notion · github

Cómo redactar una sección de revisión de literatura para un artículo

👤 Investigadores, estudiantes de posgrado ⏱ ~20 min intermediate

Cuándo usarlo: Conoces el campo pero quieres un resumen estructurado + citas para verificar.

Flujo
  1. Define alcance y período de tiempo
    Investigación profunda en 'interpretabilidad mecanicista de cabezales de atención de transformers 2022-2026'. Organiza por tema (circuitos, superposición, SAE). Cita arXiv.✓ Copiado
    → Revisión temática con enlaces de arXiv
  2. Verifica cruzadamente con paper-search
    Usa MCP paper-search para encontrar cualquier artículo importante faltante del informe.✓ Copiado
    → Lista de brechas

Resultado: Una sección borrador con fuentes que aún necesitas verificar leyendo directamente.

Errores comunes
  • No cites lo que Claude produjo sin leer la fuente — Trata la salida como una bibliografía inicial — lee cada artículo que cites
Combinar con: paper-search

Combinaciones

Combínalo con otros MCPs para multiplicar por 10

deep-research + firecrawl

Usa firecrawl para una recuperación web de mayor calidad antes de sintetizar

Usando firecrawl como backend de búsqueda, investigación profunda 'benchmarks de agentes de codificación AI Q1 2026'.✓ Copiado
deep-research + notion

Deposita el informe terminado en una base de datos Notion para revisión del equipo

Después de que la investigación profunda termine, crea una página Notion titulada con la fecha de hoy bajo 'Research' y pega el markdown completo.✓ Copiado
deep-research + paper-search

Combina investigación web con cobertura de arXiv para temas académicos

Haz un informe de investigación profunda sobre AI constitucional, luego usa paper-search para agregar cualquier artículo de arXiv 2025-2026 faltante de las fuentes.✓ Copiado

Herramientas

Lo que expone este MCP

HerramientaEntradasCuándo llamarCoste
deep_research topic: str, depth?: 'shallow'|'standard'|'deep', length_words?: int, language?: str Cuando quieres un informe documentado, no una respuesta de chat Muchas llamadas LLM + búsqueda — planifica $0.05-$0.50 por informe según el modelo

Coste y límites

Lo que cuesta ejecutarlo

Cuota de API
Limitado por tus cuotas de proveedor LLM + búsqueda elegidas
Tokens por llamada
Un único informe consume 50k-300k tokens en el modelo de pensamiento en toda la planificación + síntesis
Monetario
Trae tus propias claves — $0.05-$0.50 por informe en Gemini Flash; $1-$5 en Claude Opus
Consejo
Usa una división de planificador barato + escritor caro: MCP_TASK_MODEL=gemini-flash, MCP_THINKING_MODEL=claude-sonnet. Ahorro de costo de 3-5x.

Seguridad

Permisos, secretos, alcance

Ámbitos mínimos: Claves API para los proveedores que habilitas
Almacenamiento de credenciales: Variables de entorno (MCP_AI_PROVIDER, claves API del proveedor, claves de búsqueda, ACCESS_PASSWORD opcional)
Salida de datos: Tus prompts van a cualquier proveedor LLM + proveedor de búsqueda que configures; el servidor MCP en sí no se conecta a casa
No conceder nunca: Claves de facturación de producción — usa una clave con alcance con un límite mensual

Resolución de problemas

Errores comunes y soluciones

El cliente agota el tiempo de espera a los 2 minutos

Aumenta el tiempo de espera del cliente MCP a 600s. Esta herramienta está diseñada para larga ejecución.

Falta MCP_AI_PROVIDER

Establece la variable de entorno MCP_AI_PROVIDER en una de: google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, ollama.

Verificar: env | grep MCP_AI_PROVIDER
La búsqueda no devuelve nada / el informe está vacío

Cambia MCP_SEARCH_PROVIDER de 'model' a 'tavily' o 'firecrawl' y proporciona la clave.

401 del servidor protegido por ACCESS_PASSWORD

Agrega la contraseña a la configuración del cliente como encabezado: 'Authorization: Bearer <password>'.

Alternativas

deep-research vs otros

AlternativaCuándo usarlaContrapartida
OpenAI Deep ResearchPagas por ChatGPT Pro y quieres cero configuraciónSin MCP, sin BYO-model, bloqueado con OpenAI
Gemini Deep ResearchYa usas Gemini AdvancedEl mismo intercambio de proveedor bloqueado
firecrawl MCPQuieres páginas raspadas sin procesar y sintetizarás tú mismoSin planificador autónomo; orquestas los pasos

Más

Recursos

📖 Lee el README oficial en GitHub

🐙 Ver issues abiertas

🔍 Ver todos los 400+ servidores MCP y Skills