/ Directorio / Playground / Firecrawl
● Oficial firecrawl 🔑 Requiere tu clave

Firecrawl

por firecrawl · firecrawl/firecrawl-mcp-server

Convierte cualquier página web en datos limpios y estructurados que tu agente de IA pueda usar realmente — maneja sitios renderizados con JS y te devuelve JSON mediante esquema.

Firecrawl es un servicio de scraping hospedado optimizado para consumo por LLMs. Mientras que el MCP fetch básico te devuelve HTML sin procesar, Firecrawl renderiza páginas con mucho JS, elimina el código innecesario, devuelve Markdown limpio y soporta extracción estructurada mediante esquema JSON.

Por qué usarlo

Características clave

Demo en vivo

Cómo se ve en la práctica

firecrawl.replay ▶ listo
0/0

Instalar

Elige tu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Abre Claude Desktop → Settings → Developer → Edit Config. Reinicia después de guardar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Cursor usa el mismo esquema mcpServers que Claude Desktop. La configuración del proyecto prevalece sobre la global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Haz clic en el icono MCP Servers de la barra lateral de Cline y luego en "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Mismo formato que Claude Desktop. Reinicia Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "firecrawl",
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  ]
}

Continue usa un array de objetos de servidor en lugar de un mapa.

~/.config/zed/settings.json
{
  "context_servers": {
    "firecrawl": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "firecrawl-mcp"
        ]
      }
    }
  }
}

Añádelo a context_servers. Zed recarga en caliente al guardar.

claude mcp add firecrawl -- npx -y firecrawl-mcp

Un solo comando. Verifica con claude mcp list. Quita con claude mcp remove.

Casos de uso

Usos del mundo real: Firecrawl

Construir una tabla de comparación de precios de competidores en vivo

👤 Directores de producto, emprendedores haciendo investigación de mercado ⏱ ~20 min intermediate

Cuándo usarlo: Estás actualizando tu estrategia de precios y necesitas ver qué cobran 5 competidores por planes comparables, con fuentes.

Requisitos previos
  • Clave API de Firecrawl — firecrawl.dev — el nivel gratuito te da 500 créditos, suficiente para ~50 páginas
Flujo
  1. Define un esquema para lo que significa 'precios'
    Quiero comparar precios para [tu categoría]. Define un esquema que capture: nombre del plan, precio mensual, uso incluido, características clave y cualquier costo por exceso unitario.✓ Copiado
    → Esquema con estos campos como tipos estrictos
  2. Ejecuta extracción en 5 URLs de competidores en paralelo
    Extrae precios de estas 5 URLs usando el esquema: [lista URLs]. Usa el endpoint de extracción estructurada.✓ Copiado
    → 5 bloques JSON normalizados que puedas comparar
  3. Renderiza como tabla de comparación con citas
    Renderiza esto como tabla Markdown con cada competidor como columna. Añade una nota de cita que apunte a cada URL fuente.✓ Copiado
    → Comparación lista para insertar en un doc o presentación

Resultado: Una tabla de precios normalizada que puedas ejecutar de nuevo en cualquier momento para detectar cambios — cuesta ~5 créditos de Firecrawl por actualización.

Errores comunes
  • Las páginas de precios a menudo tienen conmutadores (mensual/anual, niveles de uso) que el scraping no revela — Ejecuta con actions: [{type: 'click', selector: '...toggle...'}] para capturar ambos estados, o anota la limitación en tu salida final
  • Algunos sitios bloquean scrapers a través de Cloudflare — Firecrawl maneja la mayoría. Si sigue bloqueado, la página probablemente usa medidas anti-bot intencionalmente — respeta eso y cita manualmente
Combinar con: notion · google-sheets

Monitorea el sitio de docs de un competidor para nuevas características

👤 Especialistas en marketing de productos, inteligencia competitiva ⏱ ~15 min intermediate

Cuándo usarlo: Quieres saber en 24 horas cuando un competidor lanza algo nuevo. Su changelog/blog es donde lo anuncian.

Requisitos previos
  • URL de su página de índice de changelog o blog — Usualmente /changelog, /blog, /releases, o /whats-new
Flujo
  1. Rastrea el índice del changelog
    Rastrea <URL> con depth=1, devuelve todas las URLs de posts y sus fechas. Limita a los 50 más recientes.✓ Copiado
    → Lista de posts recientes con fechas
  2. Extrae cada post en un formato normalizado
    Para posts publicados en los últimos 30 días, extrae título, fecha, resumen y cualquier mención de nombre de característica, en JSON.✓ Copiado
    → Changelog estructurado que puedas comparar contra la ejecución de la semana pasada
  3. Destaca qué es nuevo vs la semana pasada
    Compara con la ejecución anterior [pega JSON anterior]. ¿Qué es nuevo esta semana y cuál es la implicación estratégica?✓ Copiado
    → Diff con comentario estratégico

Resultado: Un resumen semanal de competidores que puedas ejecutar como trabajo programado — nunca pierdas un lanzamiento de característica.

Errores comunes
  • Los feeds RSS usualmente existen y son más baratos que scraping — Intenta primero <url>/feed.xml o <url>/rss — solo retrocede a scraping si no hay feed
Combinar con: notion

Enriquece una lista de URLs de empresas con datos demográficos de empresa estructurados

👤 Ventas, operaciones de marketing ⏱ ~30 min intermediate

Cuándo usarlo: Tienes un CSV de 200 sitios web de empresas y necesitas su conteo de empleados, industria y stack tecnológico para priorizar el alcance.

Requisitos previos
  • Lista fuente de URLs — CSV o archivo de texto de URLs de inicio
Flujo
  1. Define esquema de enriquecimiento
    Define un esquema para: company_name, industry, employee_count_estimate, headquarters_location, primary_product_description (1 línea), tech_stack_signals (lista).✓ Copiado
    → Esquema JSON estricto
  2. Extrae de cada URL con limitación de velocidad
    Para cada URL en [lista], ejecuta extracción de Firecrawl con el esquema. Procesa en lotes de 10 con pausas de 2 segundos para ser educado.✓ Copiado
    → JSON por URL, errores registrados por separado
  3. Produce un CSV limpio
    Convierte resultados a CSV con las URLs originales como clave de unión. Marca filas donde la extracción falló para que pueda reintentar manualmente.✓ Copiado
    → CSV listo para importar en tu CRM

Resultado: Una lista de leads enriquecidos de 200 filas en ~10 minutos por ~$2 en créditos de Firecrawl.

Errores comunes
  • Algunas empresas solo tienen una página splash sin información — Haz que Claude marque esos para revisión manual en lugar de alucinar
  • El costo se suma a escala — 10k URLs = dinero real — Muestrea primero para validar la calidad del esquema antes de ejecutar en la lista completa
Combinar con: filesystem

Combinaciones

Combínalo con otros MCPs para multiplicar por 10

firecrawl + notion

Raspa, resume, publica directamente en una base de conocimiento de Notion

Raspa cada post de anthropic.com/news en los últimos 30 días, resume cada uno en 2 oraciones, y crea una página de Notion en la base de datos 'AI News' para cada uno.✓ Copiado
firecrawl + postgres

Raspa datos de competidores semanalmente y almacena en tu BD para análisis de series de tiempo

Ejecuta mi extracción de precios de competidores, luego INSERT cada fila en la tabla competitor_pricing con la fecha de hoy.✓ Copiado
firecrawl + filesystem

Raspa sitios de docs y guarda como Markdown para indexación RAG offline

Rastrea docs.stripe.com, guarda cada página como archivo .md bajo /knowledge/stripe/.✓ Copiado

Herramientas

Lo que expone este MCP

HerramientaEntradasCuándo llamarCoste
firecrawl_scrape url: str, formats?: ['markdown'|'html'|'links'|'screenshot'] Necesitas el contenido de una sola página como Markdown para el modelo 1 crédito por página
firecrawl_crawl url, limit, includePaths?, excludePaths?, maxDepth? Necesitas raspar una sección completa de un sitio 1 crédito por página rastreada
firecrawl_extract urls: str[], schema: JSONSchema, prompt? Quieres JSON estructurado, no texto sin procesar 5 créditos por página (respaldado por LLM)
firecrawl_map url, search? Descubre todas las URLs en un sitio sin descargar contenido 1 crédito

Coste y límites

Lo que cuesta ejecutarlo

Cuota de API
Nivel gratuito: 500 créditos, 10 concurrentes. Hobby: $19/mes por 3000 créditos.
Tokens por llamada
~2000 tokens promedio por página rastreada (cuerpo Markdown)
Monetario
1 crédito por raspar, 5 créditos por extracción estructurada, 1 por mapa. Los créditos no se transfieren.
Consejo
Usa firecrawl_map primero para planificar, luego solo firecrawl_scrape las URLs que realmente necesitas. Cachea agresivamente — la mayoría de páginas no cambian diariamente.

Seguridad

Permisos, secretos, alcance

Almacenamiento de credenciales: Clave API en variable de entorno FIRECRAWL_API_KEY
Salida de datos: Todas las solicitudes pasan a través de los servidores de Firecrawl (regiones US/EU). Actúan como proxy hacia sitios objetivo.

Resolución de problemas

Errores comunes y soluciones

402 Pago Requerido

Sin créditos. Recarga en firecrawl.dev/dashboard o espera el reinicio mensual.

Markdown vacío devuelto

La página puede ser solo JS; asegúrate de que formats: ['markdown'] esté establecido y mobile: false. Intenta con actions: [{type:'wait', milliseconds: 3000}] para permitir ejecución de JS.

Rastreo devuelve menos páginas de lo esperado

Verifica que excludePaths no sea demasiado agresivo. También: muchos sitios tienen un robots.txt bloqueando crawlers. Firecrawl lo respeta por defecto.

429 Demasiadas Solicitudes (sitio objetivo)

Reduce concurrencia en tus opciones de rastreo. Algunos sitios aplican presupuestos de solicitud por IP.

Alternativas

Firecrawl vs otros

AlternativaCuándo usarlaContrapartida
fetch MCPPáginas HTML estáticas, sin necesidad de renderización JS, sin extracción de esquemaGratuito y rápido pero se rompe en SPAs y te da HTML sin procesar para parsear
Playwright MCPNecesitas interactuar con la página (inicio de sesión, flujos de clics)Más código, mejor para interacciones complejas; no optimizado para extracción en masa
Brightdata MCPNecesitas proxies residenciales para sitios que bloquean IPs de centros de datosPesado y caro — solo vale la pena para objetivos difíciles
Apify MCPNecesitas scrapers precompilados para sitios específicos (datos estructurados de Amazon, LinkedIn)Mejor para objetivos de nicho con actores precompilados; más configuración

Más

Recursos

📖 Lee el README oficial en GitHub

🐙 Ver issues abiertas

🔍 Ver todos los 400+ servidores MCP y Skills