/ Directorio / Playground / Bright Data
● Oficial brightdata 🔑 Requiere tu clave

Bright Data

por brightdata · brightdata/brightdata-mcp

Busca, raspa y desbloquea la web a escala — proxies residenciales + SERP API + automatización de navegador en un solo MCP.

MCP oficial de Bright Data que agrupa tres capacidades: resultados de búsqueda SERP en tiempo real en Google/Bing/DuckDuckGo, raspe de URLs individuales o en lote a través de su red de desbloqueo/proxy, y una flota de scrapers estructurados precompilados para objetivos específicos (Amazon, LinkedIn público, Instagram público, Zillow, etc.). Los créditos se miden; utiliza muestreo y almacenamiento en caché.

Por qué usarlo

Características clave

Demo en vivo

Cómo se ve en la práctica

brightdata.replay ▶ listo
0/0

Instalar

Elige tu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Abre Claude Desktop → Settings → Developer → Edit Config. Reinicia después de guardar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Cursor usa el mismo esquema mcpServers que Claude Desktop. La configuración del proyecto prevalece sobre la global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Haz clic en el icono MCP Servers de la barra lateral de Cline y luego en "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Mismo formato que Claude Desktop. Reinicia Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "brightdata",
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  ]
}

Continue usa un array de objetos de servidor en lugar de un mapa.

~/.config/zed/settings.json
{
  "context_servers": {
    "brightdata": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "@brightdata/mcp"
        ]
      }
    }
  }
}

Añádelo a context_servers. Zed recarga en caliente al guardar.

claude mcp add brightdata -- npx -y @brightdata/mcp

Un solo comando. Verifica con claude mcp list. Quita con claude mcp remove.

Casos de uso

Usos del mundo real: Bright Data

Seguimiento de tus rankings de palabras clave en Google en diferentes ubicaciones

👤 Equipos de SEO ⏱ ~20 min intermediate

Cuándo usarlo: Quieres seguimiento diario de rankings para 50 palabras clave en US/UK/DE sin ejecutar tus propios proxies.

Requisitos previos
  • Token API de Bright Data — brightdata.com → panel → tokens API
  • Presupuesto: ~$0.001–$0.003 por consulta SERP — Saldo de créditos en la cuenta de Bright Data
Flujo
  1. Ejecuta el SERP para cada palabra clave/país
    Para cada palabra clave en [lista], ejecuta una búsqueda Google SERP desde country=us. Captura los 10 resultados orgánicos principales (url, title, posición).✓ Copiado
    → Lista clasificada por palabra clave
  2. Localiza nuestro dominio
    Para cada conjunto de resultados, encuentra dónde aparece mydomain.com (o 'no en top 10'). Salida kw → posición.✓ Copiado
    → Tabla de rankings
  3. Diferencia respecto a ayer
    Compara con el JSON de ayer [pega]. Resalta cambios > 3 posiciones.✓ Copiado
    → Reporte de movimientos diarios

Resultado: Un flujo de trabajo de seguimiento de rankings diario a ~$0.15/día para 50 palabras clave, sin operaciones de proxy.

Errores comunes
  • Cada combinación país/dispositivo cuenta como una consulta separada — Solo rastrea lo que necesitas; 50 palabras clave × 3 países × 7 días = 1050 consultas/semana
Combinar con: postgres · notion

Obtén una página que bloquea IPs de centros de datos

👤 Devs cuyo objetivo de raspe normal quedó detrás de Cloudflare-Turnstile ⏱ ~15 min intermediate

Cuándo usarlo: fetch / Firecrawl obtiene 403 o una intersticial; necesitas IPs residenciales.

Flujo
  1. Intenta una vez con desbloqueo
    Obtén <url> a través de Web Unlocker. Devuelve el HTML renderizado + estado HTTP.✓ Copiado
    → 200 + HTML real
  2. Extrae lo que necesitas
    De ese HTML, extrae [lista los campos]. Devuelve como JSON.✓ Copiado
    → Datos estructurados
  3. Respeta el sitio
    Si la página dice 'robots.txt disallow' o un aviso claro anti-raspe, aborta y dime.✓ Copiado
    → Fallback consciente del consentimiento

Resultado: Los datos que necesitas sin mantener un grupo de proxies.

Errores comunes
  • El desbloqueo aún puede fallar en objetivos duros (banca, páginas de inicio de sesión SaaS) — Estos son intencionalmente privados; elige una API oficial o un enfoque diferente
  • Los costos escalan rápidamente en rastreos grandes — Firecrawl o fetch es más barato para sitios desprotegidos — solo paga Bright Data cuando encuentres un bloque
Combinar con: firecrawl

Extrae un conjunto de datos de productos Amazon estructurado a través de un scraper precompilado

👤 Analistas de comercio electrónico ⏱ ~20 min intermediate

Cuándo usarlo: Quieres 500 ASINs de Amazon con campos título/precio/calificación/bsr limpios, no HTML sin procesar.

Requisitos previos
  • Lista de ASINs o URLs de categoría — Entrada CSV o texto
Flujo
  1. Inicia el scraper Amazon precompilado
    Ejecuta el scraper de productos Amazon de Bright Data para ASINs [lista]. Devuelve un id de trabajo.✓ Copiado
    → ID de trabajo emitido
  2. Consulta hasta que esté listo
    Consulta el trabajo. Cuando esté listo, obtén el conjunto de datos.✓ Copiado
    → Conjunto de datos completo entregado
  3. Almacena en caché para evitar re-ejecuciones
    Guarda el conjunto de datos en /data/amazon-<date>.jsonl. Marca cualquier ASIN que haya tenido error.✓ Copiado
    → Conjunto de datos persistente + lista de errores

Resultado: Un conjunto de datos de productos Amazon limpio y re-ejecutable a ~$X/1000 productos (ver precios actuales).

Errores comunes
  • Los scrapers públicos de LinkedIn/Instagram varían legalmente según la región — Mantente dentro de datos de perfil público; no eludas la autenticación — conoce tu jurisdicción
Combinar con: postgres · filesystem

Búsqueda diaria de noticias sobre una marca en SERP

👤 PR / comunicaciones ⏱ ~15 min beginner

Cuándo usarlo: Quieres un resumen diario de lo que se dice sobre tu marca en búsqueda de noticias.

Flujo
  1. Ejecuta un Google News SERP
    Búsqueda Google News para '<brand>' últimas 24h, country=us. Devuelve los 20 resultados principales con fuente, título, url, snippet.✓ Copiado
    → News SERP
  2. Clasifica el sentimiento de los fragmentos
    Califica cada resultado como positivo/neutral/negativo basado en título+fragmento. Marca cualquier cosa marcada como negativa para revisión.✓ Copiado
    → Lista calificada
  3. Entrega el resumen
    Formatea como un resumen markdown: conteos por sentimiento, elementos negativos con enlaces, elementos positivos principales.✓ Copiado
    → Resumen listo

Resultado: Un resumen de PR enfocado sin raspar sitios de noticias individuales.

Errores comunes
  • El sentimiento solo de titulares es ruidoso — Solo marca como negativo si tanto el título como el fragmento son claramente negativos; revisa manualmente las marcas
Combinar con: notion

Combinaciones

Combínalo con otros MCPs para multiplicar por 10

brightdata + postgres

Almacena filas de seguimiento de rankings diario para análisis de tendencias

Ejecuta SERP para lista de palabras clave, INSERT en tabla keyword_ranks con la fecha de hoy.✓ Copiado
brightdata + firecrawl

Rastreo económico primero, desbloqueo como fallback

Intenta Firecrawl primero; si 403/bloqueado, recurre a Bright Data Unlocker solo para esa URL.✓ Copiado
brightdata + notion

Resumen de PR semanal publicado en Notion

Ejecuta SERP de marca para los últimos 7 días, crea una página Notion con el resumen.✓ Copiado

Herramientas

Lo que expone este MCP

HerramientaEntradasCuándo llamarCoste
search_engine engine: 'google'|'bing'|'duckduckgo', query, country?, lang?, device? Flujos de trabajo SERP / seguimiento de rankings ~$0.001–0.003 por consulta
scrape_as_markdown url Obtén una página única a través del desbloqueo como markdown limpio 1 crédito por página
scrape_as_html url Necesitas HTML sin procesar para analizar por ti mismo 1 crédito por página
web_data_<target> urls: str[] o parámetros Scraper estructurado precompilado (amazon, linkedin, zillow, etc.) precios por scraper
scraping_browser_* url, actions Flujos multi-paso / pesados en JS precios de sesión de navegador

Coste y límites

Lo que cuesta ejecutarlo

Cuota de API
Limitado por créditos de cuenta; solicitudes concurrentes por plan
Tokens por llamada
SERP: 500–2000 tokens. Página raspada: 1000–5000 tokens.
Monetario
Pago por uso; SERP típico $0.001–$0.003, desbloqueo ~$3 por 1000 páginas, scrapers precompilados con precios por 1000 registros.
Consejo
Almacena en caché agresivamente — la mayoría de los datos no cambian cada hora. Usa fetch/Firecrawl más económico para objetivos desprotegidos.

Seguridad

Permisos, secretos, alcance

Ámbitos mínimos: Token API con acceso de zona para los productos relevantes
Almacenamiento de credenciales: BRIGHTDATA_API_TOKEN en env
Salida de datos: Todas las solicitudes a través de la red proxy de Bright Data; ven las URLs de destino y las respuestas
No conceder nunca: Tokens de cuenta de nivel administrador para raspe cotidiano

Resolución de problemas

Errores comunes y soluciones

401 Token inválido

BRIGHTDATA_API_TOKEN faltante/expirado. Regenera en el panel.

Verificar: curl -H 'Authorization: Bearer $BRIGHTDATA_API_TOKEN' https://api.brightdata.com/zone/list
402 Créditos insuficientes

Recarga el saldo de la cuenta o reduce el volumen de consultas; verifica el panel para la tasa de consumo.

Trabajo de raspe EXITOSO pero conjunto de datos vacío

Esquema de entrada incorrecto para el scraper precompilado. Lee la página de documentación del scraper para los campos requeridos.

El sitio de destino sigue bloqueando a pesar del desbloqueo

Algunos sitios usan huellas dactilares avanzadas; cambia a Scraping Browser con sigilo, o abandona el objetivo.

Alternativas

Bright Data vs otros

AlternativaCuándo usarlaContrapartida
Firecrawl MCPSitios desprotegidos, raspe genéricoFalla en objetivos hostiles
Apify MCPQuieres un mercado de Actors más amplio y precios más económicos para objetivos comunesLa calidad de la red proxy varía por Actor
SerpAPI MCPSolo necesitas SERP, no raspe completoSin desbloqueo / scrapers precompilados

Más

Recursos

📖 Lee el README oficial en GitHub

🐙 Ver issues abiertas

🔍 Ver todos los 400+ servidores MCP y Skills