/ Diretório / Playground / Bright Data
● Oficial brightdata 🔑 Requer sua chave

Bright Data

por brightdata · brightdata/brightdata-mcp

Busque, raspe e desbloqueie a web em escala — proxies residenciais + API SERP + automação de navegador em um único MCP.

O MCP oficial da Bright Data agrupa três capacidades: resultados de busca SERP ao vivo em Google/Bing/DuckDuckGo, raspagem de URLs únicas ou em lote através de sua rede unblocker/proxy, e uma frota de scrapers estruturados pré-construídos para alvos específicos (Amazon, LinkedIn público, Instagram público, Zillow, etc.). Créditos são medidos; use amostragem e cache.

Por que usar

Principais recursos

Demo ao vivo

Como fica na prática

brightdata.replay ▶ pronto
0/0

Instalar

Escolha seu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Abra Claude Desktop → Settings → Developer → Edit Config. Reinicie após salvar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Cursor usa o mesmo esquema mcpServers que o Claude Desktop. Config de projeto vence a global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Clique no ícone MCP Servers na barra lateral do Cline, depois "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Mesmo formato do Claude Desktop. Reinicie o Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "brightdata",
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  ]
}

O Continue usa um array de objetos de servidor em vez de um map.

~/.config/zed/settings.json
{
  "context_servers": {
    "brightdata": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "@brightdata/mcp"
        ]
      }
    }
  }
}

Adicione em context_servers. Zed recarrega automaticamente ao salvar.

claude mcp add brightdata -- npx -y @brightdata/mcp

Uma linha só. Verifique com claude mcp list. Remova com claude mcp remove.

Casos de uso

Usos do mundo real: Bright Data

Acompanhe seus rankings de palavras-chave no Google em diferentes locais

👤 Equipes de SEO ⏱ ~20 min intermediate

Quando usar: Você quer acompanhamento diário de ranks para 50 palavras-chave em US/UK/DE sem executar seus próprios proxies.

Pré-requisitos
  • Token API Bright Data — brightdata.com → dashboard → API tokens
  • Orçamento: ~$0,001–$0,003 por consulta SERP — Saldo de crédito na conta Bright Data
Fluxo
  1. Execute o SERP para cada kw/país
    Para cada palavra-chave em [lista], execute uma busca SERP do Google do país=us. Capture os 10 principais resultados orgânicos (url, title, position).✓ Copiado
    → Lista classificada por palavra-chave
  2. Localize nosso domínio
    Para cada conjunto de resultados, encontre onde mydomain.com aparece (ou 'não está nos 10 principais'). Saída kw → position.✓ Copiado
    → Tabela de ranks
  3. Diff vs ontem
    Compare com o JSON de ontem [paste]. Destaque movimentos > 3 posições.✓ Copiado
    → Relatório de movimentadores diários

Resultado: Um fluxo de trabalho de acompanhamento de ranks diário a ~$0,15/dia para 50 palavras-chave, sem operações de proxy.

Armadilhas
  • Cada combinação país/dispositivo conta como uma consulta separada — Rastreie apenas o que você precisa; 50 kw × 3 países × 7 dias são 1050 consultas/semana
Combine com: postgres · notion

Busque uma página que bloqueia IPs de datacenter

👤 Devs cujo alvo de raspagem normal está atrás do Cloudflare-Turnstile ⏱ ~15 min intermediate

Quando usar: fetch / Firecrawl obtém 403 ou um intersticial; você precisa de IPs residenciais.

Fluxo
  1. Tente uma vez com o unlocker
    Busque <url> via Web Unlocker. Retorne o HTML renderizado + status HTTP.✓ Copiado
    → 200 + HTML real
  2. Extraia o que você precisa
    Desse HTML, extraia [lista os campos]. Retorne como JSON.✓ Copiado
    → Dados estruturados
  3. Respeite o site
    Se a página disser 'robots.txt disallow' ou um aviso claro anti-raspagem, interrompa e me diga.✓ Copiado
    → Fallback ciente de consentimento

Resultado: Os dados que você precisa sem manter um pool de proxies.

Armadilhas
  • Unblocker ainda pode falhar em alvos extremos (páginas de login bancário, SaaS) — Estas são intencionalmente privadas; escolha uma API oficial ou uma abordagem diferente
  • Os custos aumentam rapidamente em grandes crawls — Firecrawl ou fetch é mais barato para sites desprotegidos — pague Bright Data apenas quando você encontrar um bloqueio
Combine com: firecrawl

Puxe um conjunto de dados de produto Amazon estruturado via scraper pré-construído

👤 Analistas de e-commerce ⏱ ~20 min intermediate

Quando usar: Você quer 500 ASINs Amazon com campos title/price/rating/bsr limpos, não HTML bruto.

Pré-requisitos
  • Lista de ASINs ou URLs de categoria — Entrada CSV ou texto
Fluxo
  1. Inicie o scraper Amazon pré-construído
    Execute o scraper de produto Amazon Bright Data para ASINs [lista]. Retorne um job id.✓ Copiado
    → Job id emitido
  2. Sonde até estar pronto
    Sonde o job. Quando terminar, busque o conjunto de dados.✓ Copiado
    → Conjunto de dados completo entregue
  3. Cache para evitar re-execuções
    Salve o conjunto de dados em /data/amazon-<date>.jsonl. Sinalize qualquer ASIN que tenha erro.✓ Copiado
    → Conjunto de dados persistido + lista de erros

Resultado: Um conjunto de dados de produto Amazon limpo e re-executável a ~$X/1000 produtos (consulte os preços atuais).

Armadilhas
  • Scrapers LinkedIn/Instagram públicos variam legalmente por região — Mantenha-se dentro dos dados de perfil público; não contorne a autenticação — conheça sua jurisdição
Combine com: postgres · filesystem

Busca de notícias diárias para uma marca em SERP

👤 RP / comunicações ⏱ ~15 min beginner

Quando usar: Você quer um resumo diário do que está sendo dito sobre sua marca na busca de notícias.

Fluxo
  1. Execute um SERP Google Notícias
    Busca Google Notícias para '<brand>' últimas 24h, país=us. Retorne os 20 principais resultados com source, title, url, snippet.✓ Copiado
    → SERP de Notícias
  2. Classifique o sentimento a partir dos snippets
    Avalie cada resultado como positive/neutral/negative com base em title+snippet. Sinalize qualquer coisa sinalizada como negativa para revisão.✓ Copiado
    → Lista avaliada
  3. Entregue o resumo
    Formate como um resumo markdown: contagens por sentimento, itens negativos com links, itens positivos principais.✓ Copiado
    → Resumo pronto

Resultado: Um resumo de RP focado sem raspar sites de notícias individuais.

Armadilhas
  • O sentimento apenas de títulos é ruidoso — Sinalize como negativo apenas se title e snippet forem claramente negativos; revise manualmente os sinalizadores
Combine com: notion

Combinações

Combine com outros MCPs para 10× de alavancagem

brightdata + postgres

Armazene linhas de acompanhamento de ranks diários para análise de tendências

Execute SERP para lista de kw, INSIRA na tabela keyword_ranks com a data de hoje.✓ Copiado
brightdata + firecrawl

Crawling barato primeiro, fallback de desbloqueio

Tente Firecrawl primeiro; se 403/bloqueado, faça fallback para Bright Data Unlocker apenas para essa URL.✓ Copiado
brightdata + notion

Resumo de RP semanal postado no Notion

Execute SERP de marca dos últimos 7 dias, crie uma página Notion com o resumo.✓ Copiado

Ferramentas

O que este MCP expõe

FerramentaEntradasQuando chamarCusto
search_engine engine: 'google'|'bing'|'duckduckgo', query, country?, lang?, device? Fluxos de trabalho SERP / acompanhamento de ranks ~$0,001–0,003 por consulta
scrape_as_markdown url Busque uma única página através do unblocker como markdown limpo 1 crédito por página
scrape_as_html url Você precisa de HTML bruto para fazer parse você mesmo 1 crédito por página
web_data_<target> urls: str[] or params Scraper estruturado pré-construído (amazon, linkedin, zillow, etc.) preço por scraper
scraping_browser_* url, actions Fluxos multi-etapa / pesados em JS preço por sessão de navegador

Custo e limites

O que custa rodar

Cota de API
Limitado por créditos da conta; requisições simultâneas por plano
Tokens por chamada
SERP: 500–2000 tokens. Página raspada: 1000–5000 tokens.
Monetário
Pague conforme o uso; SERP típico $0,001–$0,003, unblocker ~$3 por 1000 páginas, scrapers pré-construídos precificados por 1000 registros.
Dica
Cache agressivamente — a maioria dos dados não muda a cada hora. Use fetch/Firecrawl mais barato para sites desprotegidos.

Segurança

Permissões, segredos, alcance

Escopos mínimos: Token API com acesso à zona para os produtos relevantes
Armazenamento de credenciais: BRIGHTDATA_API_TOKEN no env
Saída de dados: Todas as requisições através da rede de proxy Bright Data; eles veem URLs de destino e respostas
Nunca conceda: Tokens de conta em nível de administrador para raspagem diária

Solução de problemas

Erros comuns e correções

401 Token inválido

BRIGHTDATA_API_TOKEN ausente/expirado. Regenere no dashboard.

Verificar: curl -H 'Authorization: Bearer $BRIGHTDATA_API_TOKEN' https://api.brightdata.com/zone/list
402 Créditos insuficientes

Recarregue o saldo da conta ou reduza o volume de consultas; verifique o dashboard para a taxa de queima.

Job de raspagem SUCEDIDO mas conjunto de dados vazio

Schema de entrada incorreto para o scraper pré-construído. Leia a página de documentação do scraper para campos obrigatórios.

Site de destino ainda bloqueia apesar do unblocker

Alguns sites usam fingerprinting avançado; mude para Scraping Browser com stealth ou abandone o alvo.

Alternativas

Bright Data vs. outros

AlternativaQuando usarTroca
Firecrawl MCPSites desprotegidos, raspagem genéricaFalha em alvos hostis
Apify MCPVocê quer um marketplace de Actor mais amplo e preço mais barato para alvos comunsA qualidade da rede de proxy varia por Actor
SerpAPI MCPVocê só precisa de SERP, não raspagem completaSem unblocker / scrapers pré-construídos

Mais

Recursos

📖 Leia o README oficial no GitHub

🐙 Ver issues abertas

🔍 Ver todos os 400+ servidores MCP e Skills