/ Annuaire / Playground / Bright Data
● Officiel brightdata 🔑 Nécessite votre clé

Bright Data

par brightdata · brightdata/brightdata-mcp

Rechercher, scraper et débloquer le web à l'échelle — proxies résidentiels + API SERP + automatisation de navigateur en un seul MCP.

Le MCP officiel de Bright Data regroupe trois capacités : résultats de recherche SERP en direct sur Google/Bing/DuckDuckGo, scraping d'URL uniques ou en masse via leur réseau unblocker/proxy, et une flotte de scrapeurs structurés prédéfinis pour des cibles spécifiques (Amazon, LinkedIn public, Instagram public, Zillow, etc.). Les crédits sont mesurés ; utilisez l'échantillonnage et la mise en cache.

Pourquoi l'utiliser

Fonctionnalités clés

Démo en direct

Aperçu en pratique

brightdata.replay ▶ prêt
0/0

Installer

Choisissez votre client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Ouvrez Claude Desktop → Settings → Developer → Edit Config. Redémarrez après avoir enregistré.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Cursor utilise le même schéma mcpServers que Claude Desktop. La config projet l'emporte sur la globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Cliquez sur l'icône MCP Servers dans la barre latérale Cline, puis "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Même format que Claude Desktop. Redémarrez Windsurf pour appliquer.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "brightdata",
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  ]
}

Continue utilise un tableau d'objets serveur plutôt qu'une map.

~/.config/zed/settings.json
{
  "context_servers": {
    "brightdata": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "@brightdata/mcp"
        ]
      }
    }
  }
}

Ajoutez dans context_servers. Zed recharge à chaud à la sauvegarde.

claude mcp add brightdata -- npx -y @brightdata/mcp

Une seule ligne. Vérifiez avec claude mcp list. Supprimez avec claude mcp remove.

Cas d'usage

Usages concrets : Bright Data

Suivre vos classements de mots-clés sur Google dans plusieurs emplacements

👤 Équipes SEO ⏱ ~20 min intermediate

Quand l'utiliser : Vous souhaitez un suivi quotidien des classements pour 50 mots-clés en US/UK/DE sans gérer vos propres proxies.

Prérequis
  • Token API Bright Data — brightdata.com → tableau de bord → tokens API
  • Budget : ~$0.001–$0.003 par requête SERP — Solde de crédits sur le compte Bright Data
Déroulement
  1. Exécuter le SERP pour chaque mot-clé/pays
    Pour chaque mot-clé dans [liste], exécutez une recherche SERP Google depuis country=us. Capturez les 10 premiers résultats organiques (url, titre, position).✓ Copié
    → Liste classée par mot-clé
  2. Localiser notre domaine
    Pour chaque ensemble de résultats, trouvez où mondomaine.com apparaît (ou 'non dans les 10 premiers'). Affichez kw → position.✓ Copié
    → Tableau de classement
  3. Différence par rapport à hier
    Comparez avec le JSON d'hier [coller]. Mettez en évidence les mouvements > 3 positions.✓ Copié
    → Rapport des mouvements quotidiens

Résultat : Un flux de suivi quotidien des classements à ~$0.15/jour pour 50 mots-clés, sans gestion de proxies.

Pièges
  • Chaque combinaison de pays/appareil compte comme une requête distincte — Ne suivez que ce dont vous avez besoin ; 50 mots-clés × 3 pays × 7 jours = 1050 requêtes/semaine
Combiner avec : postgres · notion

Récupérer une page qui bloque les IP de datacenter

👤 Devs dont la cible de scraping normale est derrière Cloudflare-Turnstile ⏱ ~15 min intermediate

Quand l'utiliser : fetch / Firecrawl obtient 403 ou un interstitiel ; vous avez besoin d'IP résidentielles.

Déroulement
  1. Essayez une fois avec unblocker
    Récupérez <url> via Web Unlocker. Retournez le HTML rendu + statut HTTP.✓ Copié
    → 200 + HTML réel
  2. Extrayez ce dont vous avez besoin
    À partir de ce HTML, extrayez [listez les champs]. Retournez en JSON.✓ Copié
    → Données structurées
  3. Respectez le site
    Si la page indique « robots.txt disallow » ou un avis anti-scraping clair, abandonnez et informez-moi.✓ Copié
    → Repli conscient du consentement

Résultat : Les données dont vous avez besoin sans maintenir un pool de proxies.

Pièges
  • Unblocker peut toujours échouer sur les cibles hardcore (banking, pages de connexion SaaS) — Ce sont intentionnellement des cibles privées ; choisissez une API officielle ou une approche différente
  • Les coûts augmentent rapidement sur les grands crawls — Firecrawl ou fetch est moins cher pour les sites non protégés — ne payez Bright Data que quand vous êtes bloqué
Combiner avec : firecrawl

Récupérer un dataset de produits Amazon structuré via un scraper prédéfini

👤 Analystes d'e-commerce ⏱ ~20 min intermediate

Quand l'utiliser : Vous voulez 500 ASIN Amazon avec des champs titre/prix/évaluation/bsr propres, pas du HTML brut.

Prérequis
  • Liste d'ASIN ou d'URL de catégories — Entrée CSV ou texte
Déroulement
  1. Lancer le scraper Amazon prédéfini
    Exécutez le scraper de produits Amazon de Bright Data pour les ASIN [liste]. Retournez un identifiant de travail.✓ Copié
    → Identifiant de travail émis
  2. Interroger jusqu'à ce que ce soit prêt
    Interrogez le travail. Une fois fait, récupérez le dataset.✓ Copié
    → Dataset complet livré
  3. Mettre en cache pour éviter les ré-exécutions
    Enregistrez le dataset dans /data/amazon-<date>.jsonl. Signalez tout ASIN qui a généré une erreur.✓ Copié
    → Dataset persistant + liste d'erreurs

Résultat : Un dataset de produits Amazon propre et ré-exécutable à ~$X/1000 produits (voir les tarifs actuels).

Pièges
  • Les scrapeurs publics LinkedIn/Instagram varient légalement selon la région — Restez dans les données de profil public ; ne contournez pas l'authentification — connaissez votre juridiction
Combiner avec : postgres · filesystem

Recherche quotidienne d'actualités pour une marque sur SERP

👤 RP / communications ⏱ ~15 min beginner

Quand l'utiliser : Vous voulez un résumé quotidien de ce qui se dit sur votre marque dans la recherche d'actualités.

Déroulement
  1. Exécuter une SERP Google Actualités
    Recherche Google Actualités pour '<marque>' les dernières 24h, country=us. Retournez les 20 premiers résultats avec source, titre, url, extrait.✓ Copié
    → SERP Actualités
  2. Classer le sentiment à partir des extraits
    Classez chaque résultat comme positif/neutre/négatif en fonction du titre+extrait. Signalez tout ce qui est classé comme négatif pour examen.✓ Copié
    → Liste notée
  3. Livrer le résumé
    Formatez en tant que résumé markdown : comptages par sentiment, éléments négatifs avec liens, meilleurs éléments positifs.✓ Copié
    → Résumé prêt

Résultat : Un résumé RP ciblé sans scraper les sites d'actualités individuels.

Pièges
  • Le sentiment à partir des titres seuls est bruyant — Ne signalez comme négatif que si le titre et l'extrait sont clairement négatifs ; examinez manuellement les signalements
Combiner avec : notion

Combinaisons

Associez-le à d'autres MCPs pour un effet X10

brightdata + postgres

Stocker les lignes de suivi quotidien des classements pour l'analyse des tendances

Exécutez SERP pour la liste de mots-clés, INSERT dans la table keyword_ranks avec la date d'aujourd'hui.✓ Copié
brightdata + firecrawl

Crawling bon marché d'abord, fallback déblocage

Essayez Firecrawl d'abord ; si 403/bloqué, retombez à Bright Data Unlocker pour cette URL uniquement.✓ Copié
brightdata + notion

Résumé RP hebdomadaire posté sur Notion

Exécutez la marque SERP des 7 derniers jours, créez une page Notion avec le résumé.✓ Copié

Outils

Ce que ce MCP expose

OutilEntréesQuand appelerCoût
search_engine engine: 'google'|'bing'|'duckduckgo', query, country?, lang?, device? Flux SERP / suivi des classements ~$0.001–0.003 par requête
scrape_as_markdown url Récupérer une seule page via unblocker en markdown propre 1 crédit par page
scrape_as_html url Vous avez besoin du HTML brut pour l'analyser vous-même 1 crédit par page
web_data_<target> urls: str[] or params Scraper structuré prédéfini (amazon, linkedin, zillow, etc.) tarification par scraper
scraping_browser_* url, actions Flux multi-étapes / lourds en JS tarification par session de navigateur

Coût et limites

Coût d'exécution

Quota d'API
Limité par les crédits du compte ; requêtes simultanées par plan
Tokens par appel
SERP : 500–2000 tokens. Page scrapée : 1000–5000 tokens.
Monétaire
Paiement à l'utilisation ; SERP typique $0.001–$0.003, unblocker ~$3 par 1000 pages, scrapeurs prédéfinis tarifés par 1000 enregistrements.
Astuce
Mettez en cache agressivement — la plupart des données ne changent pas toutes les heures. Utilisez fetch/Firecrawl moins cher pour les cibles non protégées.

Sécurité

Permissions, secrets, portée

Portées minimales : Token API avec accès à la zone pour les produits pertinents
Stockage des identifiants : BRIGHTDATA_API_TOKEN dans env
Sortie de données : Toutes les requêtes passent par le réseau de proxy de Bright Data ; ils voient les URL cibles et les réponses
Ne jamais accorder : Tokens de compte au niveau administrateur pour le scraping quotidien

Dépannage

Erreurs courantes et correctifs

401 Token invalide

BRIGHTDATA_API_TOKEN manquant/expiré. Régénérez dans le tableau de bord.

Vérifier : curl -H 'Authorization: Bearer $BRIGHTDATA_API_TOKEN' https://api.brightdata.com/zone/list
402 Crédits insuffisants

Rechargez le solde du compte ou réduisez le volume de requêtes ; vérifiez le tableau de bord pour le taux de consommation.

Le travail de scraping a RÉUSSI mais le dataset est vide

Schéma d'entrée incorrect pour le scraper prédéfini. Lisez la page doc du scraper pour les champs obligatoires.

Le site cible bloque toujours malgré unblocker

Certains sites utilisent un fingerprinting avancé ; passez à Scraping Browser avec stealth, ou abandonnez la cible.

Alternatives

Bright Data vs autres

AlternativeQuand l'utiliserCompromis
Firecrawl MCPSites non protégés, scraping génériqueÉchoue sur les cibles hostiles
Apify MCPVous souhaitez une place de marché Actor plus large et une tarification moins chère pour les cibles communesLa qualité du réseau proxy varie par Actor
SerpAPI MCPVous avez besoin seulement de SERP, pas du scraping completPas de unblocker / scrapeurs prédéfinis

Plus

Ressources

📖 Lire le README officiel sur GitHub

🐙 Voir les issues ouvertes

🔍 Parcourir les 400+ serveurs MCP et Skills