/ ディレクトリ / プレイグラウンド / Bright Data
● 公式 brightdata 🔑 自分のキーが必要

Bright Data

作者 brightdata · brightdata/brightdata-mcp

Web検索・スクレイピング・ブロック解除を大規模に実現 — レジデンシャルプロキシ + SERP API + ブラウザ自動化を1つのMCPに統合。

Bright Dataの公式MCPは3つの機能を提供します:Google/Bing/DuckDuckGoのリアルタイムSERP検索結果、アンブロッカー/プロキシネットワークを介した単一またはバルクURLのスクレイピング、そして特定ターゲット(Amazon、LinkedIn公開プロフィール、Instagram公開プロフィール、Zillowなど)向けの構造化スクレイパー群です。クレジット従量制のため、サンプリングとキャッシュを活用してください。

なぜ使うのか

主な機能

ライブデモ

実際の動作

brightdata.replay ▶ 準備完了
0/0

インストール

クライアントを選択

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Claude Desktop → Settings → Developer → Edit Config を開く。保存後、アプリを再起動。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Cursor は Claude Desktop と同じ mcpServers スキーマを使用。プロジェクト設定はグローバルより優先。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Cline サイドバーの MCP Servers アイコンをクリックし、"Edit Configuration" を選択。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "brightdata": {
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  }
}

Claude Desktop と同じ形式。Windsurf を再起動して反映。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "brightdata",
      "command": "npx",
      "args": [
        "-y",
        "@brightdata/mcp"
      ]
    }
  ]
}

Continue はマップではなくサーバーオブジェクトの配列を使用。

~/.config/zed/settings.json
{
  "context_servers": {
    "brightdata": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "@brightdata/mcp"
        ]
      }
    }
  }
}

context_servers に追加。保存時に Zed がホットリロード。

claude mcp add brightdata -- npx -y @brightdata/mcp

ワンライナー。claude mcp list で確認、claude mcp remove で削除。

ユースケース

実用的な使い方: Bright Data

各地域におけるGoogleキーワードランキングをトラッキング

👤 SEOチーム ⏱ ~20 min intermediate

使うタイミング: 自前のプロキシを運用せずに、US/UK/DEで50キーワードのデイリーランク追跡を行いたい場合。

前提条件
  • Bright Data APIトークン — brightdata.com → ダッシュボード → APIトークン
  • 予算:SERPクエリ1件あたり約$0.001〜$0.003 — Bright Dataアカウントのクレジット残高
フロー
  1. 各キーワード/国ごとにSERPを実行
    For each keyword in [list], run a Google SERP search from country=us. Capture top 10 organic results (url, title, position).✓ コピーしました
    → キーワードごとのランキングリスト
  2. 自社ドメインの位置を特定
    For each result set, find where mydomain.com appears (or 'not in top 10'). Output kw → position.✓ コピーしました
    → ランキングテーブル
  3. 前日との差分を比較
    Compare to yesterday's JSON [paste]. Highlight moves > 3 positions.✓ コピーしました
    → デイリー変動レポート

結果: 50キーワードで1日あたり約$0.15、プロキシ運用不要のデイリーランク追跡ワークフロー。

注意点
  • 国/デバイスの組み合わせごとに個別クエリとしてカウントされる — 必要なものだけ追跡すること。50キーワード × 3カ国 × 7日 = 週1050クエリ
組み合わせ: postgres · notion

データセンターIPをブロックするページを取得

👤 通常のスクレイピング対象がCloudflare-Turnstileの背後に入ってしまった開発者 ⏱ ~15 min intermediate

使うタイミング: fetch / Firecrawlで403またはインタースティシャルが返される場合。レジデンシャルIPが必要。

フロー
  1. アンブロッカーで1回試行
    Fetch <url> via Web Unlocker. Return the rendered HTML + HTTP status.✓ コピーしました
    → 200 + 実際のHTML
  2. 必要なデータを抽出
    From that HTML, extract [list the fields]. Return as JSON.✓ コピーしました
    → 構造化データ
  3. サイトのポリシーを尊重
    If the page says 'robots.txt disallow' or a clear anti-scrape notice, abort and tell me.✓ コピーしました
    → 同意に基づくフォールバック

結果: プロキシプールを自前で維持することなく、必要なデータを取得。

注意点
  • アンブロッカーでも高度に防御されたターゲット(銀行、SaaSログインページ)では失敗する場合がある — それらは意図的に非公開です。公式APIまたは別のアプローチを検討してください
  • 大規模クロールではコストが急速に増加する — 保護されていないサイトにはFirecrawlやfetchの方が安価。ブロックされた場合のみBright Dataを使用
組み合わせ: firecrawl

プリビルトスクレイパーで構造化されたAmazon商品データセットを取得

👤 Eコマースアナリスト ⏱ ~20 min intermediate

使うタイミング: 500件のAmazon ASINについて、生HTMLではなくクリーンなtitle/price/rating/bsrフィールドが必要な場合。

前提条件
  • ASINリストまたはカテゴリURL — CSVまたはテキスト入力
フロー
  1. プリビルトAmazonスクレイパーを起動
    Run the Bright Data Amazon product scraper for ASINs [list]. Return a job id.✓ コピーしました
    → ジョブIDが発行される
  2. 完了までポーリング
    Poll the job. When done, fetch the dataset.✓ コピーしました
    → 完全なデータセットが配信される
  3. 再実行を避けるためキャッシュ
    Save the dataset to /data/amazon-<date>.jsonl. Flag any ASIN that errored.✓ コピーしました
    → データセットの永続化 + エラーリスト

結果: クリーンで再実行可能なAmazon商品データセット。1000商品あたり約$X(最新の料金をご確認ください)。

注意点
  • LinkedIn/Instagramの公開スクレイパーは地域によって法的扱いが異なる — 公開プロフィールデータの範囲内に留めること。認証をバイパスしないこと。自身の管轄区域の法律を確認してください
組み合わせ: postgres · filesystem

SERPを使ったブランドのデイリーニュース検索

👤 PR / 広報 ⏱ ~15 min beginner

使うタイミング: 自社ブランドについてニュース検索で何が言われているか、デイリーダイジェストが欲しい場合。

フロー
  1. Google News SERPを実行
    Google News search for '<brand>' last 24h, country=us. Return top 20 results with source, title, url, snippet.✓ コピーしました
    → ニュースSERP
  2. スニペットからセンチメントを分類
    Score each result as positive/neutral/negative based on title+snippet. Flag anything flagged as negative for review.✓ コピーしました
    → スコア付きリスト
  3. ダイジェストを配信
    Format as a markdown digest: counts by sentiment, negative items with links, top positive items.✓ コピーしました
    → ダイジェスト完成

結果: 個別のニュースサイトをスクレイピングすることなく、集中的なPRダイジェストを作成。

注意点
  • 見出しだけでのセンチメント判定はノイズが多い — タイトルとスニペットの両方が明確にネガティブな場合のみネガティブと判定すること。フラグは人間がレビュー
組み合わせ: notion

組み合わせ

他のMCPと組み合わせて10倍の力を

brightdata + postgres

デイリーランク追跡データをトレンド分析用に保存

Run SERP for kw list, INSERT into keyword_ranks table with today's date.✓ コピーしました
brightdata + firecrawl

安価な方法を先に試し、ブロック時にアンブロッカーへフォールバック

Try Firecrawl first; if 403/blocked, fall back to Bright Data Unlocker for that URL only.✓ コピーしました
brightdata + notion

週次PRダイジェストをNotionに投稿

Run brand SERP for the last 7 days, create a Notion page with the digest.✓ コピーしました

ツール

このMCPが提供する機能

ツール入力呼び出すタイミングコスト
search_engine engine: 'google'|'bing'|'duckduckgo', query, country?, lang?, device? SERP / ランク追跡ワークフロー ~$0.001–0.003 per query
scrape_as_markdown url アンブロッカー経由で単一ページをクリーンなMarkdownとして取得 1 credit per page
scrape_as_html url 自分でパースするために生HTMLが必要な場合 1 credit per page
web_data_<target> urls: str[] or params プリビルト構造化スクレイパー(amazon, linkedin, zillowなど) per-scraper pricing
scraping_browser_* url, actions 複数ステップ / JS多用のフロー browser-session pricing

コストと制限

運用コスト

APIクォータ
アカウントクレジットによる制限。同時リクエスト数はプランに依存
呼び出しあたりのトークン
SERP:500〜2000トークン。スクレイピングページ:1000〜5000トークン
金額
従量課金制。一般的なSERP $0.001〜$0.003、アンブロッカー 1000ページあたり約$3、プリビルトスクレイパーは1000レコード単位の料金設定
ヒント
積極的にキャッシュを活用すること。ほとんどのデータは1時間単位では変化しません。保護されていないターゲットにはより安価なfetch/Firecrawlを使用してください。

セキュリティ

権限、シークレット、影響範囲

最小スコープ: API token with zone access for the relevant products
認証情報の保管: BRIGHTDATA_API_TOKENを環境変数に設定
データ送信先: すべてのリクエストはBright Dataのプロキシネットワークを経由します。対象URLとレスポンスはBright Data側で参照可能
絶対に付与しない: Admin-level account tokens for everyday scraping

トラブルシューティング

よくあるエラーと対処法

401 Invalid token

BRIGHTDATA_API_TOKENが未設定または期限切れです。ダッシュボードで再生成してください。

確認: curl -H 'Authorization: Bearer $BRIGHTDATA_API_TOKEN' https://api.brightdata.com/zone/list
402 Insufficient credits

アカウント残高をチャージするか、クエリ量を削減してください。ダッシュボードで消費率を確認。

スクレイピングジョブはSUCCEEDEDだがデータセットが空

プリビルトスクレイパーの入力スキーマが間違っています。スクレイパーのドキュメントページで必須フィールドを確認してください。

アンブロッカーを使用しても対象サイトがブロックする

高度なフィンガープリンティングを使用しているサイトがあります。Scraping Browserのステルスモードに切り替えるか、そのターゲットを断念してください。

代替案

Bright Data 他との比較

代替案代わりに使う場面トレードオフ
Firecrawl MCP保護されていないサイト、汎用スクレイピング防御の厳しいターゲットでは失敗する
Apify MCPより広いActorマーケットプレイスと、一般的なターゲット向けの安価な料金が必要な場合プロキシネットワークの品質はActorによってばらつきがある
SerpAPI MCPSERPのみ必要で、フルスクレイピングは不要な場合アンブロッカー / プリビルトスクレイパーなし

その他

リソース

📖 GitHub の公式 README を読む

🐙 オープンな issue を見る

🔍 400以上のMCPサーバーとSkillsを見る