/ ディレクトリ / プレイグラウンド / deep-research
● コミュニティ u14app ⚡ 即起動

deep-research

作者 u14app · u14app/deep-research

自前のLLM APIキーを使い、約2分で本格的なディープリサーチレポートを生成します。ツール呼び出し1回で、サーバー内部でマルチステップのWeb調査を実行します。

u14app/deep-researchは、MCPサーバーとして公開されたリサーチエージェントです。お好みのモデル(Gemini、OpenAI、Claude、Deepseek、Ollama等)と、任意で検索プロバイダーキー(Tavily、Firecrawl、Exa、Brave)を持ち込めます。1回のツール呼び出しで計画・検索・執筆を実行し、引用付きのMarkdownレポートを返します。

なぜ使うのか

主な機能

ライブデモ

実際の動作

deep-research.replay ▶ 準備完了
0/0

インストール

クライアントを選択

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop → Settings → Developer → Edit Config を開く。保存後、アプリを再起動。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Cursor は Claude Desktop と同じ mcpServers スキーマを使用。プロジェクト設定はグローバルより優先。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Cline サイドバーの MCP Servers アイコンをクリックし、"Edit Configuration" を選択。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "deep-research": {
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop と同じ形式。Windsurf を再起動して反映。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "deep-research",
      "command": "npx",
      "args": [
        "-y",
        "deep-research"
      ]
    }
  ]
}

Continue はマップではなくサーバーオブジェクトの配列を使用。

~/.config/zed/settings.json
{
  "context_servers": {
    "deep-research": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "deep-research"
        ]
      }
    }
  }
}

context_servers に追加。保存時に Zed がホットリロード。

claude mcp add deep-research -- npx -y deep-research

ワンライナー。claude mcp list で確認、claude mcp remove で削除。

ユースケース

実用的な使い方: deep-research

2分で競合マーケットスキャンを作成する方法

👤 創業者、PM、戦略アナリスト ⏱ ~10 min beginner

使うタイミング: ある分野(例:「オープンソースのベクトルDB」)の情報源付きランドスケープが必要なのに、空白のドキュメントを前に手が止まっているとき。

前提条件
  • LLM APIキー(MCP_AI_PROVIDER + プロバイダーキー) — aistudio.google.comでGeminiキー、またはplatform.openai.comでOpenAIキーを取得してください
  • 検索キー(TavilyまたはFirecrawl)※任意 — tavily.comまたはfirecrawl.dev — 無料枠で数件のレポートには十分です
フロー
  1. 焦点を絞ったトピックでリサーチツールを呼び出す
    Run deep research on 'managed vector databases for RAG: pricing, ingestion scale, and hybrid search support as of 2026'. Target 1500 words, include citations.✓ コピーしました
    → 構造化されたレポートがリンク付きで返される
  2. 比較表を依頼する
    From the report, produce a markdown table: provider | free tier | max vectors | hybrid search | notes.✓ コピーしました
    → そのままどこにでも貼れるきれいな表
  3. 特定の競合に掘り下げる
    Run a second deep research pass focused only on Qdrant's pricing changes since 2024.✓ コピーしました
    → より的を絞った具体的なレポート

結果: その日のうちに経営層に送れる、1,000〜2,000語の引用付きブリーフィング。

注意点
  • 一部のMCPクライアントではデフォルトの2分タイムアウトで呼び出しが中断される — クライアントのタイムアウトを600秒に引き上げてください — このツールは長時間実行が前提です
  • 検索プロバイダーが何も返さない場合、引用がハルシネーションを起こす可能性がある — モデルネイティブ検索ではなくTavilyまたはFirecrawlを使用し、グラウンディングの精度を高めてください
組み合わせ: firecrawl · notion

情報源付きの技術判断メモを作成する方法

👤 スタッフエンジニア、アーキテクト ⏱ ~15 min intermediate

使うタイミング: 2つの技術の間で選択を迫られており、根拠のある文書が必要なとき。

フロー
  1. 質問を明確にフレーミングする
    Deep research: 'Should a Rails 7 monolith migrate to sidekiq-pro or to a dedicated Go worker service in 2026?' — weigh ops cost, failure modes, community support. Return 1200 words with citations.✓ コピーしました
    → 各選択肢の長所・短所を含む情報源付きメモ
  2. 反論を求める
    Now rebut the memo — what would a skeptic say?✓ コピーしました
    → 情報源に基づいた反対意見

結果: アーキテクチャレビューにそのまま提出できる判断メモと反論メモ。

注意点
  • レポートはすぐに陳腐化する — 2024年の情報が2026年の現実と矛盾することがある — クエリに「as of 2026」を付け、公開前に再実行してください
組み合わせ: notion · github

論文の文献レビューセクションを下書きする方法

👤 研究者、大学院生 ⏱ ~20 min intermediate

使うタイミング: 分野に精通しているが、構造化された概要と照合用の引用リストが欲しいとき。

フロー
  1. スコープと期間を定義する
    Deep research on 'mechanistic interpretability of transformer attention heads 2022-2026'. Organize by theme (circuits, superposition, SAE). Cite arXiv.✓ コピーしました
    → テーマ別に整理されたレビュー(arXivリンク付き)
  2. 論文検索でクロスチェックする
    Use paper-search MCP to find any major papers missing from the report.✓ コピーしました
    → 不足している論文のリスト

結果: 直接論文を読んで検証すべき情報源が記載されたドラフトセクション。

注意点
  • Claudeが生成した内容を原典を読まずに引用してはいけない — 出力はあくまで参考文献リストの出発点として扱い、引用するすべての論文を必ず自分で読んでください
組み合わせ: paper-search

組み合わせ

他のMCPと組み合わせて10倍の力を

deep-research + firecrawl

統合前に、firecrawlでより高品質なWebデータ取得を行う

Using firecrawl as the search backend, deep research 'AI coding agents benchmarks Q1 2026'.✓ コピーしました
deep-research + notion

完成したレポートをNotionデータベースに投稿し、チームレビューに回す

After deep research finishes, create a Notion page titled with today's date under 'Research' and paste the full markdown.✓ コピーしました
deep-research + paper-search

学術トピックについて、Web調査にarXivの網羅性を組み合わせる

Do a deep research report on constitutional AI, then use paper-search to add any 2025-2026 arXiv papers missing from the sources.✓ コピーしました

ツール

このMCPが提供する機能

ツール入力呼び出すタイミングコスト
deep_research topic: str, depth?: 'shallow'|'standard'|'deep', length_words?: int, language?: str チャット形式の返答ではなく、情報源付きのレポートが欲しいとき 多数のLLM + 検索API呼び出しを実行 — モデルに応じてレポート1件あたり$0.05〜$0.50を見込んでください

コストと制限

運用コスト

APIクォータ
選択したLLMおよび検索プロバイダーのクォータに準拠します
呼び出しあたりのトークン
レポート1件あたり、計画+統合を通じて思考モデルで50k〜300kトークンを消費します
金額
自前のキーを使用 — Gemini Flashで$0.05〜$0.50/件、Claude Opusで$1〜$5/件
ヒント
安価なプランナー+高性能ライターの分割構成を使いましょう: MCP_TASK_MODEL=gemini-flash、MCP_THINKING_MODEL=claude-sonnet で3〜5倍のコスト削減が可能です。

セキュリティ

権限、シークレット、影響範囲

最小スコープ: API keys for the providers you enable
認証情報の保管: 環境変数(MCP_AI_PROVIDER、プロバイダーAPIキー、検索キー、任意の ACCESS_PASSWORD)
データ送信先: プロンプトは設定したLLMプロバイダーおよび検索プロバイダーに送信されます。MCPサーバー自体が外部に通信することはありません
絶対に付与しない: Production billing keys — use a scoped key with a monthly cap

トラブルシューティング

よくあるエラーと対処法

Client times out at 2 minutes(クライアントが2分でタイムアウトする)

MCPクライアントのタイムアウトを600秒に引き上げてください。このツールは長時間実行を前提に設計されています。

Missing MCP_AI_PROVIDER(MCP_AI_PROVIDERが未設定)

環境変数 MCP_AI_PROVIDER を次のいずれかに設定してください: google, openai, anthropic, deepseek, xai, mistral, azure, openrouter, ollama。

確認: env | grep MCP_AI_PROVIDER
Search returns nothing / report is hollow(検索結果が空/レポートの中身がない)

MCP_SEARCH_PROVIDER を 'model' から 'tavily' または 'firecrawl' に切り替え、該当するキーを設定してください。

401 from ACCESS_PASSWORD-protected server(ACCESS_PASSWORD保護されたサーバーから401エラー)

クライアント設定にヘッダーとしてパスワードを追加してください: Authorization: Bearer <password>

代替案

deep-research 他との比較

代替案代わりに使う場面トレードオフ
OpenAI Deep ResearchChatGPT Proに課金済みで、設定不要で使いたい場合MCP非対応、モデル持ち込み不可、OpenAIにロックイン
Gemini Deep ResearchすでにGemini Advancedを利用している場合同様のベンダーロックインの制約あり
firecrawl MCP生のスクレイピングデータを取得し、自分で統合したい場合自律的なプランナーなし。ステップの管理は自分で行う必要あり

その他

リソース

📖 GitHub の公式 README を読む

🐙 オープンな issue を見る

🔍 400以上のMCPサーバーとSkillsを見る