/ ディレクトリ / プレイグラウンド / buyer-eval-skill
● コミュニティ salespeak-ai ⚡ 即起動

buyer-eval-skill

作者 salespeak-ai · salespeak-ai/buyer-eval-skill

B2Bベンダー評価スキル — 専門家レベルの質問、エビデンスに基づくスコアリング、構造化されたベンダーインタビューを提供します。

buyer-eval-skillは、ClaudeをB2B調達リーダーに変えます。ベンダー(またはそのAIエージェント)に専門的な質問を投げかけ、評価ルーブリックに対するエビデンスを記録し、各基準をスコアリングし、複数ベンダーを評価する際には比較マトリクスを作成します。「ベンダーを検討しよう」から「根拠付きの推薦レポートです」までの時間を大幅に短縮します。

なぜ使うのか

主な機能

ライブデモ

実際の動作

buyer-eval-skill.replay ▶ 準備完了
0/0

インストール

クライアントを選択

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "buyer-eval-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/salespeak-ai/buyer-eval-skill",
        "~/.claude/skills/buyer-eval-skill"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop → Settings → Developer → Edit Config を開く。保存後、アプリを再起動。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "buyer-eval-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/salespeak-ai/buyer-eval-skill",
        "~/.claude/skills/buyer-eval-skill"
      ],
      "_inferred": true
    }
  }
}

Cursor は Claude Desktop と同じ mcpServers スキーマを使用。プロジェクト設定はグローバルより優先。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "buyer-eval-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/salespeak-ai/buyer-eval-skill",
        "~/.claude/skills/buyer-eval-skill"
      ],
      "_inferred": true
    }
  }
}

Cline サイドバーの MCP Servers アイコンをクリックし、"Edit Configuration" を選択。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "buyer-eval-skill": {
      "command": "git",
      "args": [
        "clone",
        "https://github.com/salespeak-ai/buyer-eval-skill",
        "~/.claude/skills/buyer-eval-skill"
      ],
      "_inferred": true
    }
  }
}

Claude Desktop と同じ形式。Windsurf を再起動して反映。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "buyer-eval-skill",
      "command": "git",
      "args": [
        "clone",
        "https://github.com/salespeak-ai/buyer-eval-skill",
        "~/.claude/skills/buyer-eval-skill"
      ]
    }
  ]
}

Continue はマップではなくサーバーオブジェクトの配列を使用。

~/.config/zed/settings.json
{
  "context_servers": {
    "buyer-eval-skill": {
      "command": {
        "path": "git",
        "args": [
          "clone",
          "https://github.com/salespeak-ai/buyer-eval-skill",
          "~/.claude/skills/buyer-eval-skill"
        ]
      }
    }
  }
}

context_servers に追加。保存時に Zed がホットリロード。

claude mcp add buyer-eval-skill -- git clone https://github.com/salespeak-ai/buyer-eval-skill ~/.claude/skills/buyer-eval-skill

ワンライナー。claude mcp list で確認、claude mcp remove で削除。

ユースケース

実用的な使い方: buyer-eval-skill

3社のSaaSベンダーを要件に照らして評価する方法

👤 バイヤー、RevOps、調達リーダー ⏱ ~120 min intermediate

使うタイミング: 候補を3社に絞り込み、根拠をもって1社を選定する必要がある場合。

前提条件
  • スキルのクローン — git clone https://github.com/salespeak-ai/buyer-eval-skill ~/.claude/skills/buyer-eval-skill
フロー
  1. ルーブリックを定義する
    We're buying a customer support platform. Propose a weighted rubric (feature depth, integrations, price, security, support).✓ コピーしました
    → 根拠付きの重み付け基準
  2. 各ベンダーにインタビューする
    Use the skill's question bank to interview vendor A. Their docs / AI agent is at <url>. Record evidence per criterion.✓ コピーしました
    → 基準ごとのエビデンススニペットとソース
  3. スコアリングして比較する
    Score all three and produce a comparison matrix with a recommendation.✓ コピーしました
    → マトリクス+推薦+明示されたリスク

結果: フィーリングではなく、エビデンスに基づいた説得力のあるベンダー選定。

注意点
  • ルーブリックが最初から気に入っているベンダーに有利になっている — デモを見る前にルーブリックを確定させる
  • エビデンスがベンダーのマーケティング資料の引き写しに過ぎない — マーケティング資料よりもサードパーティソース(ドキュメント、G2、事例)を重視する
組み合わせ: filesystem

RFP回答を要件に照らして比較する

👤 大量のRFP回答に追われている調達チーム ⏱ ~90 min intermediate

使うタイミング: RFPを送付し、5社から回答を受け取り、ランク付けする必要がある場合。

フロー
  1. 回答を読み込む
    Here are 5 RFP response PDFs in rfp/. Extract answers per requirement.✓ コピーしました
    → 要件ごとのマトリクス
  2. ギャップと水増し回答をフラグする
    Where did a vendor answer the wrong question or punt? Flag fluff.✓ コピーしました
    → 各回答に対する率直な評価
  3. ランク付けする
    Rank the responses and write a short memo for the evaluation committee.✓ コピーしました
    → ランク付きメモ

結果: 公平かつ迅速なRFPレビュー。

注意点
  • 最も適合度が高い回答ではなく、最も上手く書かれた回答を高評価してしまう — 内容の実質で採点し、水増し表現にはペナルティを与える

組み合わせ

他のMCPと組み合わせて10倍の力を

buyer-eval-skill + filesystem

評価中にローカルフォルダからPDFやドキュメントを読み込む

Read rfp/responses/ and extract answers per requirement.✓ コピーしました
buyer-eval-skill + google-ai-mode-skill

ベンダーの主張を公開情報と照合する

For each vendor claim that isn't in their docs, run a quick web check.✓ コピーしました

ツール

このMCPが提供する機能

ツール入力呼び出すタイミングコスト
rubric-design domain + must-haves 評価開始時 0
vendor-interview vendor source (docs/AI agent) ベンダーごとに実施 0
scoring-and-matrix evidence per vendor + rubric インタビュー完了後 0
recommendation-memo matrix 最終ステップ 0

コストと制限

運用コスト

APIクォータ
LLM以外のAPIクォータなし
呼び出しあたりのトークン
フル評価1回あたり10〜40kトークン
金額
無料
ヒント
ベンダーは1社ずつインタビューする — コンテキストが集中し、エビデンスもクリーンに保てます

セキュリティ

権限、シークレット、影響範囲

認証情報の保管: なし
データ送信先: 指定したベンダーエージェントにスキルがアクセスする場合のみ外部通信が発生します

トラブルシューティング

よくあるエラーと対処法

Evidence is shallow(エビデンスが浅い)

Claudeに一次ドキュメントを参照させる。それでも不足する場合は公開事例を使用する

Scores feel gamed(スコアが操作されているように感じる)

ルーブリックを再確定し、可能であればベンダー名を伏せてスコアリングをやり直す

代替案

buyer-eval-skill 他との比較

代替案代わりに使う場面トレードオフ
creative-director-skillB2Bソフトウェアではなくクリエイティブコンセプトを評価する場合判断の対象領域が異なる

その他

リソース

📖 GitHub の公式 README を読む

🐙 オープンな issue を見る

🔍 400以上のMCPサーバーとSkillsを見る