/ 目錄 / 演練場 / MCP-Bridge
● 社群 SecretiveShell ⚡ 即開即用

MCP-Bridge

作者 SecretiveShell · SecretiveShell/MCP-Bridge

在任何相容 OpenAI 的客戶端(LibreChat、Open WebUI、自訂應用程式)中使用 MCP 工具,無需原生 MCP 支援。這是一個負責翻譯的中介軟體。

MCP-Bridge 位於您的 OpenAI 相容客戶端與推論後端之間。它將 MCP 伺服器工具以 OpenAI function-calling 工具的形式對外公開,負責分派呼叫並回傳結果以完成整個流程。當您慣用的聊天介面不支援 MCP 但支援 OpenAI 協定時,這個工具非常實用。

為什麼要用

核心特性

即時演示

實際使用效果

bridge.replay ▶ 就緒
0/0

安裝

選擇你的客戶端

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "bridge": {
      "command": "uvx",
      "args": [
        "MCP-Bridge"
      ],
      "_inferred": true
    }
  }
}

開啟 Claude Desktop → Settings → Developer → Edit Config。儲存後重啟應用。

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "bridge": {
      "command": "uvx",
      "args": [
        "MCP-Bridge"
      ],
      "_inferred": true
    }
  }
}

Cursor 使用與 Claude Desktop 相同的 mcpServers 格式。專案級設定優先於全域。

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "bridge": {
      "command": "uvx",
      "args": [
        "MCP-Bridge"
      ],
      "_inferred": true
    }
  }
}

點擊 Cline 側欄中的 MCP Servers 圖示,然後選 "Edit Configuration"。

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "bridge": {
      "command": "uvx",
      "args": [
        "MCP-Bridge"
      ],
      "_inferred": true
    }
  }
}

格式與 Claude Desktop 相同。重啟 Windsurf 生效。

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "bridge",
      "command": "uvx",
      "args": [
        "MCP-Bridge"
      ]
    }
  ]
}

Continue 使用伺服器物件陣列,而非映射。

~/.config/zed/settings.json
{
  "context_servers": {
    "bridge": {
      "command": {
        "path": "uvx",
        "args": [
          "MCP-Bridge"
        ]
      }
    }
  }
}

加入 context_servers。Zed 儲存後熱重載。

claude mcp add bridge -- uvx MCP-Bridge

一行命令搞定。用 claude mcp list 驗證,claude mcp remove 移除。

使用場景

實戰用法: MCP-Bridge

為 LibreChat 或任何相容 OpenAI 的聊天介面新增 MCP 工具

👤 自行架設開源聊天前端的使用者 ⏱ ~30 min intermediate

何時使用: 您正在執行 LibreChat、Big-AGI 或自訂應用程式,這些應用程式會呼叫 /v1/chat/completions 並希望使用工具呼叫功能,但它們不支援 MCP 協定。

前置條件
  • 一個相容 OpenAI 的推論後端 — OpenAI、透過代理的 Anthropic、vLLM、Ollama 等皆可
  • 至少一個您想公開的 MCP 伺服器 — filesystem、fetch、postgres——任何您已有的服務皆可
步驟
  1. 撰寫 config.json
    幫我寫一個 MCP-Bridge 的 config.json,代理 OpenAI 並公開 filesystem MCP(根目錄為 /data)和 fetch MCP。✓ 已複製
    → 包含 inference_server 和 mcp_servers 區段的有效設定檔
  2. 透過 Docker 執行
    給我用這份設定在連接埠 8000 啟動 MCP-Bridge 的 docker run 指令。✓ 已複製
    → 包含磁碟區掛載的可用 docker 指令
  3. 將聊天介面指向 Bridge
    告訴我在 LibreChat 中應將 API base URL 設為何值,以便使用 Bridge 取代直接呼叫 OpenAI。✓ 已複製
    → 指向 http://localhost:8000/v1 的設定

結果: LibreChat 的對話現在可以透明地呼叫 filesystem 和 fetch 工具。

注意事項
  • 並非所有相容 OpenAI 的客戶端都支援工具呼叫 — 接線前先確認您的介面支援回應中的 functions;查閱其文件中關於「工具呼叫」支援的說明
  • 串流回應尚未實作 — 在客戶端停用串流;改用非串流端點
搭配使用: filesystem · fetch

為您自己的 Python/JS Agent 框架提供 MCP 工具存取能力

👤 以 OpenAI SDK 建構自訂 Agent 的開發者 ⏱ ~25 min intermediate

何時使用: 您正在使用原始 OpenAI SDK(或 LangChain 的 OpenAI 客戶端)進行開發,希望整合 MCP 生態系工具,同時不需要重寫 Agent。

步驟
  1. 在本機啟動 MCP-Bridge
    以 OpenAI 為上游並掛載以下 MCP 伺服器執行 MCP-Bridge:[列表]。✓ 已複製
    → Bridge 監聽於 :8000
  2. 將 OpenAI 客戶端的 base_url 指向 Bridge
    示範 Python SDK 初始化方式:client = OpenAI(base_url='http://localhost:8000/v1', api_key=...),然後呼叫 chat completions。✓ 已複製
    → 無需修改即可運作的程式碼片段

結果: 您現有的 Agent 程式碼可零修改地取得工具存取能力。

注意事項
  • Bridge 是單一故障點 — 在正式環境中,請搭配 supervisord/systemd 執行並設定健康檢查端點

組合

與其他 MCP 搭配,撬動十倍槓桿

bridge + filesystem + fetch

低成本自架、具備真實工具呼叫能力的 ChatGPT 替代方案

透過 MCP-Bridge 公開 filesystem(根目錄為 ~/Notes)和 fetch,再使用 LibreChat 瀏覽並摘要內容。✓ 已複製

工具

此 MCP 暴露的能力

工具輸入參數何時呼叫成本
POST /v1/chat/completions OpenAI-compatible messages + tools omitted (auto-injected) 主要進入點——直接取代 OpenAI 使用 1 LLM call + N tool calls
GET /tools 探索 Bridge 目前公開了哪些工具 free
SSE /bridge 透過 SSE 將外部 MCP 客戶端連接至 Bridge free

成本與限制

運行它的成本

API 配額
直接轉發——依您的上游推論服務供應商計費
每次呼叫 Token 數
Bridge 每次請求會額外增加約 100–500 個 token 的工具定義
費用
免費(MIT 授權)。您只需支付 LLM 費用及託管費用。
提示
只掛載您實際需要的 MCP 伺服器——每個附加的工具都會增加系統提示的長度。

安全

權限、密鑰、影響範圍

憑證儲存: 上游 API 金鑰與 MCP 伺服器憑證儲存在 config.json 中;請鎖定檔案權限
資料出站: 請求會發送至您設定的上游服務(例如 OpenAI)以及所有已連接的 MCP 伺服器
切勿授予: Expose the bridge to the internet without enabling bearer auth

故障排查

常見錯誤與修復

Client says 'tool_use not supported'

上游模型或客戶端介面不支援 function calling。請改用支援此功能的模型(gpt-4o、claude、llama 3.1+)。

MCP server connection refused

確認 config.json 中的指令可以正常執行。Bridge 會以子行程方式啟動它;請手動測試:npx -y the-mcp

401 from bridge when auth enabled

請設定 Authorization: Bearer <key> 標頭;該金鑰必須在設定檔的 security.auth.keys 中。

替代方案

MCP-Bridge 對比其他方案

替代方案何時用它替代權衡
Open WebUI native MCP您專門使用 Open WebUI 0.6.31+內建功能——無需 Bridge,但僅限 Open WebUI 使用
LiteLLM with custom callbacks您需要多供應商路由與工具注入功能較為複雜;LiteLLM 本身也不原生支援 MCP
mcpo您希望將 MCP 工具以純 OpenAPI 形式公開給非 LLM 客戶端設計理念不同——以 OpenAPI 為主,而非以 chat-completions 為主

更多

資源

📖 閱讀 GitHub 上的官方 README

🐙 查看未解決的 issue

🔍 瀏覽全部 400+ MCP 伺服器和 Skills