為 LibreChat 或任何相容 OpenAI 的聊天介面新增 MCP 工具
何時使用: 您正在執行 LibreChat、Big-AGI 或自訂應用程式,這些應用程式會呼叫 /v1/chat/completions 並希望使用工具呼叫功能,但它們不支援 MCP 協定。
前置條件
- 一個相容 OpenAI 的推論後端 — OpenAI、透過代理的 Anthropic、vLLM、Ollama 等皆可
- 至少一個您想公開的 MCP 伺服器 — filesystem、fetch、postgres——任何您已有的服務皆可
步驟
-
撰寫 config.json幫我寫一個 MCP-Bridge 的 config.json,代理 OpenAI 並公開 filesystem MCP(根目錄為 /data)和 fetch MCP。✓ 已複製→ 包含 inference_server 和 mcp_servers 區段的有效設定檔
-
透過 Docker 執行給我用這份設定在連接埠 8000 啟動 MCP-Bridge 的 docker run 指令。✓ 已複製→ 包含磁碟區掛載的可用 docker 指令
-
將聊天介面指向 Bridge告訴我在 LibreChat 中應將 API base URL 設為何值,以便使用 Bridge 取代直接呼叫 OpenAI。✓ 已複製→ 指向 http://localhost:8000/v1 的設定
結果: LibreChat 的對話現在可以透明地呼叫 filesystem 和 fetch 工具。
注意事項
- 並非所有相容 OpenAI 的客戶端都支援工具呼叫 — 接線前先確認您的介面支援回應中的
functions;查閱其文件中關於「工具呼叫」支援的說明 - 串流回應尚未實作 — 在客戶端停用串流;改用非串流端點