为 LibreChat 等兼容 OpenAI 的聊天 UI 添加 MCP 工具
何时使用: 你正在运行 LibreChat、Big-AGI 或自定义应用(它调用 /v1/chat/completions 并希望使用工具),但不支持 MCP。
前置条件
- 一个兼容 OpenAI 的推理后端 — OpenAI、Anthropic-via-proxy、vLLM、Ollama 等
- 至少一个你想暴露的 MCP server — filesystem、fetch、postgres 等
步骤
-
编写 config.json为我编写一个 MCP-Bridge config.json,代理 OpenAI 并暴露 filesystem MCP(根目录在 /data)和 fetch MCP。✓ 已复制→ 带有 inference_server 和 mcp_servers 部分的有效配置
-
通过 Docker 运行给我 docker run 命令以在端口 8000 上使用此配置启动 MCP-Bridge。✓ 已复制→ 带有卷挂载的有效 docker 命令
-
将聊天 UI 指向 bridge告诉我在 LibreChat 中应该设置什么 API 基础 URL 来使用 bridge 而不是直接使用 OpenAI。✓ 已复制→ 指向 http://localhost:8000/v1 的配置
结果: LibreChat 对话现在可以透明地调用 filesystem 和 fetch 工具。
注意事项
- 并非所有兼容 OpenAI 的客户端都支持工具调用 — 在连接前验证你的 UI 是否在响应中支持
functions;检查其文档中的'工具调用'支持 - 流式响应尚未实现 — 在客户端中禁用流式处理;使用非流式端点