LibreChat等のOpenAI互換チャットUIにMCPツールを追加する
使うタイミング: LibreChat、Big-AGI、または/v1/chat/completionsを呼び出してツール利用をしたいカスタムアプリを運用しているが、MCPに対応していない場合。
前提条件
- OpenAI互換の推論バックエンド — OpenAI、Anthropic(プロキシ経由)、vLLM、Ollamaなど
- 公開したいMCPサーバーが1つ以上あること — filesystem、fetch、postgres — お手持ちのものなら何でも
フロー
-
config.jsonを作成するWrite me an MCP-Bridge config.json that proxies OpenAI and exposes filesystem MCP (rooted at /data) and fetch MCP.✓ コピーしました→ inference_serverとmcp_serversセクションを含む有効な設定ファイル
-
Dockerで起動するGive me the docker run command to start MCP-Bridge using this config on port 8000.✓ コピーしました→ ボリュームマウント付きの動作するdockerコマンド
-
チャットUIをブリッジに向けるShow me what API base URL to set in LibreChat to use the bridge instead of OpenAI directly.✓ コピーしました→ http://localhost:8000/v1を指す設定
結果: LibreChatの会話からfilesystemおよびfetchツールを透過的に呼び出せるようになります。
注意点
- すべてのOpenAI互換クライアントがツール呼び出しに対応しているわけではない — 接続前にUIがレスポンスの
functionsに対応しているか確認してください。ドキュメントで「tool calling」サポートを確認しましょう - ストリーミングレスポンスは未実装 — クライアント側でストリーミングを無効にし、非ストリーミングエンドポイントを使用してください