إضافة أدوات MCP إلى LibreChat / أي واجهة دردشة متوافقة مع OpenAI
متى تستخدمه: تقوم بتشغيل LibreChat أو Big-AGI أو تطبيق مخصص يستدعي /v1/chat/completions ويريد استخدام الأدوات، لكنه لا يتحدث MCP.
المتطلبات الأساسية
- خادم خلفي للاستدلال متوافق مع OpenAI — OpenAI أو Anthropic-via-proxy أو vLLM أو Ollama وغيرها
- خادم MCP واحد على الأقل تريد تعريضه — filesystem أو fetch أو postgres — أي شيء لديك
الخطوات
-
كتابة config.jsonاكتب لي ملف config.json خاص بـ MCP-Bridge يوكيل OpenAI ويعرّض MCP نظام الملفات (مع الجذر في /data) و MCP fetch.✓ تم النسخ→ إعدادات صحيحة مع أقسام inference_server و mcp_servers
-
التشغيل عبر Dockerأعطني أمر docker run لتشغيل MCP-Bridge باستخدام هذا الإعداد على المنفذ 8000.✓ تم النسخ→ أمر docker يعمل مع نقاط تثبيت المجلدات
-
توجيه واجهة الدردشة نحو الجسرأريني عنوان URL الأساسي للـ API الذي يجب ضبطه في LibreChat لاستخدام الجسر بدلاً من OpenAI مباشرة.✓ تم النسخ→ إعداد يشير إلى http://localhost:8000/v1
النتيجة: يمكن لحوارات LibreChat الآن استدعاء أدوات نظام الملفات و fetch بشكل شفاف.
المزالق
- ليس جميع عملاء OpenAI المتوافقين يدعمون استدعاءات الأدوات — تحقق من أن واجهتك تدعم
functionsفي الردود قبل الربط؛ تحقق من وثائقها لدعم 'استدعاء الأدوات' - لم يتم تنفيذ الردود المتدفقة بعد — عطّل البث في العميل؛ استخدم نقاط نهاية غير متدفقة