/ Verzeichnis / Playground / mcp-use
● Community mcp-use ⚡ Sofort

mcp-use

von mcp-use · mcp-use/mcp-use

Python-Bibliothek, die viele MCP-Server in einen LangChain-Agent verbindet – oder führt sie ohne LLM im Headless-Modus aus.

mcp-use ist ein Client-seitiges Python-Framework. Verweisen Sie es auf N MCP-Server-Konfigurationen (stdio oder HTTP), wrappen Sie diese mit einem MCPAgent und einem beliebigen LangChain-kompatiblen LLM, und Sie haben einen funktionsfähigen Multi-Server-Agent. Unterstützt auch direkte MCPClient-Tool-Aufrufe ohne LLM – nützlich für skriptgesteuerte Automatisierungen.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

mcp-use.replay ▶ bereit
0/0

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "mcp-use": {
      "command": "uvx",
      "args": [
        "mcp-use"
      ]
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "mcp-use": {
      "command": "uvx",
      "args": [
        "mcp-use"
      ]
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "mcp-use": {
      "command": "uvx",
      "args": [
        "mcp-use"
      ]
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "mcp-use": {
      "command": "uvx",
      "args": [
        "mcp-use"
      ]
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "mcp-use",
      "command": "uvx",
      "args": [
        "mcp-use"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "mcp-use": {
      "command": {
        "path": "uvx",
        "args": [
          "mcp-use"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add mcp-use -- uvx mcp-use

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: mcp-use

Erstellen Sie einen benutzerdefinierten Agent, der Playwright + Dateisystem + Postgres nutzt

👤 Python-Entwickler, die vertikale Agenten erstellen ⏱ ~45 min intermediate

Wann einsetzen: Sie benötigen eine wiederholbare Automatisierung (nicht Claude Desktop), die Browser + Dateien + DB verkettet.

Voraussetzungen
  • Python 3.10+, uv oder pip — Standard-Setup
  • Ein LLM-API-Schlüssel (OpenAI / Anthropic) — Legen Sie ihn als Umgebungsvariable fest, die Ihr LangChain-Modell erwartet
Ablauf
  1. Definieren Sie die Server-Konfigurationen
    Schreiben Sie eine mcp-use-Konfiguration, die sich mit Playwright (stdio via npx), Postgres (stdio via uvx) und Dateisystem (lokaler Pfad begrenzt) verbindet.✓ Kopiert
    → JSON-/Dict-Konfiguration, die dem Schema entspricht
  2. Verdrahten Sie den Agent
    Erstellen Sie einen MCPAgent mit ChatAnthropic (claude-sonnet-4) und der obigen Konfiguration. Max. Iterationen = 15.✓ Kopiert
    → Agent-Instanz bereit für .run()
  3. Führen Sie eine Aufgabe aus
    Ausführen: ‚Crawlen Sie docs.example.com, speichern Sie jede Seite in ./knowledge/, dann indizieren Sie Titel in der Postgres-Tabelle docs.' Beobachten Sie Tool-Aufrufe in den Protokollen.✓ Kopiert
    → Aufgabe wird abgeschlossen, Daten landen, wo erwartet

Ergebnis: Ein skriptierbarer Agent, den Sie planen, bereitstellen oder einbetten können – nicht an einen Desktop-Client gebunden.

Fallstricke
  • Agent schleift zwischen Servern, verbraucht Token — Stellen Sie strenge max_iterations ein und verwenden Sie ein LLM, das Anweisungen gut befolgt – GPT-4o-mini schleift oft bei komplexen Ketten, verwenden Sie ein stärkeres Modell
  • stdio-Server zombifiziert nach Absturz — Verwenden Sie immer das async-Context-Manager-Muster – es kümmert sich um die Bereinigung; verwalten Sie den Prozess nicht selbst
Kombinieren mit: fastmcp · mcp-agent

Rufen Sie MCP-Tools von Python ohne LLM auf

👤 Ingenieure, die Ops-Aufgaben automatisieren ⏱ ~20 min intermediate

Wann einsetzen: Sie möchten ein MCP-Tool deterministisch als Teil einer größeren Python-Pipeline aufrufen.

Ablauf
  1. Verbinden Sie den Client direkt
    Verwenden Sie MCPClient, um sich mit meinem Dateisystem-MCP zu verbinden. Listet verfügbare Tools auf.✓ Kopiert
    → Tool-Namen + Schemas gedruckt
  2. Rufen Sie ein Tool mit typisierten Argumenten auf
    Rufen Sie write_file mit path='./out.txt' und content='hello' auf. Bestätigen Sie den Rückgabewert.✓ Kopiert
    → Datei geschrieben, kein LLM beteiligt
  3. Verkettung in Ihre Geschäftslogik
    Wickeln Sie dies in eine Funktion save_report(df) ein, die das MCP-Tool aufruft – integrieren Sie sie in meine bestehende Python-ETL.✓ Kopiert
    → Wiederverwendbare Funktion

Ergebnis: MCP-as-Library: Gleiche Server, die von Claude Desktop verwendet werden, auch von einfachem Python abrufbar.

Fallstricke
  • Fehler werden nicht natürlich hochgepropagiert – MCP-Fehler kommen als Ergebnisobjekte mit isError: true — Überprüfen Sie result.isError nach jedem Aufruf; gehen Sie nicht von Erfolg aus

Erstellen Sie einen Router-Agent, der die richtige MCP für jede Anfrage auswählt

👤 Teams, die Agent-Produkte ausliefern ⏱ ~60 min advanced

Wann einsetzen: Benutzer senden gemischte Anfragen (Code, Daten, Web) – ein monolithischer Prompt mit 50 Tools verschlechtert sich; Sie möchten Routing.

Ablauf
  1. Definieren Sie Server-Gruppen
    Teilen Sie meine MCP-Server in 3 Gruppen ein: ‚code' (git, github), ‚data' (postgres, bigquery), ‚web' (firecrawl, playwright).✓ Kopiert
    → 3 separate Agent-Konfigurationen
  2. Fügen Sie eine Router-Schicht hinzu
    Schreiben Sie einen Classifier-Prompt, der eine Gruppe basierend auf der Absicht des Benutzers auswählt. Verwenden Sie ihn, um den passenden MCPAgent bei Bedarf zu instanziieren.✓ Kopiert
    → Classifier gibt einen von {code, data, web} zurück
  3. Testen Sie mit gemischtem Verkehr
    Führen Sie 10 unterschiedliche Anfragen durch den Router aus. Protokollieren Sie, welche Gruppe jede bearbeitet hat und ob die Antwort korrekt war.✓ Kopiert
    → Genauigkeitstabelle + Latenzstatistiken

Ergebnis: Ein modulares Agent-System, in dem jede Anfrage nur die relevanten Tools sieht – bessere Genauigkeit, niedrigere Token-Kosten.

Fallstricke
  • Grenzfälle, bei denen die Anfrage zwei Gruppen benötigt (z. B. ‚scrape + in DB speichern') — Definieren Sie eine vierte ‚cross'-Gruppe oder greifen Sie auf das Orchestrator-Muster über mcp-agent zurück
Kombinieren mit: mcp-agent

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

mcp-use + mcp-agent

Verwenden Sie mcp-use zum Verbinden von Servern, mcp-agent für Workflow-Muster (Orchestrator/Evaluator)

Erstellen Sie eine Evaluator-Optimizer-Schleife, bei der ein Writer-Agent mcp-use verwendet, um auf Dateisystem + Git zuzugreifen, und ein Critic-Agent gibt Ausgabe mit denselben Servern überprüft.✓ Kopiert
mcp-use + fastmcp

Schreiben Sie einen Server mit FastMCP, dann skriptieren Sie ihn mit mcp-use – End-to-End-Python-Agent-Stack

Server: Stellen Sie unsere Pricing-API über FastMCP zur Verfügung. Client: Verwenden Sie mcp-use, um sie in einem Pricing-Simulations-Skript aufzurufen.✓ Kopiert

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
MCPClient(config) Server-Konfiguration dict/Pfad Einstiegspunkt für jedes mcp-use-Skript kostenlos
MCPAgent(llm, client, max_steps) LangChain-Chat-Modell + MCPClient Wenn Sie LLM-gesteuerte Tool-Auswahl möchten Nur LLM-Aufrufe
client.list_tools() server_name? Untersuchen Sie, was verfügbar ist, bevor Sie anrufen kostenlos
client.call_tool(name, args) tool_name, dict Direkter deterministischer Aufruf – kein LLM hängt vom Tool ab
MCPServer decorator API @server.tool() auf Funktionen Weniger häufig; FastMCP ist normalerweise sauberer für Server-Erstellung kostenlos

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Keine von mcp-use selbst; hängt von LLM und nachgelagerten MCPs ab
Tokens pro Aufruf
LLM-gesteuerte Aufrufe verbrauchen Token – das übliche LangChain-Agent-Kostenmodell
Kosten in €
Bibliothek ist kostenlos, LLM-Nutzung nicht
Tipp
Verwenden Sie für deterministische Abläufe client.call_tool direkt – überspringen Sie das LLM. Reservieren Sie MCPAgent für wirklich mehrdeutige Aufgaben.

Sicherheit

Rechte, Secrets, Reichweite

Credential-Speicherung: Pro zugrundeliegendem MCP – mcp-use fügt keine Schicht hinzu
Datenabfluss: LLM-Provider + jedes verbundene MCP

Fehlerbehebung

Häufige Fehler und Lösungen

ConnectionError beim Starten des stdio-Servers

Der command in Ihrer Konfiguration ist nicht in PATH oder das Paket ist nicht installiert. Testen Sie manuell: Führen Sie zunächst denselben npx -y ... in einem Terminal aus.

Prüfen: which npx && npx -y @modelcontextprotocol/server-filesystem --help
Agent ruft Tools korrekt auf, aber die Antwort ist falsch

Normalerweise ein LLM-Problem – versuchen Sie ein stärkeres Modell. GPT-4o-mini und Open-Source-7B-Modelle misinterpretieren oft Tool-Ergebnisse.

Event-Loop-Fehler wird bereits ausgeführt

Sie rufen eine Sync-API aus einem Async-Kontext auf. Verwenden Sie durchgehend await und die Async-Client-Methoden.

Tools von Server A überschatten Namen in Server B

Präfixieren Sie Tool-Namen pro Server in Ihrer Konfiguration, oder verlassen Sie sich auf die integrierte Namespace-Handhabung der Bibliothek (set namespace=True).

Alternativen

mcp-use vs. andere

AlternativeWann stattdessenKompromiss
mcp-agentSie möchten Workflow-Muster (Orchestrator, Router, Evaluator) eingebackenOpinionierter; weniger flexibel, wenn Sie rohes LangChain möchten
Official Python MCP SDKSie möchten den Client auf der niedrigsten Ebene – kein LangChain, keine AbstraktionenMehr Rohrleitungscode
LangGraph + MCPSie benötigen zustandsbehaftete Multi-Turn-Graphen mit CheckpointsSteilere Lernkurve; Overkill für einfache Agenten

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen