/ Verzeichnis / Playground / Firecrawl
● Offiziell firecrawl 🔑 Eigener Schlüssel nötig

Firecrawl

von firecrawl · firecrawl/firecrawl-mcp-server

Verwandle jede Webseite in saubere, strukturierte Daten, die Dein AI-Agent tatsächlich nutzen kann — verarbeitet JS-gerenderte Websites und liefert JSON über Schema.

Firecrawl ist ein gehosteter Scraping-Service, optimiert für LLM-Nutzung. Während das grundlegende fetch MCP dir rohes HTML gibt, rendert Firecrawl JS-lastige Seiten, entfernt Boilerplate, liefert dir sauberes Markdown und unterstützt strukturierte Extraktion via JSON-Schema.

Warum nutzen

Hauptfunktionen

Live-Demo

In der Praxis

firecrawl.replay ▶ bereit
0/0

Installieren

Wählen Sie Ihren Client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Öffne Claude Desktop → Settings → Developer → Edit Config. Nach dem Speichern neu starten.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Cursor nutzt das gleiche mcpServers-Schema wie Claude Desktop. Projektkonfiguration schlägt die globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Klicken Sie auf das MCP-Servers-Symbol in der Cline-Seitenleiste, dann "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Gleiche Struktur wie Claude Desktop. Windsurf neu starten zum Übernehmen.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "firecrawl",
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  ]
}

Continue nutzt ein Array von Serverobjekten statt einer Map.

~/.config/zed/settings.json
{
  "context_servers": {
    "firecrawl": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "firecrawl-mcp"
        ]
      }
    }
  }
}

In context_servers hinzufügen. Zed lädt beim Speichern neu.

claude mcp add firecrawl -- npx -y firecrawl-mcp

Einzeiler. Prüfen mit claude mcp list. Entfernen mit claude mcp remove.

Anwendungsfälle

Praxisnahe Nutzung: Firecrawl

Erstelle eine Live-Preisvergleichstabelle der Wettbewerber

👤 Produktmanager, Gründer bei Marktforschung ⏱ ~20 min intermediate

Wann einsetzen: Du überarbeitest Deine Preisstruktur und musst sehen, was 5 Wettbewerber für vergleichbare Pläne verlangen, mit Quellenangaben.

Voraussetzungen
  • Firecrawl API-Schlüssel — firecrawl.dev — kostenlos gibt 500 Credits, ausreichend für ~50 Seiten
Ablauf
  1. Definiere ein Schema für 'Preisgestaltung'
    Ich möchte Preise für [Deine Kategorie] vergleichen. Definiere ein Schema mit: Planname, monatlicher Preis, inkludierte Nutzung, Hauptfunktionen und eventuell zusätzliche Überschreitungskosten.✓ Kopiert
    → Schema mit diesen Feldern als strikte Typen
  2. Starte Extraktion über 5 Wettbewerber-URLs parallel
    Extrahiere Preise aus diesen 5 URLs mit dem Schema: [URLs auflisten]. Nutze den strukturierten Extraktions-Endpoint.✓ Kopiert
    → 5 normalisierte JSON-Blöcke zum Vergleichen
  3. Zeige als Vergleichstabelle mit Quellenangaben
    Zeige dies als Markdown-Tabelle mit jedem Wettbewerber als Spalte. Füge eine Fußnote mit Quellenangabe zu jeder Quellen-URL ein.✓ Kopiert
    → Vergleich fertig zum Einfügen in ein Dokument oder Präsentation

Ergebnis: Eine normalisierte Preistabelle, die Du jederzeit erneut ausführen kannst, um Änderungen zu erkennen — kostet ~5 Firecrawl Credits pro Aktualisierung.

Fallstricke
  • Preisseiten haben oft Umschalter (monatlich/jährlich, Nutzungsstufen), die das Scraping nicht offenbart — Führe mit actions: [{type: 'click', selector: '...toggle...'}] aus, um beide Zustände zu erfassen, oder vermerke die Einschränkung in Deinem finalen Output
  • Einige Websites blockieren Scraper über Cloudflare — Firecrawl verarbeitet die meisten. Falls weiterhin blockiert, nutzt die Seite wahrscheinlich absichtlich Anti-Bot-Maßnahmen — respektiere das und zitiere manuell
Kombinieren mit: notion · postgres

Überwache die Dokumentations-Website eines Wettbewerbers auf neue Funktionen

👤 Produkt-Marketing, Competitive Intelligence ⏱ ~15 min intermediate

Wann einsetzen: Du möchtest innerhalb von 24 Stunden erfahren, wenn ein Wettbewerber etwas Neues veröffentlicht. Ihr Changelog/Blog ist das Ankündigungsmedium.

Voraussetzungen
  • URL ihrer Changelog- oder Blog-Indexseite — Üblicherweise /changelog, /blog, /releases oder /whats-new
Ablauf
  1. Crawle das Changelog-Verzeichnis
    Crawle <URL> mit depth=1, gib alle Post-URLs und deren Daten zurück. Begrenzt auf 50 neueste.✓ Kopiert
    → Liste der neuesten Beiträge mit Daten
  2. Extrahiere jeden Beitrag in ein normalisiertes Format
    Für Beiträge aus den letzten 30 Tagen, extrahiere Titel, Datum, Zusammenfassung und Funktionsnamen-Erwähnungen in JSON.✓ Kopiert
    → Strukturiertes Changelog zum Vergleichen mit dem letzten Lauf
  3. Hebe hervor, was neu ist vs. letzte Woche
    Vergleiche mit dem vorherigen Lauf [bisherige JSON einfügen]. Was ist diese Woche neu und was sind die strategischen Implikationen?✓ Kopiert
    → Diff mit strategischem Kommentar

Ergebnis: Ein wöchentlicher Wettbewerbs-Digest, den Du als geplanten Job ausführen kannst — verpasse nie wieder eine Funktionsveröffentlichung.

Fallstricke
  • RSS-Feeds existieren normalerweise und sind günstiger als Scraping — Versuche zuerst <url>/feed.xml oder <url>/rss — falle nur auf Scraping zurück, wenn kein Feed vorhanden
Kombinieren mit: notion

Bereichere eine Liste von Unternehmens-URLs mit strukturierten Firmographiedaten

👤 Vertrieb, Marketing Ops ⏱ ~30 min intermediate

Wann einsetzen: Du hast ein Tabellenkalkulationsblatt mit 200 Unternehmenswebsites und brauchst deren Mitarbeiterzahl, Branche und Tech-Stack, um die Kontaktaufnahme zu priorisieren.

Voraussetzungen
  • Quellliste von URLs — CSV oder Textdatei mit Homepage-URLs
Ablauf
  1. Definiere Anreicherungsschema
    Definiere ein Schema für: company_name, industry, employee_count_estimate, headquarters_location, primary_product_description (1 Zeile), tech_stack_signals (Liste).✓ Kopiert
    → Striktes JSON-Schema
  2. Extrahiere aus jeder URL mit Rate Limiting
    Für jede URL in [Liste], führe Firecrawl-Extraktion mit dem Schema aus. Verarbeite in Batches von 10 mit 2-Sekunden-Pausen, um höflich zu bleiben.✓ Kopiert
    → Pro-URL JSON, Fehler separat protokolliert
  3. Ausgabe einer sauberen CSV
    Konvertiere Ergebnisse in CSV mit den ursprünglichen URLs als Join-Schlüssel. Kennzeichne Zeilen, bei denen die Extraktion fehlgeschlagen ist, damit ich sie manuell erneut versuchen kann.✓ Kopiert
    → CSV fertig zum Importieren in Dein CRM

Ergebnis: Eine angereicherte 200-Zeilen-Interessentenliste in ~10 Minuten für ~$2 in Firecrawl Credits.

Fallstricke
  • Einige Unternehmen haben nur eine Splash-Seite ohne Informationen — Lasse Claude diese für manuelle Überprüfung kennzeichnen, anstatt Informationen zu erfinden
  • Die Kosten summieren sich im großen Maßstab — 10k URLs = echtes Geld — Teste zuerst eine Stichprobe, um die Schema-Qualität zu validieren, bevor Du auf der vollständigen Liste ausführst
Kombinieren mit: filesystem

Kombinationen

Mit anderen MCPs für 10-fache Wirkung

firecrawl + notion

Scrape, fasse zusammen und poste direkt in eine Notion-Wissensdatenbank

Scrape alle Beiträge von anthropic.com/news aus den letzten 30 Tagen, fasse jeden in 2 Sätzen zusammen und erstelle eine Notion-Seite in der Datenbank 'AI News' für jeden.✓ Kopiert
firecrawl + postgres

Scrape Wettbewerbsdaten wöchentlich und speichere in Deiner Datenbank für Zeitreihenanalyse

Führe meine Wettbewerbs-Preisextraktion aus, dann INSERT dann jede Zeile in die Tabelle competitor_pricing mit dem heutigen Datum.✓ Kopiert
firecrawl + filesystem

Crawle Dokumentations-Websites und speichere als Markdown für Offline-RAG-Indexierung

Crawle docs.stripe.com, speichere jede Seite als .md-Datei unter /knowledge/stripe/.✓ Kopiert

Werkzeuge

Was dieses MCP bereitstellt

WerkzeugEingabenWann aufrufenKosten
firecrawl_scrape url: str, formats?: ['markdown'|'html'|'links'|'screenshot'] Du brauchst den Inhalt einer einzelnen Seite als Markdown für das Modell 1 Credit pro Seite
firecrawl_crawl url, limit, includePaths?, excludePaths?, maxDepth? Du musst einen ganzen Bereich einer Website scrapen 1 Credit pro gecrawlte Seite
firecrawl_extract urls: str[], schema: JSONSchema, prompt? Du möchtest strukturiertes JSON, nicht Rohtext 5 Credits pro Seite (LLM-gestützt)
firecrawl_map url, search? Entdecke alle URLs auf einer Website, ohne Inhalte zu laden 1 Credit

Kosten & Limits

Was der Betrieb kostet

API-Kontingent
Kostenlos: 500 Credits, 10 gleichzeitig. Hobby: $19/Monat für 3000 Credits.
Tokens pro Aufruf
~2000 Tokens durchschnittlich pro gecrawlter Seite (Markdown-Body)
Kosten in €
1 Credit pro Scrape, 5 Credits pro strukturierter Extraktion, 1 pro Map. Credits werden nicht übertragen.
Tipp
Nutze firecrawl_map zuerst zur Planung, dann nur firecrawl_scrape die URLs, die Du wirklich brauchst. Caching aggressiv — die meisten Seiten ändern sich nicht täglich.

Sicherheit

Rechte, Secrets, Reichweite

Credential-Speicherung: API-Schlüssel in Umgebungsvariable FIRECRAWL_API_KEY
Datenabfluss: Alle Anfragen gehen über Firecrawls Server (US/EU-Regionen). Sie proxyen zu Ziel-Websites.

Fehlerbehebung

Häufige Fehler und Lösungen

402 Payment Required

Keine Credits mehr. Lade auf unter firecrawl.dev/dashboard auf oder warte auf den monatlichen Reset.

Leeres Markdown zurückgegeben

Seite könnte JS-only sein; stelle sicher, dass formats: ['markdown'] gesetzt ist und mobile: false. Versuche mit actions: [{type:'wait', milliseconds: 3000}], um JS-Ausführung zuzulassen.

Crawl gibt weniger Seiten zurück als erwartet

Überprüfe, ob excludePaths nicht zu aggressiv ist. Auch: viele Websites haben eine robots.txt, die Crawler blockiert. Firecrawl respektiert diese standardmäßig.

429 Too Many Requests (Ziel-Website)

Reduziere die Parallelisierung in Deinen Crawl-Optionen. Einige Websites erzwingen Anfrage-Budgets pro IP.

Alternativen

Firecrawl vs. andere

AlternativeWann stattdessenKompromiss
fetch MCPStatische HTML-Seiten, keine JS-Rendering erforderlich, keine Schema-ExtraktionKostenlos und schnell, aber funktioniert nicht mit SPAs und gibt Dir rohes HTML zum Parsen
Playwright MCPDu musst mit der Seite interagieren (Login, durch Abläufe klicken)Mehr Code, besser für komplexe Interaktionen; nicht für Massenextraktion optimiert
Brightdata MCPDu brauchst Wohn-Proxies für Websites, die Datacenter-IPs blockierenSchwergewicht und teuer — nur wert für schwierige Ziele
Apify MCPDu brauchst vorgefertigte Scraper für spezifische Websites (Amazon, LinkedIn strukturierte Daten)Besser für Nischen-Ziele mit vorgefertigten Actors; mehr Setup

Mehr

Ressourcen

📖 Offizielle README auf GitHub lesen

🐙 Offene Issues ansehen

🔍 Alle 400+ MCP-Server und Skills durchsuchen