/ Annuaire / Playground / Firecrawl
● Officiel firecrawl 🔑 Nécessite votre clé

Firecrawl

par firecrawl · firecrawl/firecrawl-mcp-server

Transformez n'importe quelle page web en données structurées et propres que votre agent IA peut réellement utiliser — gère les sites rendus en JS et vous fournit du JSON via un schéma.

Firecrawl est un service de scraping hébergé optimisé pour la consommation par les LLM. Alors que le MCP fetch basique vous donne du HTML brut, Firecrawl rend les pages lourdes en JS, élimine le code superflu, retourne du Markdown propre et supporte l'extraction structurée via JSON schema.

Pourquoi l'utiliser

Fonctionnalités clés

Démo en direct

Aperçu en pratique

firecrawl.replay ▶ prêt
0/0

Installer

Choisissez votre client

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Ouvrez Claude Desktop → Settings → Developer → Edit Config. Redémarrez après avoir enregistré.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Cursor utilise le même schéma mcpServers que Claude Desktop. La config projet l'emporte sur la globale.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Cliquez sur l'icône MCP Servers dans la barre latérale Cline, puis "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Même format que Claude Desktop. Redémarrez Windsurf pour appliquer.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "firecrawl",
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  ]
}

Continue utilise un tableau d'objets serveur plutôt qu'une map.

~/.config/zed/settings.json
{
  "context_servers": {
    "firecrawl": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "firecrawl-mcp"
        ]
      }
    }
  }
}

Ajoutez dans context_servers. Zed recharge à chaud à la sauvegarde.

claude mcp add firecrawl -- npx -y firecrawl-mcp

Une seule ligne. Vérifiez avec claude mcp list. Supprimez avec claude mcp remove.

Cas d'usage

Usages concrets : Firecrawl

Créez un tableau de comparaison des prix des concurrents en temps réel

👤 Chefs de produit, fondateurs faisant de la recherche marketing ⏱ ~20 min intermediate

Quand l'utiliser : Vous actualisez votre stratégie de tarification et devez voir ce que 5 concurrents facturent pour des plans comparables, avec les sources.

Prérequis
  • Clé API Firecrawl — firecrawl.dev — la version gratuite vous donne 500 crédits, suffisant pour ~50 pages
Déroulement
  1. Définissez un schéma pour ce que signifie 'tarification'
    Je veux comparer les prix pour [votre catégorie]. Définissez un schéma qui capture : nom du plan, prix mensuel, utilisation incluse, fonctionnalités clés et tous les frais supplémentaires par unité.✓ Copié
    → Schéma avec ces champs comme types stricts
  2. Exécutez l'extraction sur 5 URLs de concurrents en parallèle
    Extrayez les prix de ces 5 URLs en utilisant le schéma : [liste des URLs]. Utilisez le point de terminaison d'extraction structurée.✓ Copié
    → 5 blobs JSON normalisés que vous pouvez comparer
  3. Affichez comme un tableau de comparaison avec des citations
    Affichez ceci comme un tableau Markdown avec chaque concurrent en colonne. Ajoutez une note de citation pointant vers chaque URL source.✓ Copié
    → Comparaison prête à être insérée dans un document ou une présentation

Résultat : Un tableau de tarification normalisé que vous pouvez réexécuter à tout moment pour détecter les modifications — coûte ~5 crédits Firecrawl par actualisation.

Pièges
  • Les pages de tarification ont souvent des bascules (mensuel/annuel, niveaux d'utilisation) que le scraping ne révèle pas — Exécutez avec actions: [{type: 'click', selector: '...toggle...'}] pour capturer les deux états, ou notez la limitation dans votre résultat final
  • Certains sites bloquent les scrapers via Cloudflare — Firecrawl gère la plupart. Si toujours bloqué, la page utilise probablement intentionnellement des mesures anti-bot — respectez cela et citez manuellement
Combiner avec : notion · google-sheets

Surveillez le site de documentation d'un concurrent pour les nouvelles fonctionnalités

👤 Responsables produits marketing, renseignements concurrentiels ⏱ ~15 min intermediate

Quand l'utiliser : Vous voulez savoir dans les 24 heures quand un concurrent livre quelque chose de nouveau. Leur changelog/blog est l'endroit où ils l'annoncent.

Prérequis
  • URL de leur page d'index changelog ou blog — Généralement /changelog, /blog, /releases ou /whats-new
Déroulement
  1. Explorez l'index changelog
    Explorez <URL> avec depth=1, retournez toutes les URLs des messages et leurs dates. Limitez aux 50 plus récents.✓ Copié
    → Liste des messages récents avec les dates
  2. Extrayez chaque message dans un format normalisé
    Pour les messages publiés au cours des 30 derniers jours, extrayez le titre, la date, le résumé et toute mention de nom de fonctionnalité, dans JSON.✓ Copié
    → Changelog structuré que vous pouvez comparer avec l'exécution de la semaine dernière
  3. Mettez en évidence ce qui est nouveau par rapport à la semaine dernière
    Comparez à l'exécution précédente [collez le JSON précédent]. Qu'y a-t-il de nouveau cette semaine et quelles sont les implications stratégiques ?✓ Copié
    → Diff avec un commentaire stratégique

Résultat : Un résumé hebdomadaire des concurrents que vous pouvez exécuter en tant que travail programmé — ne manquez jamais une nouvelle fonctionnalité.

Pièges
  • Les flux RSS existent généralement et sont moins chers que le scraping — Essayez d'abord <url>/feed.xml ou <url>/rss — ne revenez au scraping que s'il n'y a pas de flux
Combiner avec : notion

Enrichissez une liste d'URLs d'entreprises avec des données firmographiques structurées

👤 Ventes, opérations marketing ⏱ ~30 min intermediate

Quand l'utiliser : Vous avez un CSV de 200 sites web d'entreprises et avez besoin de leur nombre d'employés, leur secteur et leur pile technologique pour prioriser la sensibilisation.

Prérequis
  • Liste source des URLs — Fichier CSV ou texte d'URLs de pages d'accueil
Déroulement
  1. Définissez le schéma d'enrichissement
    Définissez un schéma pour : company_name, industry, employee_count_estimate, headquarters_location, primary_product_description (1 ligne), tech_stack_signals (liste).✓ Copié
    → Schéma JSON strict
  2. Extrayez de chaque URL avec limitation de débit
    Pour chaque URL dans [liste], exécutez l'extraction Firecrawl avec le schéma. Traitez par lots de 10 avec des pauses de 2 secondes pour rester courtois.✓ Copié
    → JSON par URL, erreurs enregistrées séparément
  3. Produisez un CSV propre
    Convertissez les résultats en CSV avec les URLs originales comme clé de jointure. Marquez les lignes où l'extraction a échoué pour que je puisse réessayer manuellement.✓ Copié
    → CSV prêt à importer dans votre CRM

Résultat : Une liste de prospects enrichis de 200 lignes en ~10 minutes pour ~2 $ en crédits Firecrawl.

Pièges
  • Certaines entreprises n'ont qu'une page splash sans informations — Laissez Claude marquer celles-ci pour un examen manuel plutôt que de halluciner
  • Le coût s'additionne à l'échelle — 10k URLs = argent réel — Échantillonnez d'abord pour valider la qualité du schéma avant d'exécuter sur la liste complète
Combiner avec : filesystem

Combinaisons

Associez-le à d'autres MCPs pour un effet X10

firecrawl + notion

Scrapez, résumez, publiez directement dans une base de connaissances Notion

Scrapez tous les messages de anthropic.com/news des 30 derniers jours, résumez chacun en 2 phrases, et créez une page Notion dans la base de données 'AI News' pour chacun.✓ Copié
firecrawl + postgres

Scrapez les données des concurrents chaque semaine et stockez-les dans votre base de données pour l'analyse de séries chronologiques

Exécutez mon extraction de tarification des concurrents, puis INSERT chaque ligne dans la table competitor_pricing avec la date d'aujourd'hui.✓ Copié
firecrawl + filesystem

Scrapez les sites de documentation et enregistrez-les sous forme de Markdown pour l'indexation RAG hors ligne

Explorez docs.stripe.com, enregistrez chaque page en tant que fichier .md sous /knowledge/stripe/.✓ Copié

Outils

Ce que ce MCP expose

OutilEntréesQuand appelerCoût
firecrawl_scrape url: str, formats?: ['markdown'|'html'|'links'|'screenshot'] Vous avez besoin du contenu d'une seule page sous forme de Markdown pour le modèle 1 credit per page
firecrawl_crawl url, limit, includePaths?, excludePaths?, maxDepth? Vous devez scraper une section entière d'un site 1 credit per page crawled
firecrawl_extract urls: str[], schema: JSONSchema, prompt? Vous voulez du JSON structuré, pas du texte brut 5 credits per page (LLM-backed)
firecrawl_map url, search? Découvrez toutes les URLs sur un site sans récupérer le contenu 1 credit

Coût et limites

Coût d'exécution

Quota d'API
Niveau gratuit : 500 crédits, 10 concurrents. Loisir : 19 $/mois pour 3000 crédits.
Tokens par appel
~2000 tokens en moyenne par page scrapée (corps Markdown)
Monétaire
1 crédit par scrape, 5 crédits par extraction structurée, 1 par carte. Les crédits ne se reportent pas.
Astuce
Utilisez d'abord firecrawl_map pour planifier, puis scrapez uniquement les URLs dont vous avez besoin. Mettez en cache agressivement — la plupart des pages ne changent pas quotidiennement.

Sécurité

Permissions, secrets, portée

Stockage des identifiants : Clé API dans la variable env FIRECRAWL_API_KEY
Sortie de données : Toutes les demandes transitent par les serveurs de Firecrawl (régions US/UE). Ils font un proxy vers les sites cibles.

Dépannage

Erreurs courantes et correctifs

402 Payment Required

Crédits épuisés. Rechargez à firecrawl.dev/dashboard ou attendez la réinitialisation mensuelle.

Markdown vide retourné

La page peut être JS uniquement ; assurez-vous que formats: ['markdown'] est défini et mobile: false. Essayez avec actions: [{type:'wait', milliseconds: 3000}] pour permettre l'exécution JS.

La crawl retourne moins de pages que prévu

Vérifiez que excludePaths n'est pas trop agressif. De plus : de nombreux sites ont un robots.txt bloquant les crawlers. Firecrawl l'honore par défaut.

429 Too Many Requests (target site)

Réduisez la concurrence dans vos options de crawl. Certains sites imposent des budgets de demandes par IP.

Alternatives

Firecrawl vs autres

AlternativeQuand l'utiliserCompromis
fetch MCPPages HTML statiques, pas besoin de rendu JS, pas d'extraction de schémaGratuit et rapide mais casse sur les SPA et vous donne du HTML brut à analyser
Playwright MCPVous devez interagir avec la page (connexion, flux de clic)Plus de code, meilleur pour les interactions complexes ; non optimisé pour l'extraction en masse
Brightdata MCPVous avez besoin de proxies résidentiels pour les sites qui bloquent les IPs du centre de donnéesLourd et cher — vaut le coup seulement pour les cibles difficiles
Apify MCPVous avez besoin de scrapers préconçus pour des sites spécifiques (données structurées Amazon, LinkedIn)Meilleur pour les cibles de niche avec des acteurs préconçus ; plus de configuration

Plus

Ressources

📖 Lire le README officiel sur GitHub

🐙 Voir les issues ouvertes

🔍 Parcourir les 400+ serveurs MCP et Skills