/ Diretório / Playground / Firecrawl
● Oficial firecrawl 🔑 Requer sua chave

Firecrawl

por firecrawl · firecrawl/firecrawl-mcp-server

Transforme qualquer página web em dados limpos e estruturados que seu agente de IA possa realmente usar — trabalha com sites renderizados em JS e retorna JSON via schema.

Firecrawl é um serviço de scraping gerenciado otimizado para consumo por LLMs. Enquanto o MCP básico fetch retorna HTML bruto, Firecrawl renderiza páginas pesadas em JS, remove boilerplate, retorna Markdown limpo e suporta extração estruturada via JSON schema.

Por que usar

Principais recursos

Demo ao vivo

Como fica na prática

firecrawl.replay ▶ pronto
0/0

Instalar

Escolha seu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Abra Claude Desktop → Settings → Developer → Edit Config. Reinicie após salvar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Cursor usa o mesmo esquema mcpServers que o Claude Desktop. Config de projeto vence a global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Clique no ícone MCP Servers na barra lateral do Cline, depois "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

Mesmo formato do Claude Desktop. Reinicie o Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "firecrawl",
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  ]
}

O Continue usa um array de objetos de servidor em vez de um map.

~/.config/zed/settings.json
{
  "context_servers": {
    "firecrawl": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "firecrawl-mcp"
        ]
      }
    }
  }
}

Adicione em context_servers. Zed recarrega automaticamente ao salvar.

claude mcp add firecrawl -- npx -y firecrawl-mcp

Uma linha só. Verifique com claude mcp list. Remova com claude mcp remove.

Casos de uso

Usos do mundo real: Firecrawl

Construa uma tabela de comparação de preços de concorrentes em tempo real

👤 PMs, fundadores fazendo pesquisa de mercado ⏱ ~20 min intermediate

Quando usar: Você está atualizando sua estratégia de preços e precisa ver quanto 5 concorrentes cobram por planos comparáveis, com fontes.

Pré-requisitos
  • Chave de API Firecrawl — firecrawl.dev — o nível gratuito oferece 500 créditos, suficientes para ~50 páginas
Fluxo
  1. Defina um schema para o que 'preço' significa
    Quero comparar preços para [sua categoria]. Defina um schema que capture: nome do plano, preço mensal, uso incluído, recursos principais e quaisquer custos por unidade excedente.✓ Copiado
    → Schema com esses campos como tipos estritos
  2. Execute extração em 5 URLs de concorrentes em paralelo
    Extraia preços dessas 5 URLs usando o schema: [lista de URLs]. Use o endpoint de extração estruturada.✓ Copiado
    → 5 blocos JSON normalizados que você pode comparar
  3. Renderize como uma tabela de comparação com citações
    Renderize como uma tabela Markdown com cada concorrente como uma coluna. Adicione uma nota de rodapé de citação apontando para cada URL de origem.✓ Copiado
    → Comparação pronta para colocar em um documento ou apresentação

Resultado: Uma tabela de preços normalizada que você pode executar novamente a qualquer momento para detectar alterações — custa ~5 créditos Firecrawl por atualização.

Armadilhas
  • Páginas de preços geralmente têm alternadores (mensal/anual, níveis de uso) que o scraping não revela — Execute com actions: [{type: 'click', selector: '...toggle...'}] para capturar ambos os estados, ou anote a limitação em seu resultado final
  • Alguns sites bloqueiam scrapers via Cloudflare — Firecrawl lida com a maioria. Se ainda estiver bloqueado, a página provavelmente está usando medidas anti-bot intencionalmente — respeite isso e cite manualmente
Combine com: notion · google-sheets

Monitore o site de docs de um concorrente para novos recursos

👤 Profissionais de marketing de produto, inteligência competitiva ⏱ ~15 min intermediate

Quando usar: Você quer saber dentro de 24 horas quando um concorrente lança algo novo. Seu changelog/blog é onde anunciam.

Pré-requisitos
  • URL de seu changelog ou página de índice do blog — Geralmente /changelog, /blog, /releases ou /whats-new
Fluxo
  1. Rastreie o índice de changelog
    Rastreie <URL> com profundidade=1, retorne todas as URLs de posts e suas datas. Limite aos 50 mais recentes.✓ Copiado
    → Lista de posts recentes com datas
  2. Extraia cada post em um formato normalizado
    Para posts publicados nos últimos 30 dias, extraia título, data, resumo e qualquer menção de nome de recurso em JSON.✓ Copiado
    → Changelog estruturado que você pode comparar com a execução da semana passada
  3. Destaque o que é novo versus a semana passada
    Compare com a execução anterior [cole JSON anterior]. O que é novo esta semana e qual é a implicação estratégica?✓ Copiado
    → Diff com comentário estratégico

Resultado: Um resumo semanal de concorrentes que você pode executar como um trabalho agendado — nunca perca um lançamento de recurso.

Armadilhas
  • Feeds RSS geralmente existem e são mais baratos que scraping — Tente <url>/feed.xml ou <url>/rss primeiro — só volte para scraping se não houver feed
Combine com: notion

Enriqueça uma lista de URLs de empresas com dados firmagráficos estruturados

👤 Vendas, operações de marketing ⏱ ~30 min intermediate

Quando usar: Você tem um CSV de 200 websites de empresas e precisa do número de funcionários, setor e stack de tecnologia para priorizar o contato.

Pré-requisitos
  • Lista de origem de URLs — Arquivo CSV ou texto com URLs de página inicial
Fluxo
  1. Defina schema de enriquecimento
    Defina um schema para: nome_da_empresa, setor, estimativa_de_contagem_de_funcionários, localização_da_sede, descrição_do_produto_principal (1 linha), sinais_de_stack_de_tecnologia (lista).✓ Copiado
    → Schema JSON estrito
  2. Extraia de cada URL com limitação de taxa
    Para cada URL em [lista], execute extração Firecrawl com o schema. Processe em lotes de 10 com pausas de 2 segundos para ser educado.✓ Copiado
    → JSON por URL, erros registrados separadamente
  3. Saída em CSV limpo
    Converta resultados em CSV com as URLs originais como chave de junção. Sinalize linhas onde a extração falhou para que eu possa repetir manualmente.✓ Copiado
    → CSV pronto para importar em seu CRM

Resultado: Uma lista de 200 leads enriquecida em ~10 minutos por ~$2 em créditos Firecrawl.

Armadilhas
  • Algumas empresas apenas têm uma página splash sem informações — Peça a Claude para sinalizar aquelas para revisão manual em vez de alucinar
  • O custo aumenta em escala — 10k URLs = dinheiro real — Faça uma amostra primeiro para validar a qualidade do schema antes de executar na lista completa
Combine com: filesystem

Combinações

Combine com outros MCPs para 10× de alavancagem

firecrawl + notion

Faça scrape, resuma e poste diretamente em uma base de conhecimento Notion

Faça scrape de cada post de anthropic.com/news nos últimos 30 dias, resuma cada um em 2 frases e crie uma página Notion no banco de dados 'AI News' para cada.✓ Copiado
firecrawl + postgres

Faça scrape de dados de concorrentes semanalmente e armazene em seu DB para análise de série temporal

Execute minha extração de preços de concorrentes, depois INSERT cada linha na tabela competitor_pricing com a data de hoje.✓ Copiado
firecrawl + filesystem

Faça scrape de sites de docs e salve como Markdown para indexação RAG offline

Rastreie docs.stripe.com, salve cada página como arquivo .md em /knowledge/stripe/.✓ Copiado

Ferramentas

O que este MCP expõe

FerramentaEntradasQuando chamarCusto
firecrawl_scrape url: str, formats?: ['markdown'|'html'|'links'|'screenshot'] Você precisa do conteúdo de uma página única como Markdown para o modelo 1 crédito por página
firecrawl_crawl url, limit, includePaths?, excludePaths?, maxDepth? Você precisa fazer scrape de uma seção inteira de um site 1 crédito por página rastreada
firecrawl_extract urls: str[], schema: JSONSchema, prompt? Você quer JSON estruturado, não texto bruto 5 créditos por página (apoiado por LLM)
firecrawl_map url, search? Descubra todas as URLs em um site sem buscar conteúdo 1 crédito

Custo e limites

O que custa rodar

Cota de API
Nível gratuito: 500 créditos, 10 simultâneos. Hobby: $19/mês para 3000 créditos.
Tokens por chamada
~2000 tokens em média por página raspada (corpo Markdown)
Monetário
1 crédito por scrape, 5 créditos por extração estruturada, 1 por map. Créditos não são transferidos.
Dica
Use firecrawl_map primeiro para planejar, depois apenas firecrawl_scrape as URLs que você realmente precisa. Coloque em cache agressivamente — a maioria das páginas não muda diariamente.

Segurança

Permissões, segredos, alcance

Armazenamento de credenciais: Chave de API em variável de env FIRECRAWL_API_KEY
Saída de dados: Todas as solicitações passam pelos servidores da Firecrawl (regiões US/EU). Eles proxy para os sites de destino.

Solução de problemas

Erros comuns e correções

402 Payment Required

Sem créditos. Recarregue em firecrawl.dev/dashboard ou aguarde o reset mensal.

Empty markdown returned

A página pode ser apenas JS; certifique-se de que formats: ['markdown'] está definido e mobile: false. Tente com actions: [{type:'wait', milliseconds: 3000}] para permitir execução de JS.

Crawl returns fewer pages than expected

Verifique se excludePaths não é muito agressivo. Além disso: muitos sites têm um robots.txt bloqueando crawlers. Firecrawl o respeita por padrão.

429 Too Many Requests (target site)

Reduza a concorrência em suas opções de rastreamento. Alguns sites impõem orçamentos de solicitações por IP.

Alternativas

Firecrawl vs. outros

AlternativaQuando usarTroca
fetch MCPPáginas HTML estáticas, sem renderização de JS necessária, sem extração de schemaGratuito e rápido, mas quebra em SPAs e fornece HTML bruto para analisar
Playwright MCPVocê precisa interagir com a página (login, fluxos de clique)Mais código, melhor para interações complexas; não otimizado para extração em massa
Brightdata MCPVocê precisa de proxies residenciais para sites que bloqueiam IPs de datacenterPesado e caro — vale apenas para alvos difíceis
Apify MCPVocê precisa de scrapers pré-construídos para sites específicos (dados estruturados Amazon, LinkedIn)Melhor para alvos de nicho com actors pré-construídos; mais configuração

Mais

Recursos

📖 Leia o README oficial no GitHub

🐙 Ver issues abertas

🔍 Ver todos os 400+ servidores MCP e Skills