/ Directorio / Playground / Apify
● Oficial apify 🔑 Requiere tu clave

Apify

por apify · apify/apify-mcp-server

Accede a más de 3000 Actors preconstruidos en Apify para extraer datos de Google, Amazon, LinkedIn, TikTok, Maps y más — sin necesidad de mantener código personalizado para scraping.

El MCP oficial de Apify expone el marketplace de Actors de Apify como herramientas invocables. En lugar de escribir tu propio scraper para cada sitio, eliges un Actor ya probado, pasas entradas y recibes JSON estructurado. Ideal para objetivos especializados (listados de Google Maps, productos de Amazon, perfiles de Twitter) donde un scraper genérico requeriría mantenimiento constante.

Por qué usarlo

Características clave

Demo en vivo

Cómo se ve en la práctica

apify.replay ▶ listo
0/0

Instalar

Elige tu cliente

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

Abre Claude Desktop → Settings → Developer → Edit Config. Reinicia después de guardar.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

Cursor usa el mismo esquema mcpServers que Claude Desktop. La configuración del proyecto prevalece sobre la global.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

Haz clic en el icono MCP Servers de la barra lateral de Cline y luego en "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

Mismo formato que Claude Desktop. Reinicia Windsurf para aplicar.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "apify",
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  ]
}

Continue usa un array de objetos de servidor en lugar de un mapa.

~/.config/zed/settings.json
{
  "context_servers": {
    "apify": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "@apify/actors-mcp-server"
        ]
      }
    }
  }
}

Añádelo a context_servers. Zed recarga en caliente al guardar.

claude mcp add apify -- npx -y @apify/actors-mcp-server

Un solo comando. Verifica con claude mcp list. Quita con claude mcp remove.

Casos de uso

Usos del mundo real: Apify

Extraer listados de Google Maps para generar leads de negocios locales

👤 Equipos de ventas / SDR que construyen listas territoriales ⏱ ~15 min beginner

Cuándo usarlo: Necesitas 500 'cafeterías en Berlín' con dirección, teléfono, sitio web y calificación — y no quieres que bloqueen tu ejecución a mitad del proceso.

Requisitos previos
  • Cuenta de Apify + token de API — console.apify.com → Configuración → Integraciones → Token de API
  • Suficientes créditos de plataforma en Apify para el tamaño de tu ejecución — El plan gratuito otorga $5 de crédito/mes; la mayoría de ejecuciones de Google Maps cuestan ~$1 por 1000 lugares
Flujo
  1. Elige el Actor correcto para tu objetivo
    Encuentra el Actor de Apify mejor mantenido para extraer lugares de Google Maps. Prefiere uno con >5 estrellas y actualizaciones recientes.✓ Copiado
    → Slug de Actor como compass/crawler-google-places con su esquema de entrada
  2. Ejecutalo con tu consulta
    Ejecuta ese Actor con searchStringsArray=['coffee shop Berlin'], maxCrawledPlacesPerSearch=500, language='en'. Espera a que se complete.✓ Copiado
    → Estado de ejecución SUCCEEDED con un id de dataset
  3. Extrae y limpia el dataset
    Obtén los elementos del dataset. Mantén solo nombre, dirección, teléfono, sitio web, calificación, reviewsCount. Descarta lugares sin teléfono. Salida en CSV.✓ Copiado
    → CSV de 400–500 leads limpios

Resultado: Una lista de leads sin duplicados lista para importar a CRM, típicamente $1–3 en créditos de Apify.

Errores comunes
  • Ejecutar el Actor incorrecto — existen muchos imitadores con peor confiabilidad — Filtra por cantidad de usos y última actualización en la tienda de Apify; adhiérete a los 3 principales para un objetivo
  • Los datasets masivos agotan tu ventana de contexto cuando se devuelven inline — Pide a Claude que page los elementos (limit+offset) o guarda en el sistema de archivos primero, luego resume
Combinar con: filesystem · postgres

Rastrear precios de productos de Amazon y estado de stock según una programación

👤 E-commerce, afiliados de marketing, equipos de precios competitivos ⏱ ~20 min intermediate

Cuándo usarlo: Quieres una captura diaria de precio+stock para 200 ASINs sin supervisar constantemente un scraper.

Requisitos previos
  • Lista de ASINs o URLs de productos — CSV de URLs como https://www.amazon.com/dp/B0XXXXXX
Flujo
  1. Llama al Actor Amazon Product Scraper
    Ejecuta el Actor junglee/amazon-crawler con urls=<my list>, maxReviews=0, scrapeProductDetails=true.✓ Copiado
    → La ejecución finaliza con un dataset de productos
  2. Normaliza precio y stock
    Del dataset, extrae asin, title, price, currency, in_stock (bool), seller. Marca cualquier asin donde el precio bajó vs mi última captura [pega].✓ Copiado
    → Comparación actual vs anterior por ASIN
  3. Programalo diariamente
    Crea una programación diaria de Apify para este Actor con las mismas entradas. Nómbralo 'amazon-price-tracker-<category>'.✓ Copiado
    → Programación creada; próxima hora de ejecución mostrada

Resultado: Un monitoreo de precio/stock recurrente con costo ~$0.30/día para 200 ASINs.

Errores comunes
  • Amazon limita agresivamente incluso con proxies residenciales — las ejecuciones pueden fallar parcialmente — Habilita reintentos del Actor y acepta que 5–10% de elementos pueden estar faltando; re-ejecuta asins fallidos en un lote pequeño
Combinar con: postgres · notion

Recolecta posts recientes de un perfil público de Twitter/X o TikTok

👤 Analistas de escucha social, investigadores de contenido ⏱ ~20 min intermediate

Cuándo usarlo: Rastreas una figura pública o marca y quieres sus últimos 30 días de posts como datos estructurados para análisis.

Requisitos previos
  • URL(s) de perfil de la cuenta objetivo — Solo enlace de perfil público — no intentes scraping privado o con inicio de sesión
Flujo
  1. Elige un Actor reputado de Twitter/TikTok
    Encuentra el top Actor de Apify para obtener tweets públicos de un handle. Muestra precios por 1000 tweets.✓ Copiado
    → Lista corta de Actors con números de precio-por-1k
  2. Ejecuta para cada objetivo
    Ejecutalo para handles [list] con maxTweets=300 y start_date=30 days ago.✓ Copiado
    → Dataset con tweets + conteos de engagement
  3. Resume qué cambió en tono/temas
    Agrupa estos posts en 5 temas y muestra promedios de engagement por tema. Señala cualquier aumento brusco en un tema.✓ Copiado
    → Tabla de temas + comentario de tendencias

Resultado: Un dataset de posts sociales estructurado más un resumen de tendencias temáticas de 1 página.

Errores comunes
  • El scraping de contenido privado/con inicio de sesión viola los ToS de la plataforma y puede romperse en cualquier momento — Adhiérete solo a perfiles públicos; trata los fallos parciales como esperados, no como bugs a perseguir
Combinar con: notion · postgres

Ejecuta un trabajo de rastreo grande de forma asincrónica y recopila resultados después

👤 Ingenieros que ejecutan rastreos >10k-página ⏱ ~45 min advanced

Cuándo usarlo: Tu rastreo tomará 30 minutos a 6 horas — no quieres que la llamada MCP se bloquee tanto tiempo.

Flujo
  1. Inicia la ejecución sin esperar
    Inicia el Actor apify/website-content-crawler con startUrls=[...], maxCrawlPages=10000. Devuelve el runId, no esperes.✓ Copiado
    → runId devuelto inmediatamente
  2. Sondea el estado periódicamente
    Verifica el estado de la ejecución <runId>. ¿Cuántas páginas completadas, cuántas errores, ETA?✓ Copiado
    → Números de progreso
  3. Transmite resultados cuando estén listos
    La ejecución es SUCCEEDED. Pagina el dataset 1000 elementos a la vez y guarda cada página en /crawls/<runId>/page-<n>.jsonl.✓ Copiado
    → Archivos JSONL locales listos para procesamiento posterior

Resultado: Un rastreo grande completado sin bloquear tu sesión de chat, y resultados en disco listos para indexación.

Errores comunes
  • Dejar que Claude extraiga el dataset completo en una llamada — agotará la memoria del contexto — Siempre pagina; nunca solicites el dataset completo de una vez
  • Los costos se inflan en rastreos profundos sin límite — Establece maxCrawlPages Y límites de memoria/cpu en el Actor antes de iniciar
Combinar con: filesystem · qdrant

Combinaciones

Combínalo con otros MCPs para multiplicar por 10

apify + postgres

Extrae usando Apify Actor y luego actualiza filas normalizadas en tu BD de productos

Ejecuta el Actor de Amazon para mi lista de ASINs, luego actualiza cada resultado en la tabla product_prices con la fecha de hoy.✓ Copiado
apify + qdrant

Rastrea un sitio de documentación y luego incrusta cada página en una colección de vectores para RAG

Usa Website Content Crawler en docs.stripe.com, luego incrusta cada página y actualiza en la colección stripe_docs de Qdrant.✓ Copiado
apify + filesystem

Persiste el resultado bruto del rastreo localmente como JSONL antes del procesamiento posterior

Ejecuta el Actor de Google Maps para 'dentista París', guarda el dataset bruto en /data/leads/paris-dentists.jsonl.✓ Copiado

Herramientas

Lo que expone este MCP

HerramientaEntradasCuándo llamarCoste
search-actors query: str, limit?: int Descubre qué Actor se ajusta a tu objetivo antes de ejecutar free
get-actor actorId: str Inspecciona el esquema de entrada y precios de un Actor antes de llamar free
call-actor actorId: str, input: object, timeout?: int Ejecuta un Actor y espera a que finalice (solo ejecuciones cortas) Específico del Actor; facturado en créditos de plataforma de Apify
get-dataset-items datasetId: str, limit?: int, offset?: int Pagina a través del dataset de una ejecución completada free
get-run runId: str Sondea el estado de un trabajo de ejecución prolongada free

Coste y límites

Lo que cuesta ejecutarlo

Cuota de API
La API de Apify es generosa; los Actors en sí están medidos en créditos de plataforma
Tokens por llamada
Las respuestas de entrada+salida del Actor suelen ser 500–3000 tokens; los datasets grandes deben paginarse
Monetario
Plan gratuito: $5 de crédito de plataforma/mes. Pagado desde $49/mes por $49+ créditos. El precio por Actor varía ($0.25–$5 por 1000 resultados es típico).
Consejo
Siempre inspecciona el precio del Actor a través de get-actor antes de llamar; establece maxResults/maxCrawlPages en cada ejecución para limitar el gasto.

Seguridad

Permisos, secretos, alcance

Ámbitos mínimos: Token de API de Apify con alcance predeterminado
Almacenamiento de credenciales: Token de API en variable de entorno APIFY_TOKEN
Salida de datos: Llamadas a api.apify.com; los Actors en sí pueden obtener cualquier URL pública que les instruyas
No conceder nunca: Tokens de Root/admin si tokens con alcance de usuario son suficientes

Resolución de problemas

Errores comunes y soluciones

401 No autorizado

APIFY_TOKEN faltante o revocado. Vuelve a emitir en console.apify.com/settings/integrations.

Verificar: curl -H 'Authorization: Bearer $APIFY_TOKEN' https://api.apify.com/v2/users/me
Ejecución del Actor FALLÓ con 'No hay suficientes créditos de plataforma'

Recarga en la facturación de la consola Apify o elige una variante más barata del Actor; establece maxResults para limitar el costo próxima vez.

La ejecución es exitosa pero el dataset está vacío

Esquema de entrada incorrecto — ejecuta get-actor para leer los nombres de campos requeridos, el Actor probablemente ignoró silenciosamente tu entrada.

Tiempo de espera agotado esperando call-actor

Los rastreos largos exceden el tiempo de espera de la llamada MCP; inicia la ejecución, obtén el runId, luego sondea con get-run en lugar de bloquearte.

Alternativas

Apify vs otros

AlternativaCuándo usarlaContrapartida
Firecrawl MCPScraping genérico de página a markdown en cualquier sitioMenos especializado para objetivos específicos como Amazon o Maps
Bright Data MCPNecesitas proxies residenciales de alto rendimiento y SERP APIMás caro; enfocado en desbloqueo en lugar de Actors preconstruidos
Playwright MCPNecesitas escribir un flujo personalizado (login, click-through de múltiples pasos)Escribes y mantienes la lógica de scraping tú mismo

Más

Recursos

📖 Lee el README oficial en GitHub

🐙 Ver issues abiertas

🔍 Ver todos los 400+ servidores MCP y Skills