/ الدليل / الملعب / Apify
● رسمي apify 🔑 يتطلب مفتاحك

Apify

بواسطة apify · apify/apify-mcp-server

استخدم أكثر من 3000 ممثل (Actor) مُجهز مسبقاً على Apify لكشط Google و Amazon و LinkedIn و TikTok و Maps والمزيد — بدون الحاجة للحفاظ على كود كشط مخصص.

توفر Apify MCP الرسمية سوق ممثلي Apify كأدوات قابلة للاستدعاء. بدلاً من كتابة كاشط خاص بك لكل موقع، تختار ممثلاً موجوداً مختبراً بالفعل، وتمرر المدخلات، وتستقبل JSON منظماً. الأفضل للأهداف المتخصصة (قوائم Google Maps، منتجات Amazon، ملفات تعريفية على Twitter) حيث سيحتاج كاشط عام للصيانة المستمرة.

لماذا تستخدمه

الميزات الأساسية

عرض مباشر

كيف يبدو في الممارسة

apify.replay ▶ جاهز
0/0

التثبيت

اختر العميل

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

افتح Claude Desktop → Settings → Developer → Edit Config. أعد التشغيل بعد الحفظ.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

يستخدم Cursor نفس مخطط mcpServers مثل Claude Desktop. إعدادات المشروع أولى من الإعدادات العامة.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

انقر على أيقونة MCP Servers في شريط Cline الجانبي، ثم "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "apify": {
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  }
}

نفس الصيغة مثل Claude Desktop. أعد تشغيل Windsurf لتطبيق التغييرات.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "apify",
      "command": "npx",
      "args": [
        "-y",
        "@apify/actors-mcp-server"
      ]
    }
  ]
}

يستخدم Continue مصفوفة من كائنات الخادم بدلاً من خريطة.

~/.config/zed/settings.json
{
  "context_servers": {
    "apify": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "@apify/actors-mcp-server"
        ]
      }
    }
  }
}

أضف إلى context_servers. يعيد Zed التحميل تلقائيًا عند الحفظ.

claude mcp add apify -- npx -y @apify/actors-mcp-server

أمر من سطر واحد. تحقق باستخدام claude mcp list. احذف باستخدام claude mcp remove.

حالات الاستخدام

استخدامات عملية: Apify

كشط قوائم Google Maps لتوليد عملاء محليين

👤 فريق المبيعات / فريق SDR يبني قوائم المنطقة ⏱ ~15 min beginner

متى تستخدمه: تحتاج إلى 500 'مقهى في برلين' مع العنوان والهاتف والموقع والتقييم — ولا تريد أن تكون محجوباً في منتصف التشغيل.

المتطلبات الأساسية
  • حساب Apify + رمز API — console.apify.com → Settings → Integrations → API token
  • أرصدة منصة كافية على Apify لحجم التشغيل الخاص بك — تمنح الخطة المجانية $5 رصيد/الشهر؛ معظم تشغيلات Google Maps تكلف حوالي $1 لكل 1000 مكان
الخطوات
  1. اختر ممثل الهدف الصحيح
    ابحث عن أفضل ممثل Apify مُصان لكشط أماكن Google Maps. فضل واحداً بتقييم >5 نجوم وتحديثات حديثة.✓ تم النسخ
    → اسم الممثل مثل compass/crawler-google-places مع مخطط الإدخال الخاص به
  2. شغّله مع استعلامك
    شغّل ذلك الممثل مع searchStringsArray=['coffee shop Berlin'], maxCrawledPlacesPerSearch=500, language='en'. انتظر الانتهاء.✓ تم النسخ
    → حالة التشغيل SUCCEEDED مع معرّف مجموعة بيانات
  3. اسحب وقم بتنظيف مجموعة البيانات
    احصل على عناصر مجموعة البيانات. احتفظ بـ name و address و phone و website و rating و reviewsCount فقط. اترك الأماكن بدون هاتف. أخرج كـ CSV.✓ تم النسخ
    → CSV من 400–500 عملاء نظيفين

النتيجة: قائمة عملاء منزوعة التكرار جاهزة لاستيراد CRM، عادة $1–3 في أرصدة Apify.

المزالق
  • تشغيل الممثل الخاطئ — توجد نسخ مقلدة كثيرة بموثوقية أسوأ — فلتر حسب عدد الاستخدام والتحديث الأخير في متجر Apify؛ التزم بأفضل 3 لهدف ما
  • مجموعات البيانات الضخمة تنسف نافذة السياق عند إرجاعها مباشرة — اطلب من Claude الصفحة عبر العناصر (limit+offset) أو احفظ على نظام الملفات أولاً، ثم لخص
اجمعها مع: filesystem · postgres

تتبع أسعار منتجات Amazon وحالة المخزون في الجدول الزمني

👤 فريق التجارة الإلكترونية والمسوقين بالعمولة وفريق التسعير التنافسي ⏱ ~20 min intermediate

متى تستخدمه: تريد لقطة يومية للسعر والمخزون لـ 200 ASIN بدون مراقبة كاشط.

المتطلبات الأساسية
  • قائمة ASINs أو عناوين URL للمنتج — CSV من عناوين URL مثل https://www.amazon.com/dp/B0XXXXXX
الخطوات
  1. استدع Amazon Product Scraper Actor
    شغّل Actor junglee/amazon-crawler مع urls=<my list>, maxReviews=0, scrapeProductDetails=true.✓ تم النسخ
    → انتهاء التشغيل مع مجموعة بيانات من المنتجات
  2. تطبيع السعر والمخزون
    من مجموعة البيانات، استخرج asin و title و price و currency و in_stock (bool) و seller. علم أي asin حيث انخفض السعر مقابل لقطتي السابقة [الصق].✓ تم النسخ
    → مقارنة حالي مقابل سابق لكل ASIN
  3. جدولته يومياً
    أنشئ جدول Apify يومي لهذا الممثل بنفس المدخلات. سمّه 'amazon-price-tracker-<category>'.✓ تم النسخ
    → تم إنشاء الجدول؛ وقت التشغيل التالي معروض

النتيجة: ساعة تكرارية للسعر/المخزون بتكلفة ~$0.30/اليوم لـ 200 ASIN.

المزالق
  • Amazon يخنق بقوة حتى مع خوادم وكيلة سكنية — قد تفشل التشغيلات جزئياً — فعّل إعادة محاولات الممثل واقبل أن 5–10% من العناصر قد تكون مفقودة؛ أعد تشغيل ASINs الفاشلة في دفعة صغيرة
اجمعها مع: postgres · notion

حصاد المنشورات الحديثة من ملف تعريفي عام على Twitter/X أو TikTok

👤 محللو الاستماع الاجتماعي وباحثو المحتوى ⏱ ~20 min intermediate

متى تستخدمه: تتابع شخصية عامة أو علامة تجارية وتريد منشوراتهم من آخر 30 يوم كبيانات منظمة للتحليل.

المتطلبات الأساسية
  • عناوين URL للملف الشخصي للحساب المستهدف — رابط ملف تعريفي عام فقط — لا تحاول كشط محتوى خاص أو مسجل دخول
الخطوات
  1. اختر ممثل Twitter/TikTok حسن السمعة
    ابحث عن أفضل Apify Actor لجلب التغريدات العامة من اسم مستخدم. اعرض التسعير لكل 1000 تغريدة.✓ تم النسخ
    → قائمة مختصرة من الممثلين بأرقام السعر لكل 1000
  2. شغّل لكل هدف
    شغّله لأسماء [القائمة] مع maxTweets=300 و start_date=منذ 30 يوم.✓ تم النسخ
    → مجموعة بيانات مع تغريدات + عدادات الانخراط
  3. لخص ما تغيّر في النبرة/المواضيع
    جمّع هذه المنشورات في 5 مواضيع واعرض متوسطات الانخراط لكل موضوع. أشر إلى أي ارتفاع حاد في موضوع واحد.✓ تم النسخ
    → جدول الموضوع + تعليق الاتجاه

النتيجة: مجموعة بيانات منشور اجتماعي منظمة بالإضافة إلى ملخص اتجاه موضوعي بصفحة واحدة.

المزالق
  • كشط المحتوى الخاص/المسجل دخول ينتهك ToS للمنصة ويمكن أن ينقطع في أي لحظة — التزم بالملفات التعريفية العامة فقط؛ تعامل مع الفشل الجزئي كمتوقع، وليس كأخطاء يجب تتبعها
اجمعها مع: notion · postgres

تشغيل مهمة زحف كبيرة بشكل غير متزامن وجمع النتائج لاحقاً

👤 المهندسون الذين يشغلون زحف >10k-page ⏱ ~45 min advanced

متى تستخدمه: سيستغرق الزحف الخاص بك من 30 دقيقة إلى 6 ساعات — لا تريد أن ينتظر استدعاء MCP طوال هذا الوقت.

الخطوات
  1. ابدأ التشغيل بدون انتظار
    ابدأ Actor apify/website-content-crawler مع startUrls=[...], maxCrawlPages=10000. أرجع runId، لا تنتظر.✓ تم النسخ
    → runId مُرجعة فوراً
  2. استقصِ الحالة بشكل دوري
    تحقق من حالة التشغيل <runId>. كم عدد الصفحات المنجزة، كم عدد الأخطاء، ETA؟✓ تم النسخ
    → أرقام التقدم
  3. دفق النتائج عند الجاهزية
    التشغيل SUCCEEDED. قسّم مجموعة البيانات 1000 عنصر في المرة وحفظ كل صفحة إلى /crawls/<runId>/page-<n>.jsonl.✓ تم النسخ
    → ملفات JSONL المحلية جاهزة لمعالجة المرحلة اللاحقة

النتيجة: زحف كبير مكتمل بدون حجب جلسة الدردشة الخاصة بك، والنتائج على القرص جاهزة للفهرسة.

المزالق
  • السماح لـ Claude بسحب مجموعة البيانات الكاملة في استدعاء واحد — سيؤدي لـ OOM السياق — دائماً قسّم؛ لا تطلب مجموعة البيانات بأكملها مرة واحدة
  • تنفجر التكاليف على الزحف العميق بدون حد — عيّن maxCrawlPages والحد من الذاكرة/CPU على الممثل قبل البدء
اجمعها مع: filesystem · qdrant

التركيبات

اجمعها مع خوادم MCP أخرى لتحقيق نتائج x10

apify + postgres

كشط عبر Apify Actor ثم قم بـ upsert صفوف معايرة في قاعدة بيانات منتجك

شغّل Amazon Actor لقائمة ASIN الخاصة بي، ثم قم بـ upsert كل نتيجة في جدول product_prices بتاريخ اليوم.✓ تم النسخ
apify + qdrant

زحف موقع المستندات ثم ادمج كل صفحة في مجموعة متجهات لـ RAG

استخدم Website Content Crawler على docs.stripe.com، ثم ادمج كل صفحة وقم بـ upsert إلى مجموعة Qdrant stripe_docs.✓ تم النسخ
apify + filesystem

احفظ مخرجات الزحف الخام محلياً كـ JSONL قبل المعالجة اللاحقة

شغّل Google Maps Actor لـ 'dentist Paris'، احفظ مجموعة البيانات الخام إلى /data/leads/paris-dentists.jsonl.✓ تم النسخ

الأدوات

ما يوفره هذا الـ MCP

الأداةالمدخلاتمتى تستدعيهاالتكلفة
search-actors query: str, limit?: int اكتشف أي ممثل يناسب هدفك قبل التشغيل free
get-actor actorId: str افحص مخطط إدخال الممثل والتسعير قبل الاستدعاء free
call-actor actorId: str, input: object, timeout?: int شغّل ممثلاً وانتظر انتهاءه (التشغيلات القصيرة فقط) Actor-specific; billed in Apify platform credits
get-dataset-items datasetId: str, limit?: int, offset?: int قسّم مجموعة بيانات التشغيل المكتملة free
get-run runId: str استقصِ حالة مهمة طويلة الأجل free

التكلفة والحدود

تكلفة التشغيل

حصة API
Apify API سخية؛ الممثلون أنفسهم مقننون في أرصدة المنصة
الرموز لكل استدعاء
استجابات إدخال+إخراج الممثل عادة 500–3000 رمز؛ يجب تقسيم مجموعات البيانات الكبيرة
التكلفة المالية
الخطة المجانية: $5 رصيد منصة/شهر. مدفوع من $49/شهر لـ $49+ أرصدة. يختلف التسعير حسب الممثل ($0.25–$5 لكل 1000 نتيجة نموذجي).
نصيحة
تفقد تسعير الممثل دائماً عبر get-actor قبل الاستدعاء؛ عيّن maxResults/maxCrawlPages على كل تشغيل لحد الإنفاق.

الأمان

الصلاحيات والأسرار ونطاق الأثر

الحد الأدنى من الصلاحيات: رمز Apify API بنطاق افتراضي
تخزين بيانات الاعتماد: رمز API في متغير env APIFY_TOKEN
نقل البيانات الخارجي: استدعاءات لـ api.apify.com؛ قد يجلب الممثلون أنفسهم أي عنوان URL عام تأمرهم به
لا تمنح أبدًا: رموز جذر/مسؤول إذا كانت رموز مقيدة بالمستخدم كافية

استكشاف الأخطاء

الأخطاء الشائعة وحلولها

401 Unauthorized

APIFY_TOKEN مفقود أو ملغى. أعد الإصدار في console.apify.com/settings/integrations.

تحقق: curl -H 'Authorization: Bearer $APIFY_TOKEN' https://api.apify.com/v2/users/me
Actor run FAILED with 'Not enough platform credits'

اشحن في Apify console أو اختر متغير ممثل أرخص؛ عيّن maxResults لحد التكلفة المرة القادمة.

Run succeeds but dataset is empty

مخطط إدخال خاطئ — شغّل get-actor لقراءة أسماء الحقول المطلوبة، الممثل على الأرجح تجاهل مدخلاتك بصمت.

Timeout waiting for call-actor

الزحف الطويل يتجاوز مهلة استدعاء MCP؛ ابدأ التشغيل، احصل على runId، ثم استقصِ مع get-run بدلاً من الانتظار.

البدائل

Apify مقابل البدائل

البديلمتى تستخدمهاالمقايضة
Firecrawl MCPكشط صفحة عامة إلى markdown عبر أي موقعأقل تخصصاً للأهداف المحددة مثل Amazon أو Maps
Bright Data MCPتحتاج إلى خوادم وكيلة سكنية ثقيلة الواجبات و SERP APIأكثر تكلفة؛ يركز على فك الحجب بدلاً من الممثلين المجهزين مسبقاً
Playwright MCPتحتاج لكتابة نص مخصص (تسجيل دخول، نقرات متعددة الخطوات)تكتب وتحافظ على منطق الكشط بنفسك

المزيد

الموارد

📖 اقرأ ملف README الرسمي على GitHub

🐙 تصفح القضايا المفتوحة

🔍 تصفح أكثر من 400 خادم MCP و Skills