/ الدليل / الملعب / Firecrawl
● رسمي firecrawl 🔑 يتطلب مفتاحك

Firecrawl

بواسطة firecrawl · firecrawl/firecrawl-mcp-server

حوّل أي صفحة ويب إلى بيانات نظيفة منظمة يمكن لعاملك الذكي استخدامها فعلاً — يتعامل مع صفحات JavaScript الثقيلة ويعطيك JSON عبر schema.

Firecrawl هي خدمة crawling مُستضافة معايرة لاستهلاك نماذج اللغة الكبيرة. بينما يعطيك MCP البسيط fetch HTML خام، يعرّض Firecrawl صفحات تعتمد على JavaScript، ينظّف الكود المتكرر، يرجع Markdown نظيف، ويدعم استخراج منظم عبر JSON schema.

لماذا تستخدمه

الميزات الأساسية

عرض مباشر

كيف يبدو في الممارسة

firecrawl.replay ▶ جاهز
0/0

التثبيت

اختر العميل

~/Library/Application Support/Claude/claude_desktop_config.json  · Windows: %APPDATA%\Claude\claude_desktop_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

افتح Claude Desktop → Settings → Developer → Edit Config. أعد التشغيل بعد الحفظ.

~/.cursor/mcp.json · .cursor/mcp.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

يستخدم Cursor نفس مخطط mcpServers مثل Claude Desktop. إعدادات المشروع أولى من الإعدادات العامة.

VS Code → Cline → MCP Servers → Edit
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

انقر على أيقونة MCP Servers في شريط Cline الجانبي، ثم "Edit Configuration".

~/.codeium/windsurf/mcp_config.json
{
  "mcpServers": {
    "firecrawl": {
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  }
}

نفس الصيغة مثل Claude Desktop. أعد تشغيل Windsurf لتطبيق التغييرات.

~/.continue/config.json
{
  "mcpServers": [
    {
      "name": "firecrawl",
      "command": "npx",
      "args": [
        "-y",
        "firecrawl-mcp"
      ]
    }
  ]
}

يستخدم Continue مصفوفة من كائنات الخادم بدلاً من خريطة.

~/.config/zed/settings.json
{
  "context_servers": {
    "firecrawl": {
      "command": {
        "path": "npx",
        "args": [
          "-y",
          "firecrawl-mcp"
        ]
      }
    }
  }
}

أضف إلى context_servers. يعيد Zed التحميل تلقائيًا عند الحفظ.

claude mcp add firecrawl -- npx -y firecrawl-mcp

أمر من سطر واحد. تحقق باستخدام claude mcp list. احذف باستخدام claude mcp remove.

حالات الاستخدام

استخدامات عملية: Firecrawl

بناء جدول مقارنة أسعار المنافسين المباشر

👤 مديرو المنتجات والمؤسسون الذين يجرون أبحاث السوق ⏱ ~20 min intermediate

متى تستخدمه: أنت تحدّث استراتيجية التسعير وتحتاج أن ترى ما يفرضه 5 منافسين على خطط مشابهة، مع المصادر.

المتطلبات الأساسية
  • مفتاح Firecrawl API — firecrawl.dev — الطبقة المجانية توفر 500 credits، كافية لحوالي 50 صفحة
الخطوات
  1. حدّد schema لما معنى 'التسعير'
    أريد مقارنة الأسعار لـ [فئتك]. حدّد schema يلتقط: اسم الخطة، السعر الشهري، الاستخدام المشمول، الميزات الرئيسية، وأي تكاليف إضافية للوحدة.✓ تم النسخ
    → Schema بهذه الحقول كأنواع صارمة
  2. قم بتشغيل الاستخراج عبر 5 عناوين URL للمنافسين بالتوازي
    استخرج الأسعار من هذه 5 عناوين URL باستخدام schema: [قائمة العناوين]. استخدم نقطة نهاية الاستخراج المنظم.✓ تم النسخ
    → 5 كتل JSON موحدة يمكنك مقارنتها
  3. اعرضه كجدول مقارنة مع الاستشهادات
    اعرضه كجدول Markdown مع كل منافس كعمود. أضف حاشية استشهاد تشير إلى كل عنوان URL مصدر.✓ تم النسخ
    → المقارنة جاهزة للإدراج في مستند أو عرض

النتيجة: جدول أسعار موحد يمكنك إعادة تشغيله في أي وقت للكشف عن التغييرات — يكلف حوالي 5 credits Firecrawl لكل تحديث.

المزالق
  • صفحات الأسعار غالباً ما تحتوي على مبدلات (شهري/سنوي، مستويات الاستخدام) لا يكشفها الـ scraping — شغّل مع actions: [{type: 'click', selector: '...toggle...'}] لالتقاط كلا الحالتين، أو لاحظ التحديد في مخرجاتك النهائية
  • بعض المواقع تحجب الـ scrapers عبر Cloudflare — Firecrawl يتعامل مع معظمها. إذا كانت لا تزال محظورة، فالصفحة على الأرجح تستخدم تدابير مكافحة الروبوتات بقصد — احترم ذلك واستشهد يدويًا
اجمعها مع: notion · google-sheets

راقب موقع وثائق المنافس بحثاً عن ميزات جديدة

👤 مسوقو المنتجات، الذكاء التنافسي ⏱ ~15 min intermediate

متى تستخدمه: تريد أن تعرف خلال 24 ساعة متى يطلق المنافس شيء جديد. تغيير السجل/مدونتهم هي حيث يعلنون.

المتطلبات الأساسية
  • عنوان URL لصفحة فهرس تغيير السجل أو المدونة الخاصة بهم — عادة /changelog أو /blog أو /releases أو /whats-new
الخطوات
  1. تصفّح فهرس السجل
    تصفّح <URL> مع depth=1، أرجع جميع عناوين URL للمشاركات وتواريخها. حدّد الحد ب 50 الأحدث.✓ تم النسخ
    → قائمة بالمشاركات الأخيرة مع التواريخ
  2. استخرج كل مشاركة إلى تنسيق موحد
    للمشاركات المنشورة في آخر 30 يوم، استخرج العنوان والتاريخ والملخص وأي ذكر لاسم الميزة، إلى JSON.✓ تم النسخ
    → سجل منظم يمكنك الفرق به مقابل تشغيل الأسبوع الماضي
  3. ميز ما هو جديد مقابل الأسبوع الماضي
    قارن مع التشغيل السابق [ألصق JSON السابق]. ما هو جديد هذا الأسبوع وما هي الآثار الاستراتيجية؟✓ تم النسخ
    → Diff مع تعليق استراتيجي

النتيجة: ملخص منافس أسبوعي يمكنك تشغيله كمهمة مجدولة — لن تفوت أبداً إطلاق ميزة.

المزالق
  • غالباً ما تكون RSS feeds موجودة وأرخص من الـ scraping — جرب <url>/feed.xml أو <url>/rss أولاً — فقط عد إلى scraping إذا لم يكن هناك feed
اجمعها مع: notion

أثري قائمة عناوين URL للشركات ببيانات firmographic منظمة

👤 المبيعات، عمليات التسويق ⏱ ~30 min intermediate

متى تستخدمه: لديك CSV من 200 موقع شركة وتحتاج عدد الموظفين والصناعة وتكنولوجيا المكدس لتحديد أولويات التواصل.

المتطلبات الأساسية
  • قائمة المصدر من عناوين URL — ملف CSV أو نص من عناوين URL الرئيسية
الخطوات
  1. حدّد schema الإثراء
    حدّد schema لـ: اسم الشركة، الصناعة، تقدير عدد الموظفين، موقع المقر الرئيسي، وصف المنتج الأساسي (سطر واحد)، إشارات tech_stack (قائمة).✓ تم النسخ
    → JSON schema صارم
  2. استخرج من كل عنوان URL مع تحديد المعدل
    لكل عنوان URL في [القائمة]، شغّل استخراج Firecrawl مع schema. معالجة في دفعات من 10 مع توقفات 2 ثانية للبقاء مهذباً.✓ تم النسخ
    → JSON لكل عنوان URL، الأخطاء مسجلة بشكل منفصل
  3. أخرج CSV نظيف
    تحويل النتائج إلى CSV مع عناوين URL الأصلية كمفتاح الالتحاق. علّم الصفوف حيث فشل الاستخراج حتى أتمكن من إعادة المحاولة يدويًا.✓ تم النسخ
    → CSV جاهز للاستيراد إلى نظام إدارة العلاقات مع العملاء الخاص بك

النتيجة: قائمة عملاء مثرية بـ 200 صف في حوالي 10 دقائق مقابل حوالي $2 في credits Firecrawl.

المزالق
  • بعض الشركات لديها فقط صفحة غطس بدون معلومات — اطلب من Claude تعليم تلك من أجل المراجعة اليدوية بدلاً من الهلوسة
  • التكاليف تتراكم على نطاق واسع — 10k عناوين URL = أموال حقيقية — خذ عينة أولاً للتحقق من جودة schema قبل التشغيل على القائمة الكاملة
اجمعها مع: filesystem

التركيبات

اجمعها مع خوادم MCP أخرى لتحقيق نتائج x10

firecrawl + notion

قم بـ scrape، ملخص، انشر مباشرة إلى قاعدة معرفة Notion

قم بـ scrape لكل مشاركة من anthropic.com/news في آخر 30 يوم، ملخص كل واحدة في جملتين، وأنشئ صفحة Notion في قاعدة بيانات 'أخبار الذكاء الاصطناعي' لكل واحدة.✓ تم النسخ
firecrawl + postgres

قم بـ scrape لبيانات المنافس أسبوعياً وتخزينها في قاعدة البيانات الخاصة بك لتحليل السلاسل الزمنية

شغّل استخراج تسعير منافسي، ثم أدرج كل صف في جدول competitor_pricing مع تاريخ اليوم.✓ تم النسخ
firecrawl + filesystem

قم بـ scrape لمواقع الوثائق وحفظها كـ Markdown للفهرسة RAG دون الاتصال

تصفّح docs.stripe.com، احفظ كل صفحة كملف .md تحت /knowledge/stripe/.✓ تم النسخ

الأدوات

ما يوفره هذا الـ MCP

الأداةالمدخلاتمتى تستدعيهاالتكلفة
firecrawl_scrape url: str, formats?: ['markdown'|'html'|'links'|'screenshot'] تحتاج محتوى صفحة واحدة كـ Markdown للنموذج 1 credit per page
firecrawl_crawl url, limit, includePaths?, excludePaths?, maxDepth? تحتاج لـ scrape قسم كامل من موقع 1 credit per page crawled
firecrawl_extract urls: str[], schema: JSONSchema, prompt? تريد JSON منظم، وليس نص خام 5 credits per page (LLM-backed)
firecrawl_map url, search? اكتشف جميع عناوين URL على موقع بدون جلب المحتوى 1 credit

التكلفة والحدود

تكلفة التشغيل

حصة API
الطبقة المجانية: 500 credits، 10 متزامنة. الهواية: $19/الشهر لـ 3000 credits.
الرموز لكل استدعاء
حوالي 2000 token في المتوسط لكل صفحة scraped (نص Markdown)
التكلفة المالية
1 credit لكل scrape، 5 credits لكل استخراج منظم، 1 لكل map. الـ credits لا تنتقل.
نصيحة
استخدم firecrawl_map أولاً للتخطيط، ثم قم بـ firecrawl_scrape فقط عناوين URL التي تحتاجها فعلاً. قم بـ cache بقوة — معظم الصفحات لا تتغير يومياً.

الأمان

الصلاحيات والأسرار ونطاق الأثر

تخزين بيانات الاعتماد: مفتاح API في متغير البيئة FIRECRAWL_API_KEY
نقل البيانات الخارجي: جميع الطلبات تمر عبر خوادم Firecrawl (مناطق US/EU). تقوم بـ proxy إلى المواقع المستهدفة.

استكشاف الأخطاء

الأخطاء الشائعة وحلولها

402 Payment Required

انتهت الـ credits. أضف رصيداً على firecrawl.dev/dashboard أو انتظر إعادة تعيين شهري.

Empty markdown returned

قد تكون الصفحة JS فقط؛ تأكد من ضبط formats: ['markdown'] و mobile: false. جرّب مع actions: [{type:'wait', milliseconds: 3000}] للسماح بتنفيذ JavaScript.

Crawl returns fewer pages than expected

تحقق من أن excludePaths ليست عدوانية جداً. أيضاً: العديد من المواقع لديها robots.txt تحجب الـ crawlers. يحترمها Firecrawl بشكل افتراضي.

429 Too Many Requests (target site)

قلل التنفيذ المتزامن في خيارات الـ crawl. تفرض بعض المواقع ميزانيات طلب لكل IP.

البدائل

Firecrawl مقابل البدائل

البديلمتى تستخدمهاالمقايضة
fetch MCPصفحات HTML ثابتة، لا يلزم عرض JS، لا استخراج schemaمجاني وسريع لكن يتعطل على SPAs ويعطيك HTML خام لتحليله
Playwright MCPتحتاج للتفاعل مع الصفحة (تسجيل الدخول، النقر عبر الأتمتة)كود أكثر، أفضل للتفاعلات المعقدة؛ غير محسّن للاستخراج الضخم
Brightdata MCPتحتاج proxies سكنية للمواقع التي تحجب IPs مركز البياناتثقيل وغالي — يستحق فقط للأهداف الصعبة
Apify MCPتحتاج scrapers مبنية مسبقاً لمواقع محددة (بيانات Amazon و LinkedIn منظمة)أفضل للأهداف المتخصصة مع actors مبنية مسبقاً؛ إعداد أكثر

المزيد

الموارد

📖 اقرأ ملف README الرسمي على GitHub

🐙 تصفح القضايا المفتوحة

🔍 تصفح أكثر من 400 خادم MCP و Skills