MCP Protocol: لماذا قد يُعيد بروتوكولٌ صغيرٌ تشكيلَ قطاعِ AI كاملاً
Anthropic أعلنت عنه بهدوء في أواخر ٢٠٢٤. اليوم، أربعةٌ من خمسةٍ كبار AI تَبَنَّوْه. سنَنظر إليه في ٢٠٢٧ كاللحظة التي حُسِم فيها كيف تَتكلَّم النماذجُ مع العالم.

في أواخرِ ٢٠٢٤، أعلنت Anthropic عن بروتوكولٍ مفتوح اسمُه Model Context Protocol — اختصاراً MCP. الإعلانُ مرَّ بهدوءٍ في الإعلامِ التقنيّ. الإعلانُ نفسُه قد يَكون أهمَّ من نموذجٍ جديد.
سأَشرحُ السبب.
المشكلةُ التي يَحلّها MCP
كلُّ تطبيقِ AI يَحتاج إلى الوصولِ لبيانات ومصادرَ خارج السياقِ المباشر للنموذج: ملفّاتُك، GitHub، Slack، قاعدةُ البياناتِ الداخليّة، تقويمُك. حتى ٢٠٢٤، كانت كلُّ شركةٍ تَبني تكاملاتِها بالطريقةِ الخاصّةِ بها — OpenAI لها function calling، Anthropic لها tool use، Google لها function declarations، إلخ.
النتيجة: لو بنيتَ tool للوصولِ لـ GitHub لـ Claude، لا يَعمل تلقائياً مع GPT أو Gemini. تُعيد البناءَ ثلاثَ مرّات. أنتَ كمطوّر تَخسرُ وقتاً، الشركةُ تَخسرُ مرونةً، السوقُ يَخسرُ ابتكاراً.
MCP بَسيطٌ في فكرتِه: بروتوكول واحد يَعتمدُه أيُّ نموذج، أيُّ tool، أيُّ تطبيق. مثل HTTP للويب، أو POSIX للـ shell.
كيف يَعمل عمليّاً
MCP server هو خادمٌ صغيرٌ يَعرضُ tools و resources عبرَ بروتوكولٍ موحَّد (يَستخدم JSON-RPC تحته). أيُّ MCP client (Claude Desktop، Cursor، أو حتى نموذجٌ مخصَّصٌ لشركتك) يَتّصلُ به ويَستخدمُ ما يَعرضه.
في يومٍ عاديّ، تَفعل هذا:
- تُشغِّل MCP server يَتّصل بـ database شركتك.
- تَفتح Claude Desktop. يَكتشف الـ server تلقائياً.
- تَسأل Claude: "كم عمليّةَ بيعٍ في الرياضِ هذا الشهر؟" — يَستدعي الـ tool عبر MCP، يَجلبُ الإجابة، يُلخّصها لك.
لا كود إضافيّ. لا تكامل خاصّ. الـ server يَعمل مع أيِّ MCP client.
لماذا قد يُغيِّر القطاع كاملاً
أوّلاً، التشغيلُ البَيْنيّ (interoperability). عندما يُصبح MCP معياراً، الشركاتُ تَبني tool واحداً يُستخدم في كلِّ التطبيقات. هذا يُخفّض التكلفةَ ويُسرِّع الابتكار.
ثانياً، استقلالُ النموذج. اليوم، إن بَنيتَ منتجاً على tools خاصّةٍ بـ Anthropic، أنتَ مقيَّدٌ بـ Anthropic. مع MCP، تَنتقلُ بين Claude و GPT و Gemini حسبَ السعر والجودة، بدون إعادةِ بناء.
ثالثاً، بيئة tools مفتوحة. المطوّرون يَبنون MCP servers لـ Notion، Linear، Slack، Postgres، AWS — وكلّها متاحةٌ مفتوحةً. مكتبةٌ مشتركةٌ يَستفيد منها كلُّ من يَبني تطبيق AI.
ما تَبنّاه فعلاً
في ٢٠٢٥-٢٠٢٦، تَبَنّى MCP:
- Anthropic (المُنشِئ)
- Cursor (محرّر الكود)
- Zed (محرّر آخر)
- OpenAI (دعمٌ تجريبيّ في Codex وApps SDK)
- Microsoft (في GitHub Copilot)
- Google (في Gemini Code Assist)
هذا أربعةٌ من الخمسةِ الكبار في AI. الخامس (xAI) لم يُعلن، لكنّه على الأرجح يَتبع.
التحدّياتُ الباقية
الأمن. MCP server قد يَملك صلاحيّاتٍ خطيرة (قراءة قاعدة بيانات، تنفيذ shell commands). البروتوكول لا يَفرض sandboxing — مسؤوليّة المطوّر. اختياراتٌ سيّئة هنا قد تُؤدّي إلى prompt injection يَسرق بياناتك.
الأداء. كلُّ tool call عبر MCP يَضيف overhead صغيراً. للتطبيقاتِ التي تَستدعي ١٠٠+ tool في الجلسة، هذا يَتراكم.
النضج. البروتوكولُ لا يَزال يَتطوَّر. Schemas تَتغيَّر، أحياناً بطريقةٍ تَكسر التوافقَ الخلفي.
