العقل الثاني العلني
Second Mind — gpt4ar

أنثروبيك تكشف هجمات تقطير واسعة: هل دخل سباق الذكاء الاصطناعي مرحلة الصدام المفتوح؟

2026-02-24العودةالزيارات: 219

في تطور صادم داخل صناعة الذكاء الاصطناعي، أعلنت شركة أنثروبيك (Anthropic) أنها رصدت ما وصفته بحملات “تقطير” (Distillation) على نطاق صناعي استهدفت نموذجها Claude، ونسبت هذه الحملات إلى ثلاث مختبرات: DeepSeek وMoonshot وMiniMax. وبحسب البيان، تم تنفيذ أكثر من 16 مليون تفاعل عبر نحو 24 ألف حساب احتيالي بهدف استخراج قدرات كلود وتغذية نماذج منافسة بها.

ما هو “التقطير” ولماذا أثار هذه الأزمة؟

التقطير في الأصل تقنية مشروعة في تعلم الآلة: تدريب نموذج أصغر على مخرجات نموذج أقوى. المشكلة هنا — كما تقول أنثروبيك — ليست في المبدأ، بل في الاستخدام غير المشروع:

  • حسابات مزيفة.

  • استخدام شبكات بروكسي للتحايل على القيود.

  • أنماط استعلامات متكررة ومصممة بدقة لالتقاط قدرات نوعية (الاستدلال، استخدام الأدوات، البرمجة).

أي أن المسألة لم تعد “تحسين نموذج” فقط، بل محاولة تسريع اكتساب قدرات باهظة التطوير عبر قنوات غير مصرح بها.

لماذا تعتبر أنثروبيك الأمر تهديدًا أمنيًا؟

أنثروبيك تربط القضية بالأمن القومي مباشرة. فبحسب طرحها، النماذج الناتجة عن هذا النوع من الاستخلاص قد لا تحتفظ بنفس طبقات الأمان التي تضيفها الشركات الأمريكية لمنع إساءة الاستخدام في مجالات حساسة، مثل:

  • الأمن السيبراني الهجومي،

  • المعلومات المضللة،

  • وتطبيقات المراقبة واسعة النطاق.

وتحذر الشركة من أن المخاطر تتضاعف أكثر إذا انتشرت هذه النماذج لاحقًا بشكل مفتوح أو خارج أطر الحوكمة.

الأسماء والأرقام: ماذا ورد في البيان؟

عرضت أنثروبيك تفاصيل لثلاث حملات كبرى، مع نسبها لمختبرات بعينها “بثقة عالية” استنادًا إلى بيانات البنية التحتية والميتاداتا وأنماط الحركة:

  • DeepSeek: أكثر من 150 ألف تفاعل، مع تركيز على الاستدلال وتوليد بيانات تدريب متقدمة.

  • Moonshot: أكثر من 3.4 مليون تفاعل، مع استهداف قدرات الوكلاء (Agents) والبرمجة والرؤية الحاسوبية.

  • MiniMax: أكثر من 13 مليون تفاعل، مع انتقال سريع لالتقاط قدرات الإصدارات الأحدث من Claude.

كيف ترد أنثروبيك؟

أعلنت الشركة مجموعة إجراءات دفاعية تشمل:

  1. أنظمة كشف سلوكي وتصنيفات حركة لرصد أنماط التقطير.

  2. تبادل مؤشرات فنية مع شركات سحابية ومختبرات وجهات معنية.

  3. تشديد التحقق من الحسابات في المسارات الأكثر تعرضًا للاستغلال.

  4. إجراءات على مستوى المنتج والـAPI والنموذج لتقليل جدوى الاستخلاص غير المشروع.

وتؤكد الشركة أن المواجهة لا يمكن أن تكون فردية، بل تتطلب تنسيقًا أوسع بين الصناعة وصناع السياسات.

قراءة تحليلية: من منافسة النماذج إلى حرب حماية القدرات

إذا صحّت تفاصيل ما كشفته أنثروبيك كما وردت، فنحن أمام تحول مهم: لم تعد المنافسة فقط حول “من يطلق نموذجًا أفضل؟”، بل أصبحت أيضًا حول “من يستطيع حماية قدراته من الاستخلاص السريع؟”.

وهنا تظهر المفارقة الأساسية في عالم الذكاء الاصطناعي:

  • الانفتاح يسرّع الابتكار.

  • لكن الانفتاح غير المنضبط قد يضعف الحوافز للاستثمار طويل الأمد في الأمان والبحث الأصلي.

المرحلة القادمة مرشحة لأن تشهد:

  • تشديدًا أكبر على الهوية والحوكمة في واجهات النماذج.

  • تصاعد الجدل حول التوازن بين المنافسة العادلة وحماية الملكية التقنية.

  • وربما موجة تنظيمية جديدة تربط أمن النماذج بالبنية السحابية والسياسات الصناعية.

في النهاية، هذه القصة ليست مجرد خرق شروط استخدام؛ إنها إشارة مبكرة إلى أن سباق الذكاء الاصطناعي المتقدم دخل مرحلة أمنية-جيوسياسية كاملة، حيث يصبح السؤال المركزي: من يملك النموذج؟ ومن يملك القدرة الفعلية على حمايته؟

المصدر

📥 تنزيل بصيغة Markdown