في واحدة من أكثر المواجهات حساسية في عالم التقنية والسياسة، يتصاعد التوتر بين شركة أنثروبيك (Anthropic)، مطوّرة نموذج كلود (Claude)، ووزارة الدفاع الأمريكية (البنتاغون) حول سؤال يبدو تقنياً في الظاهر، لكنه في العمق سؤال أخلاقي وسيادي: من يملك القرار النهائي في استخدام الذكاء الاصطناعي داخل المنظومات العسكرية؟
خلال العام الماضي، وقّعت أنثروبيك عقداً ضخماً بقيمة 200 مليون دولار مع البنتاغون، ما جعل كلود النموذج الوحيد المدمج في الأنظمة السرية العسكرية. هذا التعاون وضع الشركة في قلب المؤسسة الأمنية الأمريكية، لكنه أيضاً وضعها أمام اختبار صعب: كيف تحافظ على خطابها الأخلاقي بينما تعمل مع أكثر مؤسسة عسكرية نفوذاً في العالم؟
التوتر بلغ ذروته بعد استخدام التقنية في غارة مميتة في يناير 2026 للقبض على الزعيم الفنزويلي نيكولاس مادورو. منذ تلك اللحظة، لم يعد الخلاف نظرياً، بل تحوّل إلى نزاع مباشر حول حدود الاستخدام:
أنثروبيك تطالب بضمانات واضحة تمنع استخدام نماذجها في المراقبة الجماعية للمواطنين الأمريكيين.
وتمنع توظيفها في تطوير أسلحة ذاتية التشغيل تعمل بلا تدخل بشري حقيقي.
في المقابل، يصر البنتاغون على صلاحيات أوسع، ويريد استخدام الذكاء الاصطناعي «لكل الأغراض القانونية» دون قيود إضافية، ويرى أن شروط أنثروبيك مثالية أكثر من اللازم وغير عملية في بيئة عملياتية معقدة.
بعد أشهر من مفاوضات متوترة، انتقل الخلاف إلى مستوى التهديد الاستراتيجي. فقد لوّح البنتاغون بإمكانية تصنيف أنثروبيك كـ «خطر على سلسلة التوريد»؛ وهو تصنيف قد يجبر المتعاقدين مع الوزارة على قطع العلاقات معها. وبالنسبة لأنثروبيك، قد يكون ذلك ضربة قاسية، خصوصاً في ظل انتشار كلود داخل 8 من أكبر 10 شركات أمريكية.
المشهد ازداد سخونة مع استدعاء وزير الدفاع بيت هيغسيث للرئيس التنفيذي لأنثروبيك داريو أمودي إلى اجتماع في البنتاغون يوم الثلاثاء 24 فبراير 2026، في لقاء وُصف داخل الأروقة الرسمية بأنه «اجتماع حاسم» أو “sht or get off the pot” — أي لحظة قرار نهائية: إزالة القيود أو مواجهة العواقب*.
مسؤولو البنتاغون وصفوا موقف أمودي بأنه “أيديولوجي”، بينما تؤكد أنثروبيك أن المفاوضات تسير “بحسن نية”. وعلى منصة إكس، انقسمت الآراء: فريق يرى أن موقف أنثروبيك محاولة ضرورية لوضع خطوط حمراء أخلاقية، وفريق آخر يدفع باتجاه الذكاء الاصطناعي المفتوح المصدر لتقليل قدرة الحكومات أو الشركات على فرض الإكراه.
في النهاية، لا يدور هذا الصراع حول عقد واحد أو شركة واحدة فقط. إنه مواجهة مبكرة بين منطقين متصادمين:
منطق عسكري يرى الذكاء الاصطناعي أداة تفوق يجب ألا تُقيَّد إلا بالقانون.
ومنطق أخلاقي يرى أن القانون وحده لا يكفي عندما تصبح الخوارزميات جزءاً من قرار القتل والمراقبة.
وأياً كانت نتيجة اجتماع الثلاثاء — استمرار العقد، تعديله جذرياً، أو انهياره — فإن هذه الأزمة ستبقى علامة فارقة: لحظة أدرك فيها العالم أن معركة الذكاء الاصطناعي ليست فقط على الابتكار، بل على من يضع القواعد… ومن يدفع ثمن غيابها.