في العادة، النزاعات بين الحكومات وشركات التقنية تُحلّ خلف الأبواب المغلقة. لكن ما يتسرّب الآن عن التوتر بين وزارة الدفاع الأمريكية (البنتاغون) وشركة Anthropic يبدو مختلفًا تمامًا: ليس خلافًا على عقد، بل صراعًا على سؤال أكبر بكثير — من يضع حدود استخدام أقوى نماذج الذكاء الاصطناعي داخل المنظومات العسكرية؟
الرواية المتداولة تتحدث عن مهلة نهائية قاسية: إما أن تمنح Anthropic الجيش الأمريكي وصولًا واسعًا إلى نموذج Claude لـ“كل الأغراض القانونية”، أو تواجه عواقب مباشرة تشمل إنهاء عقد عسكري كبير، وتصنيفًا يضر بسمعتها، وربما استخدام أدوات قانونية استثنائية للضغط عليها.
بحسب الطرح المنسوب للشركة، خطوطها الحمراء تبدو محددة جدًا:
رفض قرارات القتل الذاتية دون إنسان في الحلقة (Human-in-the-loop).
رفض استخدام الذكاء الاصطناعي في مراقبة جماعية للمواطنين الأمريكيين.
هذه ليست تفاصيل تقنية صغيرة؛ هذه قواعد تمس جوهر العلاقة بين التكنولوجيا والديمقراطية. الفرق هنا واضح:
البنتاغون يتحدث عن “الاستخدام القانوني”.
Anthropic تتحدث عن “الضمانات الأخلاقية والدستورية” حتى عندما يكون الاستخدام قانونيًا شكليًا.
لأن القضية — إذا صحّت تفاصيلها — قد تصنع سابقة خطيرة:
بمعنى آخر: هل مبادئ السلامة التكنولوجية التزام حقيقي؟ أم مجرد خيار يُعطّل عند الضرورة؟
أخطر نقطة ليست فقط “من يربح العقد”، بل ما الذي يحدث عندما تنتقل سلطة القرار من البشر إلى أنظمة ذاتية:
الإنسان يمكنه رفض أمر غير قانوني.
النظام الذاتي لا “يرفض”؛ هو ينفّذ ما بُرمج عليه.
هذا يفتح بابًا واسعًا على قضايا دستورية، خصوصًا مع أدوات مراقبة قادرة على:
تفريغ المحادثات،
ربط التحركات،
تحليل الشبكات الاجتماعية للأفراد على نطاق جماعي.
هنا يعود السؤال الأمريكي القديم بثوب جديد: كيف نحمي التعديل الرابع (الخصوصية) في عصر ذكاء اصطناعي يرى كل شيء؟
حتى مع وجود عقود بمئات الملايين، شركات بحجم Anthropic تتحرك الآن بمنطق النفوذ طويل الأجل لا الربح القصير. لذلك يبدو الصراع أقرب إلى معركة مبادئ منه إلى تفاوض تجاري:
الحكومة تريد مرونة تشغيلية كاملة.
الشركة تريد الحفاظ على حد أدنى من الحواجز الأخلاقية.
نحن أمام لحظة تعريفية لمستقبل الذكاء الاصطناعي العسكري: إما أن تصمد فكرة “السلامة غير القابلة للتفاوض”، أو يترسّخ مبدأ جديد يقول إن السلامة اختيارية عندما تتعارض مع متطلبات الدولة.
وفي كلتا الحالتين، النتيجة لن تخص Anthropic وحدها، بل سترسم قواعد اللعبة لكل شركات الذكاء الاصطناعي خلال السنوات القادمة.