مع تزايد الاعتماد على وكلاء الذكاء الاصطناعي (AI Agents) الذين يمتلكون القدرة على كتابة الأكواد وتنفيذ أوامر النظام، يصبح "العزل" أو الـ Sandboxing ضرورة لا غنى عنها. بدون عزل، يمكن لخطأ واحد في منطق الوكيل أو لهجمة "حقن أوامر" (Prompt Injection) أن تؤدي إلى مسح ملفات حيوية أو تسريب بيانات حساسة.
في هذا الدليل، سنشرح كيفية بناء "صندوق رمل" متين لوكلائك داخل بيئة Linux.
الوكلاء الحديثون مثل Clawdbot و OpenClaw يعملون عبر واجهات سطر الأوامر (CLI). هذا يعني أنهم "يرون" نظام الملفات الخاص بك. المخاطر تشمل:
أخطاء التوليد: أن يكتب الوكيل أمراً مثل rm -rf / عن طريق الخطأ أثناء محاولة تنظيف مجلد.
الاختراق الدلالي: أن يتم خداع الوكيل عبر الشات للوصول لملفات ~/.ssh أو secrets/.
يعتبر Docker الوسيلة الأسهل والأكثر انتشاراً. من خلال تشغيل الوكيل داخل حاوية (Container)، فإننا نفصله عن "نواة" النظام المضيف.
التطبيق: لا تمنح الحاوية صلاحيات الـ Root.
نصيحة: استخدم --memory و --cpus لتحديد الموارد ومنع الوكيل من استهلاك طاقة المعالج بالكامل (DoS).
لأقصى درجات الأمان، نستخدم تقنيات مثل Firecracker أو gVisor. هذه التقنيات تنشئ آلة افتراضية مصغرة جداً لكل مهمة يقوم بها الوكيل، مما يضمن أنه حتى لو تم اختراق الوكيل بالكامل، فإنه سيبقى سجيناً داخل الـ VM ولا يمكنه القفز للنظام الأصلي.
تقنية حديثة في نواة Linux تسمح للبرامج (بما فيها الوكلاء) بفرض قيود على نفسها. يمكننا برمجة الوكيل ليطلب من النظام: "اسمح لي فقط بالقراءة والكتابة في مجلد /tmp/agent_work ولا تسمح لي برؤية أي شيء آخر".
مستخدم مخصص: لا تشغل الوكيل أبداً بحسابك الشخصي؛ أنشئ مستخدم ai_agent بصلاحيات محدودة جداً.
تقييد الوصول للشبكة: استخدم الجدار الناري (UFW) لمنع الوكيل من الاتصال بأجهزة داخل شبكتك المحلية.
مراقبة العمليات: استخدم أدوات مثل auditd لتسجيل كل أمر ينفذه الوكيل ومراجعته لاحقاً.
الذكاء الاصطناعي هو "محرك" قوي، ولكن الـ Sandboxing هو "المكابح" وحزام الأمان. تأمين بيئة العمل هو ما سيسمح لك بمنح الوكيل صلاحيات أكبر دون خوف من العواقب.
تم إعداد هذا الدليل بناءً على أفضل الممارسات الأمنية المتبعة في مشاريع OpenClaw و Claws-Security لعام 2026.