العقل الثاني العلني
استكشاف المواضيع: AI
مقالات تحت وسم: AI
هجوم سيبراني ضخم يستهدف مكتبة LiteLLM: برمجيات خبيثة تسرق بيانات الاعتماد في بيئة الذكاء الاصطناعي
2026-03-24
اختراق خطير عبر نسخ خبيثة من LiteLLM على PyPI (1.82.7 و1.82.8) أدى إلى مخاطر سرقة بيانات اعتماد واسعة في بيئات تطوير وتشغيل الذكاء الاصطناعي.
أنثروبيك تُطلق ميزة «استخدام الحاسوب» في كلود: عندما يتحوّل المساعد الذكي إلى موظف حقيقي يعمل على جهازك
2026-03-24
إطلاق ميزة Computer Use في Claude Cowork وClaude Code يوسع دور المساعد الذكي من الإجابة إلى تنفيذ المهام الفعلية على الحاسوب، مع نقاش واسع حول الأمان والمنافسة مع OpenClaw.
دليل المصطلحات التي ترتقي باستخدامك للذكاء الاصطناعي إلى مستوى آخر
2026-03-07
دليل عملي يشرح أهم وثائق العمل (مثل PRD وSOP وRACI) وكيف تطلبها من الذكاء الاصطناعي لتحويله إلى مساعد تنفيذي فعلي.
البنتاغون وAnthropic: اختبار مصيري لحدود الذكاء الاصطناعي العسكري
2026-02-27
توتر متصاعد بين البنتاغون وAnthropic يثير أسئلة حاسمة حول حدود استخدام الذكاء الاصطناعي عسكريًا، والفرق بين الشرعية القانونية والضمانات الديمقراطية.
OpenAI تُكمل أكبر جولة تمويل خاصة في تاريخ التكنولوجيا بقيمة 110 مليار دولار
2026-02-27
OpenAI تُغلق جولة تمويل تاريخية بقيمة 110 مليار دولار بقيادة Amazon وNvidia وSoftBank، مع تقييم يقترب من 840 مليار دولار بعد الاستثمار.
الدليل الشامل لاستخدام Claude Code: مضاعفة إنتاجية البرمجة 1000 مرة
2026-02-26
مرجع تدريبي عملي لتحويل فرق الهندسة إلى مديري وكلاء ذكاء اصطناعي مع استراتيجيات السياق، السرب، والاختبارات.
Claude Cowork في 2026: الدليل الكامل
2026-02-26
النسخة الكاملة من دليل Claude Cowork كما وردت، دون اختصار.
أنثروبيك تكشف هجمات تقطير واسعة: هل دخل سباق الذكاء الاصطناعي مرحلة الصدام المفتوح؟
2026-02-24
أنثروبيك تقول إنها رصدت حملات تقطير ضخمة استهدفت Claude عبر حسابات احتيالية، ما يعيد فتح ملف أمن النماذج والتنافس الجيوسياسي في الذكاء الاصطناعي.
خلاصة محاضرة YC: كيف تبني شركة ذكاء اصطناعي بـ 650 مليون دولار (بعيداً عن الضجيج)
2026-02-10
تحليل لأهم الدروس المستفادة من محاضرة جيك هيلر، مؤسس Casetext، حول كيفية بناء منتج ذكاء اصطناعي حقيقي يحل مشكلات معقدة ويحقق نجاحاً استثمارياً ضخماً.
أخبار الذكاء الاصطناعي هذا الأسبوع (2026-W06)
2026-02-04
مختارات أسبوعية من Hacker News — موجهة للجمهور العام.
الاحتراق الرقمي (AI Burnout): عندما يتصادم العقل البشري مع سرعة الآلة
2026-02-03
تحليل لظاهرة الـ AI Burnout؛ كيف تؤدي الإنتاجية المفرطة بالذكاء الاصطناعي إلى استنزاف طاقتنا الحيوية، وكيف يمكننا وضع حدود صحية للتعاون مع الآلة.
ثورة الاستدلال (AI Reasoning)؛ كيف غير DeepSeek-R1 قواعد اللعبة؟
2026-02-02
تحليل متعمق لنماذج التفكير (Reasoning Models)، بداية من اختراق R1، وصولاً إلى فلسفة "Chain of Thought" ومستقبل ذكاء النظام الثاني.
Moltbook: وهم «تواصل الوكلاء»... وكيف يمكن تزييف أي شيء بطلبات curl بسيطة
2026-01-31
هل ما تراه في Moltbook هو فعلًا نقاشات بين ذكاء اصطناعي؟ كشف تقني يوضح سهولة تزييف الوكلاء والمنشورات ونشر الرعب أو الحماس باستخدام أدوات برمجية بدائية.
تراكم الدين المعرفي: دراسة من MIT تكشف كيف يغيّر ChatGPT أدمغتنا
2026-01-31
هل يجعلنا الذكاء الاصطناعي أقل ذكاءً؟ دراسة حديثة من MIT Media Lab تستخدم تخطيط الدماغ (EEG) لاكتشاف تكلفة 'الدين المعرفي' عند الاعتماد على ChatGPT في الكتابة.
تطبيع الانحراف (Normalization of Deviance): لماذا ننتظر الكارثة؟
2026-01-31
دروس من كارثة مكوك تشالنجر نطبقها على أمن وكلاء الذكاء الاصطناعي: خطر الاعتياد على الممارسات غير الآمنة.
المهارات (Skills): كيف تمنح وكيلك قوى خارقة؟
2026-01-31
نظرة على نظام المهارات في OpenClaw: كيف تعمل، لماذا هي أقوى من الإضافات التقليدية، وكيف تختارها بأمان.
المثلث القاتل (Lethal Trifecta): متى يصبح وكيل AI خطراً حقيقياً؟
2026-01-31
شرح لمفهوم سايمون ويليسون حول اجتماع ثلاث قدرات تجعل الوكيل هدفاً سهلاً للاختراق وتسريب البيانات.
Prompt Injection: الثغرة التي تخدع عقل الذكاء الاصطناعي
2026-01-31
دليل مبسط لفهم أخطر ثغرة في عصر الوكلاء: كيف يمكن لرسالة أو صفحة ويب أن تسيطر على قرارات مساعدك الرقمي؟
نظام Heartbeat: المحرّك الخفي لوكلاء الذكاء الاصطناعي 24/7
2026-01-31
شرح مفصل لنظام Heartbeat (نبضات القلب): كيف يجعل الوكيل يبادر بالتواصل معك، والفرق بينه وبين مهام Cron، وكيف تضبطه بأمان.
من Clawd إلى Moltbot إلى OpenClaw: ملف مُلخّص يشرح المشروع ولماذا تغيّر اسمه
2026-01-30
ملف مختصر وعملي: ما هو OpenClaw (سابقًا Clawd/Moltbot/OpenClaw)؟ لماذا تغيّر الاسم؟ ماذا يفعل؟ كيف تبدأ بأمان؟
Moltbook: «أكثر مكان مثير للاهتمام على الإنترنت الآن» — ترجمة عربية مع شرح
2026-01-30
ترجمة عربية لمقال Simon Willison عن Moltbook وموجة OpenClaw: كيف تبني شبكة اجتماعية للوكلاء عبر Skills، ولماذا الحماس الكبير يقابله خطر أمني حقيقي (Prompt Injection).
Moltbook: شبكة اجتماعية للوكلاء… وكيف تُثبت ملكية وكيلك وتجعله يتفاعل تلقائيًا (شرح جذاب + بحث داخل الأداة)
2026-01-30
بحث داخل Moltbook: ملف skill.md، آلية التسجيل والclaim، نظام Heartbeat للتفاعل الدوري، والرسائل الخاصة consent-based بين الوكلاء. مع تحذير أمني واضح: نمط (fetch-and-follow) خطير إذا لم يُقيّد.
نظرة داخلية على بنية Clawdbot (المعروف سابقًا بـ Moltbot) — ترجمة عربية
2026-01-30
ترجمة عربية لنص/مقالة قصيرة للمهندس Hesamation يشرح فيها بشكل مبسط كيف يعمل Clawdbot تحت الغطاء: Gateway، جلسات، تنفيذ أدوات، المتصفح… وما الذي يجيده وما الذي لا يجيده.
Kimi K2.5 من Moonshot AI: نموذج متعدد الوسائط يركز على «العمل الحقيقي» (بحث عميق)
2026-01-30
تغطية معمّقة لإطلاق Kimi K2.5: ما الذي يقدمه كنموذج مفتوح متعدد الوسائط؟ وما الذي يميّزه في تحويل الصور/الفيديو إلى كود، وفي أنماط الوكلاء (Agent/Swarm)؟ وما الذي يجب التحقق منه قبل الاعتماد عليه؟
أخبار الذكاء الاصطناعي هذا الأسبوع (2026-W05)
2026-01-29
مختارات أسبوعية من Hacker News — موجهة للجمهور العام، مع روابط للمتابعة.
البرمجة الحديثة بالذكاء الاصطناعي: من كتابة الكود إلى هندسة التحقّق
2026-01-29
لماذا أصبحت البرمجة اليوم أقرب إلى كتابة مواصفات + اختبارات + مراجعة… أكثر من كتابة كود يدوي.
Project Genie وGenie 3 من Google DeepMind: عوالم تفاعلية تُولد لحظيًا… ولماذا هذا أكبر من مجرد لعبة
2026-01-29
شرح مفصل لإطلاق Project Genie (المبني على Genie 3): نموذج عالم يولّد بيئات تفاعلية في الزمن الحقيقي عبر حلقة تخطيط/فعل/ملاحظة. ماذا يعني ذلك للألعاب، للتعليم، ولتدريب الوكلاء والروبوتات؟
Agentic Vision في Gemini 3 Flash: عندما تتحول الرؤية من لقطة واحدة إلى تحقيق خطوة بخطوة
2026-01-29
ميزة جديدة من Google DeepMind تجعل فهم الصور عملية تكرارية (Think/Act/Observe) مدعومة بتنفيذ كود Python لزيادة الدقة وتقليل التخمين في التفاصيل الدقيقة.
مراهقة التكنولوجيا: كيف نحيا مع ذكاء اصطناعي أقوى من نضجنا؟
2026-01-29
قراءة عربية مطوّلة لمقال داريو أمودي (Anthropic) عن مخاطر المرحلة الانتقالية نحو ذكاء اصطناعي شديد القوة، وكيف نتعامل معها بواقعية دون تهويل أو إنكار.