ما نشهده من غزة إلى إيران هو نهاية الحرب كفعل إنسانى محدود، وبداية عصر «الموت المبرمج»، حيث الآلة هى من تقرر من يحيا ومن يموت، والإنسان يتحول إلى مجرد زر ضاغط يوافق على ما تنتجه الخوارزميات.
• • •
لم يعد التحول الذى أحدثه الذكاء الاصطناعى فى الحروب الراهنة مجرد تطور نوعى فى السلاح، بل هو تحول «كمى» مخيف حوّل ميادين القتال فى غزة وإيران إلى ما يشبه «مصنع موت» يعمل بكفاءة آلية خارقة. ففى الوقت الذى كان فيه إنتاج الأهداف العسكرية يدويًا يتطلب شهورًا من البحث لإنتاج 50 هدفًا فى السنة، قفزت المنظومات الذكية بهذا المعدل إلى 250 هدفًا يوميًا، ما يعنى أن الآلة تنجز فى يوم واحد عمل عامين كاملين من الجهد البشرى. فى قلب هذه المنظومة الإسرائيلية، يبرز نظام «لافندر» (Lavender) كآلة فرز إحصائى ضخمة تمنح كل فلسطينى فى غزة تقييمًا رقميًا (Score) من 1 إلى 100 يحدد «احتمالية» انتمائه للفصائل المسلحة، بناء على خوارزميات تحلل أنماط الاتصالات، والمجموعات العائلية، وحتى مجرد تغيير الهاتف المحمول أو الانضمام لمجموعة «واتساب» تضم عنصرًا مشتبهًا به. ومع الضغط العسكرى، كانت «عتبة الاستهداف» تنخفض لتضم القائمة آلاف الضحايا المحتملين، ليتحول دور الضابط البشرى إلى مجرد «ختم» يوافق على توصية الآلة فى 20 ثانية فقط، رغم المعرفة المسبقة بأن نسبة الخطأ فى هذا النظام تصل إلى 10%.
لا يتوقف الأمر عند التصنيف، بل يمتد للملاحقة عبر نظام «أين أبى»؟ (Where's Daddy)، الذى يتتبع الأهداف لحظيًا لضمان قصفهم ليلًا أثناء وجودهم فى منازلهم مع عائلاتهم، ليس لضرورة عسكرية، بل لأن تتبعهم داخل البيوت أسهل استخباراتيًا، وهو ما وصفته مقررة الأمم المتحدة، فرانشيسكا ألبانيزى، بأنه تحويل للمنازل إلى «مناطق قتل» بدعم تقنى من شركات عالمية كبرى مثل بالانتير وأمازون ومايكروسوفت. هذا «الإنتاج الصناعى للأهداف» يتوج بنظام «هابسورا» (Habsora) أو «الإنجيل»، الذى حقق القفزة الكبرى فى حرب غزة الأخيرة (2023-2024)، حيث ولّد أكثر من 22 ألف هدف فى أسابيع معدودة، محولًا الحرب من «حرفة استخباراتية» يدرس فيها الضباط كل هدف بدقة، إلى عملية آلية عمياء تتسابق فيها الخوارزميات مع الزمن، ما يجعل المدنيين مجرد أرقام فى قوائم انتظار تصفية طويلة لا تفرق بين مقاتل وطفلة فى مدرسة. وفقًا لاعترافات شهادات ضباط استخبارات -شاركوا فى تشغيل هذه الأنظمة- ونشرت فى سلسلة التحقيقات الاستقصائية الموسعة التى نشرتها مجلة «+972» الإسرائيلية وموقع «لوكال كول» (Local Call).
قادت هذه الآلية إلى انهيار كامل للمعايير الأخلاقية والقانونية، ويتجلى ذلك فى تطور «نسب الخسائر الجانبية» المسموح بها. فبعد أن كان المسموح به فى 2014 مدنيًا واحدًا لكل مسلح رفيع المستوى، أصبح فى حرب غزة يسمح بـ15 مدنيًا لكل عضو منخفض المستوى فى حماس، و20 مدنيًا للقياديين من الدرجة الثانية، وصولًا إلى 100 مدنى للقياديين من الدرجة الأولى. السياسة الإسرائيلية الجديدة بعد 7 أكتوبر سمحت باستهداف أى شخص فى القائمة بغض النظر عن رتبته العسكرية، واعتبار عائلات بأكملها «أضرارًا جانبية» مقبولة. هذا الوضع يخلق أزمة مساءلة حقيقية: مع وجود 37 ألف اسم وآلاف الضربات فى أيام قليلة، يصبح تتبع مسئولية كل ضربة مستحيلًا. من يتحمل المسئولية عندما تخطئ الخوارزمية؟ هل نلوم مهندس البرمجيات أم القائد الذى وثق بالآلة فى 20 ثانية أم النظام السياسى الذى فوّض الآلة باتخاذ قرارات الحياة والموت؟
فى مطلع شهر مارس 2026، تغير وجه الحرب للأبد؛ فلم يعد القادة العسكريون ينتظرون تقارير الاستطلاع التقليدية، بل تركوا المهمة لـ«خوارزميات القتل». نفذ الجيش الإسرائيلى والأمريكى معًا أكثر من 11,500 ضربة جوية على إيران فى وقت قياسى، اعتمدت هذه العمليات على نظام يدعى "مشروع مافن" (Project Maven)، وهو عبارة عن «دماغ رقمى» عملاق يجمع ملايين البيانات من صور الأقمار الصناعية، وطائرات التجسس، والمكالمات المخترقة. ولتسريع عملية اتخاذ القرار، تم دمج روبوت الدردشة الذكى «كلود» (Claude)، الذى كان يقرأ آلاف التقارير الاستخباراتية المعقدة فى ثوانٍ، ليخبر القادة العسكريين ببساطة: «هذا هو الهدف الأهم الآن».
وفى 3 مارس 2026، قُصفت مدرسة «الشجرة الطيبة» الابتدائية فى مدينة ميناب الإيرانية. كشفت التحقيقات اللاحقة عن أن الخوارزميات، اعتمدت على بيانات قديمة خلطت بين موقع المدرسة ومستودع أسلحة سابق، ما أدى إلى مقتل 175 شخصًا، معظمهم من الطفلات. كشفت تلك المآساة عن الحقيقة المرة فسرعة الخوارزميات فى القتل تجاوزت قدرة البشر على المراجعة، لتتحول الدقة التقنية المزعومة إلى مجازر آلية عمياء.
• • •
إن ما نشهده اليوم، من غزة إلى إيران، ليس مجرد تطور فى أدوات القتال، بل هو إعلان عن نهاية الحرب كفعل إنسانى محكوم بالتقدير، وبداية عصر «الموت المبرمج» الذى تملى فيه الآلة من يحيا ومن يموت. فحين تنخفض مهلة المراجعة البشرية إلى ثوانٍ معدودة، وتصبح «قوائم الاستهداف» مجرد نتاج خوارزمى جاف، تنهار كافة الضمانات الأخلاقية والقانونية أمام طغيان الأرقام. نحن نمضى نحو مستقبل من الحروب عن بُعد، تُديره أسراب الدرونز ذاتية القيادة وبرمجيات تشل الحياة بضغطة زر؛ ومع انخفاض تكلفة هذه التقنيات، لن يقتصر سباق التسلح على الدول الكبرى، بل سيمتد لكل من يملك القدرة على برمجة خوارزمية قاتلة.
استعادة البصيرة البشرية قبل فوات الأوان هو التحدى الأكبر الآن، ففى النهاية الآلة لا تكره ولا تحب، لكنها أيضًا لا تفهم معنى أن تكون طفلة فى مدرسة، أو أبًا يعود إلى منزله ليلًا، وهى بالتأكيد لا تستطيع محاكمة نفسها عندما تخطئ. المسئولية تبقى على البشر، لكن السؤال هو: هل لا يزال البشر يملكون زمام القرار؟
باحثة بمركز جنيف للدراسات