الخوارزميات القاتلة: هل يحسم الذكاء الاصطناعي الحياة والموت في غزة؟ د.مؤيد عمر

الشعب نيوز:-

شهدت حرب غزة (2023–2025) نقلة نوعية في تكنولوجيا إدارة العمليات العسكرية، إذ برز لأول مرة على نطاق واسع الحديث عن أنظمة ذكاء اصطناعي تُستخدم لتحديد الأهداف وتصنيف الأشخاص والمباني، وقد تصدر اسم نظام لافيندر ” Lavende” ونظام جوسبل “Gospel” واجهة النقاش الإعلامي والحقوقي، باعتبارهما نموذجًا لتحول الخوارزميات إلى أدوات قرار قد تحسم مصير الإنسان بين الحياة والموت.

تشير تقارير صحفية دولية مثل ذا جارديان ” The Guardian” نيويورك تايمز “New York Times” أن نظام لافيندر ” Lavende” نظام يستخدم الذكاء الاصطناعي لتصنيف الأفراد من خلال تحليل كمّيات هائلة من البيانات: صور، مكالمات هاتفية، نشاط على الإنترنت ووسائل التواصل الاجتماعي، إضافة إلى أنماط سلوك رقمية، ثم يقوم بتحديد “أهداف محتملة” حيث يقوم بتصنيف الشخص على انه من العناصر المسلحه وله ارتباط بالفصائل المسلحه وبالتالي يكون هدف محتمل، يتميز هذا النظام بالسرعة الفائقة حيث أنتج – بحسب بعض التقارير – قوائم بعشرات الآلاف من الأسماء خلال فترة قصيرة جدًا، وهو ما يتجاوز بكثير قدرة أي فريق بشري من المحللين.

لكن هنا يبرز سؤال جوهري: ماذا عن الأخطاء؟ خاصة ان هذه الأنظمة قيد التطوير ولم تصل إلى النضج الكامل، فكل خوارزمية في العالم – مهما بلغت دقتها – لها نسبة خطأ، وهنا نسبة الخطأ تكون بقتل مدني بريئ قد يُدرج خطأً كهدف عسكري ربما فقط لانه تحدث مكالمة ذكر فيها كلمات عسكرية او تداول مواقع وصور لاماكن عسكرية او غيرها من الانماط التي يصنفها النظام بانها سلوك لمسلح، القانون الدولي الإنساني يشترط التمييز الصارم بين المدنيين والمقاتلين، والتناسب في استخدام القوة، فإذا تحولت الخوارزمية مع نسبة الخطأ إلى صاحب القرار الأساسي من يعيش ومن يموت هنا يحدث تضاربًا خطيرًا مع هذه المبادئ.

الجيش الإسرائيلي حاول طمأنة الرأي العام بالقول إن هذه الأنظمة مجرد “أدوات دعم قرار”، وأنه ما زال هناك “الإنسان في الحلقة” أو ما يُعرف بمبدأ “Human in the Loop”، أي أن الضابط البشري يظل صاحب القرار النهائي، غير أن منظمات حقوقية اعتبرت أن ما يحدث على أرض الواقع يكشف عن اعتماد شبه كامل على الخوارزميات، بينما المراجعة البشرية تتحول في الغالب إلى مجرد ختم مطاطي يضفي الشرعية الشكلية على قرارات الذكاء الاصطناعي دون مراجعة فعلية عميقة.

أما نظام جوسبيل “Gospel” فقد ركّز – وفق التقارير – على الأهداف المادية والبنى التحتية بدل الأفراد، يتم تغذيته ببيانات متعددة المصادر مثل صور الأقمار الصناعية، تسجيلات الطائرات المسيّرة، إشارات الاتصالات، بعد ذلك يقترح النظام أهدافًا مثل: مبنى يُعتقد أنه مركز قيادة، مخزن ذخيرة، موقع لإطلاق الصواريخ، أو نفق تحت الأرض، بعض المصادر أشارت إلى أن هذا النظام كان يُنتج ما يقارب مئة هدف يوميًا، السؤال هنا أيضًا: هل يستطيع الإنسان أن يراجع بهذا المعدل المرتفع جميع الأهداف بشكل عميق وضمن وقت قصير؟ أم أن دور الإنسان ينحصر في المصادقة الشكلية على ما تقترحه الآلة، أي أن وجوده يصبح أقرب إلى “ختم مطاطي” أكثر منه رقيبا فعليًا؟ وماذا اذا كان بجانب هذا الهدف مستشفى او مدرسة مدنية؟

الجدل الكبير حول لافيندر وجوسبيل يعكس قضية مستقبلية أوسع بكثير: هل يمكن أن يُترك مصير البشر لقرارات آلية؟ في هذه الحالة يصبح الإنسان مجرد “بيانات” في قاعدة معلومات، ويغدو دور الخوارزمية أقرب إلى “قاضٍ عسكري” يقرر من يعيش ومن يموت، وهنا تأتي أهمية مبدأ الأنسان في الحلقة “Human in the Loop”، أي ضمان بقاء الإنسان في دائرة القرار، ليس كشاهد صامت أو موظف يضغط زرًا فقط، بل كصاحب مراجعة نقدية مسؤولة توازن بين التقنية والقانون والأخلاق.

إن خطورة هذه الأنظمة أنها قد تغيّر طبيعة الحرب جذريًا، فبدل أن يكون القرار العسكري مبنيًا على تقدير إنساني مركّب يأخذ بعين الاعتبار القوانين والأعراف، يصبح القرار معتمدًا على خوارزميات قد لا تفهم معنى “المدني” و”المقاتل”، أو قيمة الحياة الإنسانية، ولهذا يرى خبراء القانون الدولي أن العالم بحاجة عاجلة إلى وضع أطر تشريعية وأخلاقية صارمة تنظّم استخدام الذكاء الاصطناعي في الحروب، وتمنع تحوّله إلى مجرد “آلة قتل” مغطاة بختم مطاطي من مراجعة بشرية شكلية.
إن لافيندر وجوسبيل لم يعودا مجرد أنظمة تقنية، بل تحولا إلى رمزين عالميين لمخاوف البشرية من مستقبل قد تتحول فيه الحروب إلى عمليات آلية، تُدار فيها الحياة والموت بقرارات تصدر من خوارزميات لا تُدرك معنى الإنسانية.

قد يعجبك ايضا