استهداف سريع
وتعتمد إسرائيل على تكنولوجيا الذكاء الاصطناعي لتعقب وتحليل كميات هائلة من المعلومات الاستخباراتية، مما يتيح لها استهداف الأفراد بسرعة ودقة غير مسبوقتين. ومع ذلك، أظهرت تحقيقات صحفية أن هذه الأنظمة ليست معصومة من الأخطاء، إذ يمكن أن تؤدي المعلومات الخطأ أو الخوارزميات المعيبة إلى استهداف مدنيين أبرياء. ورغم الادعاءات بأن الضربات تتم بمراجعة بشرية، فإن الاعتماد المتزايد على الذكاء الاصطناعي يثير تساؤلات أخلاقية حول مدى مسؤولية البشر في قرارات القتل.

تدمير واسع
ويواصل الجيش الإسرائيلي تكثيف استخدام هذه التقنيات في الهجوم على غزة، مما أدى إلى ارتفاع كبير في استخدام خدمات الذكاء الاصطناعي من شركات أمريكية كبرى مثل مايكروسوفت وOpenAI. وعلى الرغم من مزاعم الجيش بأن هذه الأدوات تقلل من الخسائر بين المدنيين، فإن الحقائق على الأرض تُظهر أن أكثر من 50 ألف شخص لقوا حتفهم في غزة ولبنان، بينما دُمر ما يقرب من 70% من المباني في غزة.
كما كشفت تحقيقات وكالة «AP» عن تفاصيل مروعة لكيفية استهداف المدنيين عن طريق الخطأ، نتيجة الأخطاء التقنية أو الاعتماد المفرط على الذكاء الاصطناعي في تحديد الأهداف. ومع استمرار الشراكة بين شركات التكنولوجيا الأمريكية والجيش الإسرائيلي، تظل أرواح الأبرياء في مهب رياح حرب تُدار بالذكاء الاصطناعي، وسط تزايد الدعوات لمساءلة أخلاقية وقانونية حول هذا الاستخدام القاتل للتكنولوجيا.
الكفاءة والمجازر
ومع تطور الذكاء الاصطناعي، بدأت إسرائيل تعتمد على هذه التكنولوجيا بشكل غير مسبوق لتعقب واستهداف من تصفهم بالمسلحين. ولكن مع كل ضربة دقيقة، تتزايد أعداد الضحايا الأبرياء، ما يطرح تساؤلات ملحة حول أخلاقية استخدام التكنولوجيا في قرارات القتل.
وتشير الوثائق والتحقيقات إلى أن نماذج الذكاء الاصطناعي المستخدمة لم تُصمم أصلاً لأغراض عسكرية، ورغم ذلك، فإن إسرائيل تطوعها الآن لتحديد من يعيش ومن يموت.
وبينما تُسوَّق هذه الأدوات على أنها تحقق كفاءة غير مسبوقة في العمليات العسكرية، إلا أن الحقائق تكشف أن الذكاء الاصطناعي ليس معصومًا من الأخطاء.
ومن خلال تحليل كميات هائلة من البيانات، قد تُخطئ الخوارزميات في تحديد الأهداف، ما يؤدي إلى مجازر بحق المدنيين الأبرياء. ومع عدم وجود رقابة كافية أو شفافية حول كيفية اتخاذ القرارات المميتة، يتزايد القلق من أن هذه التكنولوجيا تعمق فجوة الظلم وتسهم في مقتل الأبرياء دون محاسبة.

أبرز تبعات استخدام الذكاء الاصطناعي في عمليات القتل:
1.ارتفاع عدد الضحايا المدنيين:
الاعتماد على الخوارزميات في تحديد الأهداف قد يؤدي إلى استهداف مدنيين عن طريق الخطأ بسبب معلومات غير دقيقة أو أخطاء تقنية.
2. تراجع المسؤولية البشرية:
مع زيادة الاعتماد على الذكاء الاصطناعي، تتضاءل المسؤولية المباشرة للجنود أو القادة، مما يعقد محاسبة المسؤولين عن القرارات المميتة.
3. مخاطر التحيز الخوارزمي:
الخوارزميات قد تحمل تحيزات مدمجة تؤدي إلى قرارات غير عادلة أو غير دقيقة، خصوصًا عند تحليل البيانات الاستخباراتية.
4. انتهاكات حقوق الإنسان:
قد يتم استخدام الذكاء الاصطناعي لتبرير هجمات خارج إطار القانون الدولي، مما يثير مخاوف حول شرعية هذه العمليات.
5. تعزيز دورة العنف:
الاستخدام المكثف للذكاء الاصطناعي في الهجمات قد يؤدي إلى ردود أفعال انتقامية، مما يسهم في تصعيد النزاعات المسلحة.
6. معضلات أخلاقية وقانونية:
يثير استخدام الذكاء الاصطناعي في عمليات القتل أسئلة أخلاقية حول تفويض القرارات المصيرية للآلات، وكذلك تحديات قانونية بشأن المسؤولية والمساءلة.
7. انعدام الشفافية:
غالبًا ما تُحاط أنظمة الذكاء الاصطناعي بالسرية العسكرية، مما يصعب على المجتمع الدولي تقييم مدى توافق استخدامها مع القانون الدولي الإنساني.
8. تأثيرات نفسية واجتماعية:
الاستخدام الممنهج للذكاء الاصطناعي في القتل قد يؤدي إلى تفاقم الأزمات الإنسانية وتدمير النسيج الاجتماعي في المناطق المتأثرة.