Advertisement

عربي-دولي

الخطير كبير... تحذيرات من أسلحة الذكاء الإصطناعي الجديدة

Lebanon 24
19-11-2025 | 08:00
A-
A+
Doc-P-1444089-638991585246158818.png
Doc-P-1444089-638991585246158818.png photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
facebook
facebook
facebook
telegram
Messenger
Messenger
ذكرت "العربية"، أنّ وكيل الأمين العام للأمم المتحدة والمبعوث الخاص المعني بالتكنولوجيا أمانديب جيل، قال إنّ "التطوير والاستخدام غير المنضبط للذكاء الاصطناعي قد يُؤدّي إلى ظهور أسلحة ذات درجة غير مقبولة من الاستقلالية، ودعا الحكومات إلى "الحفاظ على ميزة السيطرة البشرية على الأسلحة، وضمان مسؤولية ومساءلة العسكريين الذين يتخذون قرار اختيار الأهداف".
Advertisement

أما رئيس وحدة الذكاء الاصطناعي والأمن السيبراني في مركز العرب للأبحاث والدراسات محمد محسن رمضان، فيقول إنّ "تحذير الأمم المتحدة ليس مجرد تصريح سياسي، بل إنذار مبكر بمرحلة جديدة من سباق تسلّح يعتمد على خوارزميات قادرة على اتخاذ قرار فتاك بصورة مستقلة، والتحوّل نحو أسلحة ذاتية القرار يمثل تحدياً مركباً يجمع بين الأمن السيبراني، والتكنولوجيا العسكرية، والقانون الدولي الإنساني، واستقرار النظام الدولي".

وأضاف: "أولاً التهديد الحقيقي يكمن في طبيعة الذكاء الاصطناعي نفسه، فالذكاء الاصطناعي المستخدم في أنظمة التسليح الحديثة لا يعتمد فقط على البرمجة المباشرة، بل على شبكات عصبية تتعلم ذاتياً وخوارزميات تتخذ قرارات في بيئة غير مستقرة وأنظمة استشعار تعتمد على بيانات قد تكون قابلة للتضليل".

وأضاف أنه مع الانتقال من نماذج "الدعم البشري" إلى نماذج "الاستقلالية المتزايدة"، يظهر خطر وجود سلاح قادر على اتخاذ قرار هجومي من دون رقابة بشرية دقيقة، وهو ما قد يؤدي إلى نتائج عسكرية لا تتوافق مع النية السياسية أو قواعد الاشتباك، ثانياً المخاطر التقنية والأمنية المحتملة في الأسلحة ذاتية القرار، وقابلية الاختراق، حيث إن المنظومات القتالية الذكية تعتمد كلياً على البنية الرقمية من خوارزميات التحكم ونظم الملاحة وقواعد البيانات وشبكات الاتصال.

وقال إنّ "أي اختراق أو تلاعب بهذه المكونات قد يؤدي إلى تغيير مسار السلاح وإعادة توجيهه لقتل أهداف مدنية وتعطيل منظومة الأمان الذاتية، وتنفيذ عمليات هجومية غير مصرح بها، وبالتالي يتحول السلاح من أداة دفاعية إلى منصة هجومية لصالح الخصم".

وأوضح رمضان، أنه بالنسبة للهجمات التضليلية يمكن للخصوم خداع أنظمة الذكاء الاصطناعي عبر صور معدّلة بخوارزميات دقيقة وإشارات إلكترونية مُضلّلة وبيانات كاذبة تدخل للنظام أثناء التشغيل، وقد ثبت علمياً أن الخوارزميات يمكن أن تتخذ قرارات خاطئة بنسبة كبيرة أمام تغييرات طفيفة غير مرئية للعين البشرية، موضحاً أنه هناك ما يسمى بـ"فقدان السيطرة البشرية".
وكشف رمضان أن "السلاح الذاتي القرار يختصر دورة في اتخاذ القرار من: "رصد وتحليل وتقدير الموقف والقرار والإطلاق" إلى مجرد قرار آلي لحظي، هذا التحوّل قد يؤدي إلى تصعيد غير مقصود وضرب أهداف غير مصرح بها وفقدان القدرة على التدخل أثناء حدوث خلل تشغيلي وقرارات هجومية مخالفة للقانون الدولي الإنساني.

وأضاف: "هناك محور مهم وهو فجوة المساءلة القانونية، فعندما يُخطئ السلاح الذكي في التمييز بين مقاتل ومدني، يظل السؤال قائماً: من المسؤول، القائد العسكري أم الشركة المطورة أم المُبرمج؟ أم النظام عينه؟ وهذه الفجوة تمثل تهديداً مباشراً لمنظومة العدالة الدولية". (العربية)
مواضيع ذات صلة
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

إشترك