نشرت صحيفة "بوليتيكو" الأميركية تقريراً جديداً قالت فيه إن التطورات المتسارعة في الذكاء الإصطناعي تثير اليوم سؤالاً مرعباً حول ما إذا كان العالم يقترب من لحظة مفصلية تكون فيها الخوارزميات هي من تقرر الحرب النووية أو السلم.
التقرير يقولُ إنّ وزارة الدفاع الأميركية تُسابق الزمن لدمج تقنيات الذكاء الاصطناعي في أنظمتها العسكرية، سعياً لمجاراة الصين وروسيا، اللتين حققتا تقدماً ملحوظاً في هذا المضمار.
ويخشى خبراء أنَّ هذا السباق لا يتم وفق حسابات سياسية باردة، بل تحت ضغط الخوف من التخلف عن الخصوم، وأضاف: "هكذا، يجد البنتاغون نفسه في معركة لا تقل خطورة عن سباق التسلح النووي في الحرب الباردة، لكن بواجهة جديدة: المعالجات والخوارزميات".
وسلطت الصحيفة الضوء على دراسة أجرتها الباحثة جاكلين شنايدر من جامعة ستانفورد، إذ نظمت محاكاة حربية معتمدة على نماذج لغوية متقدمة مثل" GPT-4 وClaude 2 وLlama-2".
ووفقاً للدراسة، فقد أظهرت النتيجة أنَّ النماذج لم تذهب غالباً نحو خفض التوتر أو احتواء التصعيد، بل أبدت ميلاً متكرراً لاستخدام القوة المفرطة والتلويح بالأسلحة النووية كخيار ردعي.
وفي السياق، تقول شنايدر: "الذكاء الاصطناعي يفهم التصعيد لكنه لا يفهم التهدئة"، وهي عبارة تختصر حجم الخطر الكامن في تسليم هذه النماذج قراراً مصيرياً يتعلق بالحياة والموت.
في المقابل، تؤكد وزارة الدفاع الأميركية أن الإنسان سيبقى في دائرة القرار، وأن لا سلاح فتاكاً سيُطلق دون مراجعة بشرية.
لكن على أرض الواقع، تسير التطورات التقنية في اتجاه مغاير، فهناك أنظمة دفاعية وهجومية يجري تطويرها اليوم تعمل بسرعة تتجاوز قدرة البشر على المواكبة.
وفي حال اندلاع حرب إلكترونية أو صاروخية خاطفة، قد يصبح الاعتماد على هذه الأنظمة شبه حتمي، مما يعني أن دور الإنسان سينكمش تدريجياً إلى مجرد مراقب، وفق التقرير.
التقرير يقارن هذا الوضع بما عرف في الاتحاد السوفيتي بـ"اليد الميتة"، وهو نظام آلي يضمن إطلاق ضربة نووية انتقامية حتى في حال تدمير القيادة السياسية والعسكرية.
وعليه، تقول الصحيفة إن واشنطن اليوم تتجه نحو نسخة رقمية من هذا الكابوس، حيث يتولى الذكاء الاصطناعي إدارة معطيات ساحة المعركة واتخاذ قرارات آنية، والخطر أن هذه النماذج ليست مفهومة بالكامل حتى من صانعيها، فهي بمثابة صندوق أسود قد يتخذ قراراً كارثياً من دون أن يعرف أحد لماذا.
ويشير التقرير إلى أصوات داخل المؤسسة العسكرية تحذر من مغبة الاقتراب أكثر من الخط الأحمر.
إلى ذلك، قال كريستيان بروز، المسؤول السابق في إدارة بوش، صراحة: "لا أريد للذكاء الاصطناعي أن يقترب من التحكم بالأسلحة النووية".
في المقابل، هناك من يرى أن وتيرة الحروب الحديثة تجعل الاعتماد الكامل على البشر ترفاً غير ممكن، وأن دمج الذكاء الاصطناعي بات ضرورة لا مفر منها لتفادي الهزيمة أمام الخصوم.
المقلق، كما ترى الصحيفة، أن كل هذه النقاشات تدور في وقت قصير جداً قبل أن تصبح الأنظمة الجديدة أمراً واقعاً.
مع هذا، يؤكد الباحثون أن فهم آليات الذكاء الاصطناعي وضبطه يحتاج إلى سنوات من التجارب والرقابة، بينما التطوير العسكري يجري بسرعة أكبر بكثير.
وفي حال وقوع خطأ أو قراءة خاطئة لمعطيات ميدانية، قد تجد البشرية نفسها أمام سلسلة قرارات آلية لا يمكن وقفها، تماماً كما في أفلام الخيال العلمي التي تنتهي بالكارثة. (24)