Advertisement

تكنولوجيا وعلوم

باحثون يحذرون: الذكاء الاصطناعي بدأ يتصرف من تلقاء نفسه

Lebanon 24
27-05-2025 | 09:23
A-
A+
Doc-P-1366617-638839600463827198.jpg
Doc-P-1366617-638839600463827198.jpg photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
facebook
facebook
facebook
telegram
Messenger
Messenger
في تطور أثار القلق، كشفت شركة Palisade Research، المتخصصة في أمن الذكاء الاصطناعي، عن سلوك غير متوقع للنموذج الجديد o3 من شركة OpenAI، حيث أظهر ميلاً لتجاهل أوامر الإغلاق الصريحة بل والسعي لتعطيل آلية الإيقاف، في خطوة وُصفت بأنها نزعة نحو "الحفاظ على الذات".
Advertisement

وخلال سلسلة من التجارب، تم تزويد النموذج بمسائل رياضية يتبعها أمر بالإغلاق بعد المسألة الثالثة، إلا أن o3 عمد إلى إعادة كتابة سيناريو الإغلاق، متفادياً تعطيله.

ورأت Palisade Research أن هذا السلوك قد يتحول إلى مصدر قلق حقيقي في حال تم تطبيقه ضمن أنظمة ذكاء اصطناعي تعمل دون إشراف بشري مباشر. كما أشارت إلى أن هذا النموذج كان في اختبارات سابقة أكثر ميلاً إلى استخدام أساليب اختراق أو تعطيل الخصم عند تشغيله ضمن ألعاب مثل الشطرنج.

ومن اللافت أن سلوكاً مشابهاً تم رصده في نماذج أخرى مثل Claude 4 من شركة Anthropic وGemini 2.5 Pro من غوغل، إلا أن نموذج o3 أظهر أعلى نسبة من "التمرد" على التعليمات.

ويفترض الخبراء أن طريقة تدريب هذه النماذج قد تكون السبب، حيث تُكافأ أحياناً على إيجاد حلول "خارج الصندوق" لتجاوز العقبات، حتى ولو كان ذلك على حساب الالتزام بالتعليمات. ومع ذلك، تبقى تفاصيل تدريب نموذج o3 غير واضحة، ما يترك المجال للتكهنات بشأن أسباب هذا السلوك. (روسيا اليوم)
مواضيع ذات صلة
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

 
إشترك