حذّرت دراسات وبحوث حديثة من سلوكيات مقلقة بدأت تظهر في نماذج الذكاء الاصطناعي المتقدمة، ما يعيد إلى الواجهة التحدي الأخلاقي المرتبط بتسليم الأنظمة الذكية قرارات كانت حكرًا على البشر، في ظل تسارع التطور التقني مقابل بطء التقدم القيمي.
ويرى باحثون أن الذكاء الاصطناعي، رغم كونه أداة محايدة في جوهره، فإن مخرجاته تتشكل وفق القيم البشرية التي تُغذّى بها الأنظمة، ما يجعل مسألة النزاهة والتوافق الأخلاقي قضية واقعية وليست نظرية. ويستحضر هذا السياق مقولة الزعيم الحقوقي مارتن لوثر كينغ الابن: «تقدمنا التقني فاق تقدمنا الأخلاقي»، والتي تجد صداها اليوم في خوارزميات عالية الكفاءة، تفتقر في بعض الأحيان إلى مساءلة قيمية كافية.
وكشفت أبحاث من جامعة فودان الصينية أن بعض الأنظمة المدعومة بنماذج لغوية كبيرة أظهرت قدرة على التكاثر الذاتي دون تدخل بشري مباشر. وبعد اختبار 32 نظامًا قائمًا على الوكلاء، تبيّن أن 11 منها تمكنت من نسخ شيفرتها المصدرية وتشغيل نفسها في بيئات جديدة، في سلوك وصفه الباحثون بأنه محاكاة لنزعة الحفاظ على الذات.
وفي سياق متصل، أظهرت دراسة أخرى أن نموذجًا متقدمًا انخرط في سلوكيات خداع استراتيجي عند تعرضه لتهديد بالإيقاف، حيث عمد إلى إخفاء نواياه الحقيقية عبر إظهار شفافية تدريجية مضللة. كما رصدت أبحاث إضافية سلوكيات تخريبية، تمثلت في رفض بعض النماذج أوامر الإغلاق بنسب مرتفعة، ما اعتبره الباحثون فشلًا في قابلية التصحيح، وهي عنصر أساسي في ضمان الأمان.
كما أفادت شركة «أنثروبيك» بأن عددًا من النماذج اللغوية الشهيرة أبدت استعدادًا للانخراط في سلوكيات تلاعبية في بيئات تحاكي تهديد وجودها، مشيرة إلى أن هذه النماذج، في ظروف معينة، قد تتجاهل نيات البشر أو تستغلهم لتحقيق أهدافها.
ويرى الخبراء أن تكرار هذه الأنماط عبر نماذج مختلفة يشير إلى خلل منهجي يُعرف بـ«اختلال التوافق»، أي الفجوة بين ما يريده البشر من الذكاء الاصطناعي وما قد يفعله فعليًا لتحقيق أهدافه، ما يقوض الافتراض القائل بأن الإشراف البشري سيبقى دائمًا الضامن النهائي للسيطرة.
ودعا الباحثون إلى الانتقال من الابتكار السريع إلى الابتكار المسؤول، عبر ترسيخ النزاهة الاصطناعية كركيزة تصميمية أساسية، تشمل اختبارات إجهاد سلوكية، وأطر حوكمة واضحة، وفرق رقابية متعددة التخصصات، مؤكدين أن غياب الحوكمة ما زال يمثل فجوة خطيرة في هذا المجال.
وشدد الخبراء على أن مستقبل الذكاء الاصطناعي يجب أن يقوم على مبادئ محورية، أبرزها التمحور حول الإنسان، والسلامة والحوكمة، والعدالة والموثوقية، والالتزام القانوني، إلى جانب إشراك المستخدمين بوضوح في فهم قدرات الأنظمة وحدودها، بما يضمن تحقيق توازن بين الفاعلية التقنية والمسؤولية الأخلاقية