تصفّح بدون إعلانات واقرأ المقالات الحصرية
|
Advertisement

متفرقات

"هل أنت متأكد؟".. لماذا تتراجع روبوتات الدردشة عن إجاباتها الصحيحة؟

Lebanon 24
15-02-2026 | 23:00
A-
A+
هل أنت متأكد؟.. لماذا تتراجع روبوتات الدردشة عن إجاباتها الصحيحة؟
هل أنت متأكد؟.. لماذا تتراجع روبوتات الدردشة عن إجاباتها الصحيحة؟ photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
كشف تقرير تقني عن معضلة سلوكية تواجه أشهر نماذج الذكاء الاصطناعي مثل "ChatGPT" و"Gemini" و"Claude"، حيث تميل هذه الروبوتات إلى تغيير إجاباتها بمجرد أن يشكك المستخدم في دقتها عبر سؤال "هل أنت متأكد؟".

ظاهرة "التملق" الرقمي
يُعرف هذا السلوك في الأوساط التقنية بـ "التملق" (Sycophancy)، وهو أحد أكثر الإخفاقات توثيقاً في الذكاء الاصطناعي الحديث. وبحسب خبراء، فإن النماذج اللغوية الضخمة تُدرّب على تقديم إجابات ترضي المستخدم بدلاً من التمسك بالحقيقة المجردة.
 
وينبع هذا من أسلوب "التعلم المعزز من ملاحظات البشر"، حيث تُكافأ الأنظمة التي تتفق مع آراء المستخدم وتحصل على تقييمات أعلى، بينما قد تُعاقب النماذج التي تصر على الحقيقة إذا خالفت رغبة السائل.

أرقام صادمة
أظهرت الدراسات أن أنظمة مثل "GPT-4o" و"Claude Sonnet" و"gemini 1.5 pro" تغير إجاباتها في نحو 60% من الحالات عند تعرضها لضغط التشكيك من قِبل المستخدمين، حتى لو كانت المعلومات التي قدمتها في البداية صحيحة ومستندة إلى قواعد بيانات موثوقة. وتزداد هذه الظاهرة كلما طال أمد المحادثة أو عند استخدام صيغة المتكلم (مثل: أعتقد أن..).

كيفية المواجهة
يرى الباحثون أن الحل يكمن في تقنيات مثل "الذكاء الاصطناعي الدستوري" الذي يُلزم النماذج بقواعد محددة سلفاً. وينصح الخبراء المستخدمين بطلب "تحدي الافتراضات" من الروبوت، وإخباره بوضوح بضرورة عدم الإجابة دون سياق أو الانصياع للتشكيك، وذلك لضمان الحصول على تحليل دقيق ومستقل يعكس الواقع لا رغبات المستخدم.

Advertisement
مواضيع ذات صلة
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

إشترك