تصفّح بدون إعلانات واقرأ المقالات الحصرية
|
Advertisement

متفرقات

"تشات جي بي تي" يفشل في الإجابة عن هذه الأسئلة

Lebanon 24
06-12-2023 | 09:51
A-
A+
Doc-P-1138225-638374794428174682.jpg
Doc-P-1138225-638374794428174682.jpg photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
facebook
facebook
facebook
telegram
Messenger
Messenger
كشفت دراسة جديدة، عن أن أداة الذكاء الاصطناعي الشهيرة "تشات جي بي تي" (ChatGPT) فشلت في الإجابة بشكل صحيح عن ما يقرب من 75 في المائة من الأسئلة المتعلقة باستخدام العقاقير الطبية.
وبحسب شبكة "سي إن بي سي" الأميركية، فقد طرح الصيادلة في جامعة لونغ آيلاند الأميركية 39 سؤالاً متعلقاً بالأدوية على "تشات جي بي تي" ليجدوا أن 10 من إجاباته فقط يمكن عدّها مُرضِية.
أما بالنسبة للـ29 سؤالاً الأخرى، فإن الإجابات كانت إما غير دقيقة أو غير كاملة، وفقاً للدراسة.
وقالت سارة غروسمان، الأستاذة المساعدة في الصيدلة في جامعة لونغ آيلاند، والتي قادت فريق الدراسة: "يجب على المتخصصين في الرعاية الصحية والمرضى توخي الحذر بشأن استخدام (تشات جي بي تي) كمصدر موثوق للمعلومات المتعلقة بالأدوية".
وتعليقاً على ذلك، أشار متحدث باسم شركة الذكاء الاصطناعي الأميركية "أوبن أيه آي"، المطورة لـ"تشات جي بي تي"، إلى أن الأداة لم يتم ضبطها بدقة لتوفير المعلومات الطبية.
وأكد المتحدث على ضرورة عدم اعتماد المستخدمين على هذه الأداة كبديل للمشورة الطبية المتخصصة أو الرعاية التقليدية.




Advertisement
المصدر: أ.ف.ب - الشرق الأوسط - رويترز
مواضيع ذات صلة
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

إشترك