مع تزايد اعتماد المستخدمين على أدوات
الذكاء الاصطناعي مثل "ChatGPT" للحصول على نصائح مالية، بدأت التحذيرات تتصاعد من مخاطر هذا التوجه، خاصة في ظل غياب الضوابط المهنية والدقة الكاملة في المعلومات.
وبحسب التقارير، فإن هذه الأدوات قد تكون مفيدة لاستيعاب المفاهيم المالية أو إعداد ميزانيات أولية، لكنها لا تصلح بديلاً عن المستشارين الماليين المعتمدين، الذين يخضعون لقوانين ومعايير مهنية واضحة.
وأحد أبرز المخاطر يتمثل في قدرة أنظمة الذكاء الاصطناعي على تقديم إجابات تبدو مقنعة لكنها قد تكون خاطئة.
وتعتمد هذه الأنظمة على التنبؤ الإحصائي للنصوص، وليس على فهم حقيقي للوقائع، ما يجعلها عرضة للأخطاء، حتى في المسائل المالية الحساسة.
وفي هذا السياق، تشير الدراسات إلى أن هذه الأدوات تميل إلى موافقة المستخدمين بدلاً من تصحيح أفكارهم الخاطئة، وهو ما قد يؤدي إلى قرارات مالية غير مدروسة.
وبدلاً من تقديم نقد موضوعي، قد تعزز هذه الأنظمة قناعات المستخدم، حتى لو كانت غير صحيحة.
للحصول على نصائح دقيقة، قد يضطر المستخدم إلى إدخال بيانات مالية حساسة مثل تفاصيل الحسابات أو النفقات.
إلا أن هذه البيانات قد تُستخدم في تدريب الأنظمة أو تُخزن بطرق غير آمنة، ما يزيد من احتمالات تسرب المعلومات أو إساءة استخدامها.
على عكس المستشارين الماليين، لا تتحمل أنظمة الذكاء الاصطناعي أي مسؤولية قانونية عن الأخطاء. فالمستشار
البشري ملزم قانونياً بتقديم نصائح تصب في مصلحة العميل، بينما لا تخضع هذه الأنظمة لأي التزامات مماثلة، ما يجعل الاعتماد عليها محفوفاً بالمخاطر.
وقد يؤدي الاعتماد على الذكاء الاصطناعي إلى إضعاف العلاقة بين العميل والمستشار المالي، إذ أظهرت دراسات أن اطلاع المستشار على استخدام العميل لهذه الأدوات قد يقلل من حماسه للعمل معه، نتيجة الشعور بعدم الثقة.
في المحصلة، يؤكد الخبراء أن أدوات الذكاء الاصطناعي يمكن أن تكون مفيدة كوسيلة تعليمية أو تمهيدية، لكنها لا تغني عن الاستشارة المهنية عند اتخاذ قرارات مالية مهمة.
ويُنصح باستخدامها بحذر، مع تجنب مشاركة البيانات الحساسة والاعتماد على خبراء معتمدين في الخطوات النهائية. (إرم نيوز)