Advertisement

متفرقات

احتيال جديد بالذكاء الاصطناعي: فيديوهات خطف مزيفة تهدد العائلات

Lebanon 24
09-12-2025 | 11:39
A-
A+
Doc-P-1452850-639009023755598300.webp
Doc-P-1452850-639009023755598300.webp photos 0
facebook
facebook
facebook
telegram
Messenger
Messenger
A+
A-
facebook
facebook
facebook
telegram
Messenger
Messenger
حذّر مكتب التحقيقات الفيدرالي الأميركي (FBI) من تصاعد أساليب احتيال جديدة تعتمد على الذكاء الاصطناعي التوليدي لإنتاج مقاطع فيديو مزيفة تُظهر أشخاصاً وكأنهم مختطفون، بهدف ابتزاز عائلاتهم ودفعها لتحويل فدية خلال وقت قصير.
Advertisement

وأوضح المكتب أنّ المحتالين يجمعون صوراً ومقاطع منشورة على مواقع التواصل، ويستخدمونها لإنتاج فيديوهات "ديب فيك" تحاكي مشاهد اختطاف، ثم يرسلونها إلى العائلات على أنها دليل على الاحتجاز. كما يستغلون خاصية الرسائل المؤقتة لمنع التحقق السريع من صحة المقاطع.

وأشار الـ FBI إلى مؤشرات قد تكشف التلاعب، أبرزها تشوّهات في ملامح الوجه أو حركة الجسد، اختفاء تفاصيل شخصية معروفة، ومشاهد غير متناسقة أو إضاءة غريبة.

ونصح بعدم تحويل أي أموال قبل التحقق من الادعاء، والتواصل المباشر مع الشخص المزعوم اختطافه أو مع جهات قادرة على التأكد من سلامته.

كما دعا إلى الحد من نشر الصور والمعلومات العائلية، تقييد الخصوصية، الحذر عند مشاركة مواقع السفر، وعدم الاستجابة لأي طلب فدية قبل التحقق الكامل.

وختم بالتأكيد أن توظيف الذكاء الاصطناعي في الاحتيال يمثّل مرحلة جديدة من الابتزاز الإلكتروني تتطلب وعياً رقمياً ويقظة أعلى.

مواضيع ذات صلة
تابع
Advertisement

أخبارنا عبر بريدك الالكتروني

إشترك