التخطي إلى المحتوى


  • تعمل تقنية Deepfakes على خداع المستخدمين بشكل متزايد للاحتيال والاحتيال
  • أصبحت الهجمات المعتمدة على الذكاء الاصطناعي مسؤولة الآن عن 16% من الانتهاكات
  • يتطلب اكتشاف المنتجات المزيفة مراقبة مواطن الخلل في الوجه/الصوت وطلبات الأموال العاجلة

لقد تحسنت تقنية Deepfakes، وهي التكنولوجيا التي تستخدم الذكاء الاصطناعي لتجميع الصوت والفيديو والصور الواقعية لأشخاص حقيقيين، إلى درجة أنه حتى الأشخاص اليقظين يمكن خداعهم بسهولة نسبية.

ومن خلال إنشاء وسائط متعددة تظهر المشاهير أو السياسيين أو قادة التكنولوجيا، أو يقولون أشياء لم يقولوها، أو يفعلون أشياء لم يفعلوها قط، تمكن المحتالون عبر الإنترنت من إقناع الأشخاص بالموافقة على التحويلات الاحتيالية، أو إقناع الأبرياء “بالاستثمار” في مشاريع وهمية على منصات استثمار وهمية. وفي بعض الحالات، تمكنوا حتى من خلق حالة طوارئ وهمية (مثل حادث سيارة، أو محاولة اختطاف)، مما جعل أفراد الأسرة يندفعون إلى سداد المدفوعات.



Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *