التخطي إلى المحتوى


  • يزعم التقرير أن عملاء الذكاء الاصطناعي يشكلون مخاطر داخلية بسبب الوصول غير الخاضع للرقابة ونقص ضوابط الرؤية
  • 66% من حوادث فقدان البيانات الكبرى تنجم عن إهمال الموظفين أو المتعاقدين الخارجيين
  • تحث Proofpoint على توفير الأمن المتكيف والمدرك للسلوك لحماية كل من النشاط البشري وأنشطة الذكاء الاصطناعي

مع اندفاع الشركات إلى نشر الذكاء الاصطناعي التوليدي (Gen AI) ووكلاء الذكاء الاصطناعي، فإنها تواجه نفس المشاكل التي تأتي مع محاولة التنفيذ السريع لأي تقنية جديدة: مخاطر تسرب البيانات، والتسريبات، والانتهاكات.

جادل تقرير Proofpointreport الجديد بأن “مساحات عمل الوكيل” هي فئة جديدة من المخاطر الداخلية، تنافس في خطورتها حتى الخطأ البشري. قالت اثنتان من كل خمس مؤسسات مشاركة إن فقدان البيانات عبر أدوات GenAI العامة أو الخاصة بالمؤسسات يعد مصدر قلق كبير، بينما قال أكثر من الثلث أنهم قلقون بشأن استخدام البيانات الحساسة في التدريب على الذكاء الاصطناعي.



Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *