- يجد تقرير TrendAI أن 67% من الشركات تتعرض لضغوط لنشر GenAI على الرغم من المخاوف الأمنية
- تشمل المخاطر الرئيسية الكشف عن البيانات الحساسة، والمطالبات الضارة، وسطح الهجوم الموسع، وإساءة استخدام التعليمات البرمجية المستقلة
- فجوات الحوكمة: 38% فقط لديهم سياسات للذكاء الاصطناعي، و57% يقولون إن الذكاء الاصطناعي يتطور بشكل أسرع مما يمكن تأمينه، ويفتقر الكثيرون إلى الرؤية أو يوقفون آليات التبديل
تسارع الشركات إلى دمج الذكاء الاصطناعي التوليدي (GenAI) في عملياتها وعملياتها، على الرغم من معرفتها بالمخاطر التي تعرض نفسها لها – ومما يزيد الطين بلة أن الكثيرين غير متأكدين من كيفية المضي قدمًا وتقليل المخاطر، مما يزيد من تفاقم المشكلة.
استطلع تقرير جديد صادر عن TrendAI آراء 3,700 من صناع القرار في مجال الأعمال وتكنولوجيا المعلومات في 23 دولة، ووجد أن الأغلبية (67%) تعرضت لضغوط للموافقة على تكامل الذكاء الاصطناعي على الرغم من المخاوف الأمنية.
ووصف واحد من كل سبعة (حوالي 15%) هذه المخاوف بأنها “متطرفة”، لكنه وافق على النشر.
يستمر المقال أدناه
ليس لقلة الوعي
وحدد التقرير العديد من المخاطر المرتبطة بأدوات الذكاء الاصطناعي والتي تجعل أصحاب الأعمال مستيقظين في الليل. بالنسبة لاثنين من كل خمسة، يتمثل الخطر الأكبر في وصول عملاء الذكاء الاصطناعي إلى البيانات الحساسة، في حين يشعر الثلث (36%) بالقلق من المطالبات الضارة التي تهدد الأمن.
وكلاء الذكاء الاصطناعي عبارة عن برامج تسمح للذكاء الاصطناعي بتشغيل التطبيقات، أو حتى أجهزة الكمبيوتر بأكملها. على سبيل المثال، يمكن أن تؤدي المطالبات الضارة، التي تتم مشاركتها عبر رسائل البريد الإلكتروني التصيدية، إلى قيام عملاء الذكاء الاصطناعي بإرسال بيانات حساسة إلى مجموعات القرصنة، أو تغيير إعدادات التطبيق، أو حتى تنزيل البرامج الضارة.
بالنسبة لثلث المشاركين (33%)، فإن الذكاء الاصطناعي يخلق مساحة هجوم متنامية يمكن للمجرمين استغلالها. وتخشى نفس النسبة أيضًا من إساءة استخدام حالة الذكاء الاصطناعي الموثوق والمخاطر المرتبطة بنشر التعليمات البرمجية بشكل مستقل.
تقول راشيل جين، الرئيس التنفيذي لشؤون المنصات والأعمال، رئيس TrendAI: “لا تفتقر المؤسسات إلى الوعي بالمخاطر، بل تفتقر إلى الظروف اللازمة لإدارتها. عندما يكون النشر مدفوعًا بالضغط التنافسي بدلاً من نضج الحوكمة، فإنك تخلق موقفًا يتم فيه دمج الذكاء الاصطناعي في الأنظمة الحيوية دون الضوابط اللازمة لإدارته بأمان”.
إن تحقيق الإدارة والحوكمة أصعب مما يبدو، على الأقل مع الذكاء الاصطناعي. بالنسبة لأكثر من النصف (57%)، يتقدم الذكاء الاصطناعي بشكل أسرع مما يمكن تأمينه. وهذا يعني أنه بمجرد إنشاء النظام، تظهر مخاطر محتملة جديدة، مما يجبر المدافعين على إعادة تقييم موقفهم. علاوة على ذلك، أفاد 55% عن ثقة معتدلة فقط في فهمهم للأطر القانونية للذكاء الاصطناعي، وثلثهم فقط (38%) لديهم حاليًا سياسات شاملة للذكاء الاصطناعي.
التنظيم والامتثال
وأخيرًا، بالنسبة لاثنين من كل خمسة (41%)، يُنظر إلى معايير التنظيم والامتثال غير الواضحة على أنها عائق أمام التقدم. تخلق طريقة التفكير هذه شيئًا من الفخ للمؤسسات، حيث ينتهي بهم الأمر إلى استخدام “الذكاء الاصطناعي الظلي” – وهي أدوات غير مصرح بها لا يملك المدافعون عنها رؤية ثاقبة. وبهذه الطريقة، لا يعرفون ما الذي سيتم مشاركته، أو البيانات التي سيتم إرسالها في النهاية إلى الأثير.
لكي تتمكن الشركات من القول بأنها قامت بدمج الذكاء الاصطناعي بأمان في سير عملها، تحتاج الشركات إلى شيئين، كما يقترح الباحثون: إمكانية المراقبة والتدقيق، وآلية “مفتاح الإيقاف”. في الوقت الحالي، قال ما يقرب من ثلث المشاركين (31٪) إنهم يفتقرون إلى الرؤية حول أنظمة الذكاء الاصطناعي الخاصة بهم بالكامل.
عندما يتعلق الأمر بإيقاف آليات التبديل، فإن حوالي 40% يؤيدون الفكرة، لكن النصف (50%) غير متأكدين من كيفية تنفيذها.
على الرغم من التحديات والمخاطر التنظيمية والحوكمة، يظل الرأي حول الذكاء الاصطناعي إيجابيًا. في الواقع، يعتقد ما يقرب من النصف (44%) أن الذكاء الاصطناعي الوكيل سوف “يحسن بشكل كبير” الدفاع السيبراني على المدى القصير.
وأضاف جين: “إن الذكاء الاصطناعي الوكيل ينقل المؤسسات إلى فئة مخاطر جديدة”. “يظهر بحثنا أن المخاوف واضحة بالفعل، بدءًا من التعرض للبيانات الحساسة وحتى فقدان الرقابة. ومن دون الرؤية والتحكم، تنشر المؤسسات أنظمة لا تفهمها أو تحكمها بشكل كامل، وسوف تتزايد هذه المخاطر ما لم يتم اتخاذ إجراء”.

أفضل برامج مكافحة الفيروسات لجميع الميزانيات
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات