
إن النماذج الأمنية التي كانت فعالة قبل بضع سنوات تتعرض الآن لضغوط هائلة بسبب السرعة التي تتغير بها المؤسسات. ومع انتقالنا إلى عام 2026، تتعامل العديد من الفرق مع مشهد مخاطر أكبر وأكثر تعقيدًا.
ويرجع ذلك إلى حد كبير إلى الاعتماد السريع على الذكاء الاصطناعي (AI)، وزيادة الأتمتة، والتحول المستمر إلى المنصات السحابية والتعاونية.
مستشار CISO الرئيسي لـ KnowBe4.
هذه التحديات الأساسية ليست جديدة. لا تزال تظهر مشكلات مثل ملكية الأمان غير المتسقة، والضوابط غير المتساوية عبر الأنظمة، والأمن الذي يتم تثبيته في وقت متأخر من دورة التسليم، ولكن الآن تميل إلى الظهور بشكل أسرع، وتنتشر بشكل أكبر، وتحمل تأثيرًا أكبر.
“نقطة انعطاف الذكاء الاصطناعي”
ومع اعتماد المؤسسات للذكاء الاصطناعي على نطاق واسع، يصبح من الواضح أن هذه ليست مجرد فئة تهديد أخرى. يمثل الذكاء الاصطناعي نقطة انعطاف أساسية في إدارة المخاطر.
إنه يقدم خطرًا مزدوجًا. داخليًا، قد يقوم الموظفون بمشاركة البيانات الحساسة في أدوات الذكاء الاصطناعي دون الفهم الكامل لكيفية تخزين تلك المعلومات أو حمايتها. خارجيًا، يستخدم مجرمو الإنترنت الذكاء الاصطناعي لإنشاء صور مزيفة وانتحال شخصية أفراد موثوق بهم وتوسيع نطاق الهجمات بسرعة ودقة غير مسبوقة.
على الرغم من أن جميع المؤسسات تقريبًا أبلغت عن اتخاذ خطوات لمعالجة مخاطر الذكاء الاصطناعي، إلا أن العديد من الموظفين يشعرون أن الوصول إلى الأدوات المعتمدة بطيء للغاية أو مقيد بشكل مفرط أو محكوم بشكل غير متسق. وفي الوقت نفسه، أصبح الاستخدام غير المعتمد، أو الذكاء الاصطناعي الظلي، شائعًا بشكل متزايد
ربما يستخدم الموظفون بالفعل حسابات شخصية تحتوي على نماذج لغوية كبيرة تقع تمامًا خارج نطاق الإشراف التنظيمي، مما يؤدي إلى إنشاء ناقلات مخاطر غير مرئية بشكل فعال. نفس السلوكيات التي تجعل الموظفين منتجين باستخدام الذكاء الاصطناعي يمكن أن تصبح مسؤوليات بسرعة دون وجود حواجز حماية في الوقت الفعلي.
هذا هو المكان الذي يتم فيه وضع الضغط الأكبر على النماذج الأمنية لمواكبة ذلك.
“خطر جديد”
تاريخيًا، تعاملت المؤسسات مع المخاطر الأمنية المتعلقة بالأشخاص بشكل أساسي من خلال التدريب على التوعية وتعليم الموظفين كيفية التعرف على التهديدات وتجنب الأخطاء.
ويعد هذا النهج بالغ الأهمية حيث أظهرت الأبحاث زيادة بنسبة 90% في الحوادث السيبرانية الناجمة عن العنصر البشري؛ ومع ذلك، فإن هذا النهج لم يعد كافيا في حد ذاته.
عندما تكون المخاطر موجودة بكل معنى الكلمة في كل مكان يعمل فيه الموظفون ويتواصلون، فإن الدفاعات التي تركز على المحيط ودورات التدريب السنوية تكون غير كافية من الناحية الهيكلية. وذلك لأن مكان العمل اليوم لم يعد يتألف من الأشخاص فقط.
يتم دمج وكلاء الذكاء الاصطناعي بشكل متزايد في مسارات العمل المهمة، ويعملون جنبًا إلى جنب مع الموظفين ويتفاعلون مع البيانات الحساسة. على الرغم من بقاء نواقل الهجوم البشري البحتة، فإن المؤسسات لا تطبق نفس المستوى من التدريب على المخاطر السلوكية لعملاء الذكاء الاصطناعي كما تفعل مع القوى العاملة لديها.
النتيجة؟ نوع جديد وغير مُدار إلى حد كبير من المخاطر.
وتحت هذا التعرض المتزايد يكمن انفصال أعمق بين المنظمات وموظفيها. ما يقرب من نصف الموظفين لا يعتقدون أن البيانات التي يتعاملون معها تنتمي إلى المنظمة. وتؤدي الملكية الغامضة إلى وضع قواعد شخصية حول مشاركة البيانات وتخزينها واستخدام الذكاء الاصطناعي.
إن تحديد هذه الفجوة في الفهم يجعل أمراً واحداً واضحاً: الثقافة والحوافز والأدوات تشكل السلوك بشكل أكثر فعالية بكثير من وثائق السياسة وحدها. إن المخاطر البشرية لا تتعلق بالقواعد بقدر ما تتعلق بالوضوح.
عندما تعلم طفلاً عبور الطريق بأمان، فإنك تعلمه كل شيء عن الإشارات الخضراء والحمراء، مما يوفر له إطارًا ووضوحًا حول كيفية عبور أي طريق يقترب منه في أي وقت في حياته.
في حين أن تدريب البشر ينطوي على التدريب والقيادة، فإن نماذج الذكاء الاصطناعي الفاعل التي تم تنفيذها حديثًا يجب أن تبني أساليب جديدة. إن تحقيق هذا الأمر بشكل صحيح تحت مظلة واحدة سيشكل تحديًا للعديد من المنظمات قبل عام 2026، ولكن مجرد صعوبة شيء ما، فهذا لا يعني أنه لا ينبغي القيام به.
الحساب
وجدت دراسة جديدة أن 44% من المؤسسات على مستوى العالم قامت بتأديب الموظفين الذين وقعوا ضحية لهجمات التصيد الاحتيالي. من المحتمل أن يؤدي هذا النهج العقابي السائد تجاه الأمن إلى تقويض النتائج بشكل أكبر، حيث إن وجهات نظر القيادة والموظفين غير متوافقة بشكل حاد.
يميل القادة إلى تفضيل الانضباط والعواقب الرسمية، في حين يفضل الموظفون بأغلبية ساحقة الدعم والتدريب والتوجيه المستهدف. إن الاستراتيجيات شديدة العقاب تلحق الضرر بالثقة وتضعف القدرة على الصمود على المدى الطويل. عندما يهيمن الخوف، ينخفض الإبلاغ عن الحوادث، وتتآكل الثقة، وتصاب فرق الأمن بالإرهاق.
لا يمكن للمنظمات أن تعاقب طريقها نحو سلوك أمني أفضل. إن الآليات التي تعمل على تقليل المخاطر قبل حدوث الأخطاء، بدلا من التفاعل بعد وقوعها، تعتبر ضرورية. وبدلا من التركيز على إلقاء اللوم، يجب علينا أن نعمل على بناء ثقافة أمنية إيجابية.
هذا هو المكان الذي يجب أن يتم فيه وضع إدارة المخاطر البشرية، أو إدارة الموارد البشرية، باعتبارها جزءًا أساسيًا من الإستراتيجية الأمنية، بدلاً من كونها مبادرة داعمة. يجب أن تحل الرؤية عبر الأنظمة الأساسية للسلوكيات المحفوفة بالمخاطر وإشارات المخاطر على مستوى الموظفين محل فئات المستخدمين والافتراضات الواسعة.
يحتاج بناء ثقافة إيجابية إلى تدريب داعم عندما تظهر المخاطر في الوقت الفعلي، في الواقع، وجدت الدراسات أن “التعلم النشط” (أو التعلم بالممارسة) فعال بشكل لا يصدق للاحتفاظ بالثقافة.
تعمل هذه الطريقة على تعزيز الأمان ودمجه مباشرة في المهام اليومية، ويتم التعامل مع الأشخاص على أنهم مشاركين متكيفين، وليسوا التزامات ثابتة. ويجب أن تُحكم أنظمة الذكاء الاصطناعي بنفس الطريقة، مع وجود خطوط أساسية سلوكية وعمليات مراقبة وضوابط تعكس دورها المتنامي في القوى العاملة.
تصبح إدارة الموارد البشرية هي الطبقة التي تربط بين السلوك البشري واستخدام الذكاء الاصطناعي والمرونة التنظيمية.
اتجاه السفر واضح. تتجه المنظمات نحو القوى العاملة التي تضم أفرادًا ووكلاء، ومسألة الأمن هي مسألة توقيت، وليس اعتماد. ومن أجل الحفاظ على الابتكار دون تضخيم المخاطر، يجب الآن دمج أفضل الممارسات الأمنية في كل من الأنظمة البشرية والآلية.
تظهر الأبحاث بالفعل أن المستخدمين الأوائل يستفيدون من انخفاض معدلات الحوادث، وزيادة الثقة، والابتكار المعتمد على الذكاء الاصطناعي بشكل أسرع وأكثر أمانًا. إن مستقبل الأمن السيبراني ينتمي إلى المنظمات التي تتوقف عن محاولة حبس الأشخاص والبدء في تصميم أنظمة تساعدهم على اتخاذ قرارات أفضل في لحظة اتخاذ تلك القرارات.
لقد عرضنا أفضل برامج التشفير.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات