
يتجاوز نظام الذكاء الاصطناعي المرن الأداء الفني. إنه يعكس ثقافة الفريق الذي يقف وراءه.
ومع تزايد دمج الذكاء الاصطناعي في الشركات، واستخدامه من قبل الموظفين وعامة الناس، أصبحت إدارة الأنظمة التي نعتمد عليها أكثر صعوبة.
المخاطر التي يقدمها الذكاء الاصطناعي لا تكون عادة مثيرة أو مفاجئة. فهي تظهر تدريجياً، من خلال الملكية غير الواضحة، والتحديثات غير المُدارة، ونقص التدريب، وتجزئة عملية صنع القرار.
يعتمد الأمان، في هذا السياق، بشكل أقل على الكود نفسه وأكثر على العادات والتنسيق بين الفرق المبنية حوله.
إعادة صياغة أمن الذكاء الاصطناعي
عندما تتم مناقشة أمن الذكاء الاصطناعي، يميل التركيز بشكل مباشر إلى الطبقة التقنية، ومجموعات البيانات النظيفة، والخوارزميات القوية، والنماذج جيدة التنظيم. إنها غريزة مفهومة. هذه مكونات مرئية وملموسة، ولها أهمية.
ولكن في الممارسة العملية، فإن أغلب المخاطر لا تتراكم بسبب عيوب في المنطق، بل بسبب ثغرات في التنسيق. وهي تميل إلى البناء ببطء عندما لا يتم تسجيل التحديثات، أو عندما تنتقل النماذج بين الفرق دون سياق، أو عندما لا يكون أحد متأكدًا تمامًا من الذي أجرى التغيير الأخير.
ويشكل مشروع قانون الأمن السيبراني والمرونة في المملكة المتحدة خطوة إلى الأمام في إضفاء الطابع الرسمي على كيفية تأمين البنية التحتية الرقمية. فهو يقدم متطلبات جديدة لضمان التشغيل والمراقبة المستمرة والاستجابة للحوادث، خاصة لمقدمي الخدمات الذين يدعمون الأنظمة الحيوية.
ولكن في حين أن مشروع القانون يزيد من حدة التوقعات بشأن البنية التحتية، فإنه لم يوضح بعد كيفية تطوير الذكاء الاصطناعي والحفاظ عليه في الممارسة العملية.
وفي قطاعات مثل الرعاية الصحية والتمويل، تؤثر النماذج بالفعل على القرارات عالية المخاطر. وغالباً ما يتم إنشاؤها في بيئات سريعة الحركة حيث تتغير الأدوار، وتتطور الأدوات، ولا تواكب الحوكمة دائمًا الوتيرة.
حيث تميل المخاطر إلى التراكم
نادراً ما يبقى تطوير الذكاء الاصطناعي ضمن فريق واحد. يتم إعادة تدريب النماذج وإعادة استخدامها وتكييفها مع تغير الاحتياجات. وتشكل هذه المرونة جزءًا من قيمتها، ولكنها تضيف أيضًا طبقات من التعقيد.
التغييرات الصغيرة يمكن أن يكون لها آثار واسعة النطاق. قد يقوم أحد الفرق بتحديث بيانات التدريب لتعكس المدخلات الجديدة. قد يقوم آخر بتعديل العتبة لتقليل النتائج الإيجابية الكاذبة. وقد ينشر ثالث نموذجًا دون التحقق من كيفية تكوينه من قبل.
ولا يعد أي من هذه القرارات خاطئًا بطبيعته. ولكن عندما لا تتمكن الفرق من تتبع القرار حتى أصله، أو عندما لا يكون هناك أحد متأكد من هوية الشخص الذي وافق على التغيير، يتم فقدان القدرة على الاستجابة بسرعة.
هذه ليست أخطاء في التعليمات البرمجية أو البنية، ولكنها علامات على أن الطريقة التي تقوم بها الفرق ببناء الأنظمة وتكييفها وتسليمها لم تواكب مدى استخدام هذه الأنظمة على نطاق واسع الآن. فعندما تتخلف ثقافة العمل، تصبح رؤية المخاطر أكثر صعوبة، وبالتالي يصبح احتواؤها أصعب.
تحويل الثقافة إلى سطح تحكم
إذا تراكمت المخاطر في العادات اليومية، فيجب بناء المرونة في نفس المكان. إن الثقافة هي أكثر من مجرد أداة تمكينية للممارسات الجيدة، بل إنها تصبح آلية للحفاظ على السيطرة على نطاق الأنظمة.
وينعكس هذا المبدأ في التنظيم. يحدد قانون الذكاء الاصطناعي للاتحاد الأوروبي متطلبات الأنظمة عالية المخاطر، بما في ذلك تقييمات المطابقة وقواعد الممارسة الطوعية، ولكن الكثير من المسؤولية عن دمج الحوكمة في الروتين اليومي لا يزال يقع على عاتق المنظمات التي تنشرها.
وفي المملكة المتحدة، تتبع مدونة ممارسات الأمن السيبراني الخاصة بالذكاء الاصطناعي التابعة لوزارة العلوم والابتكار والتكنولوجيا نهجا مماثلا، حيث تجمع بين المبادئ الرفيعة المستوى والإرشادات العملية التي تساعد الشركات على تحويل السياسة إلى معايير عمل.
وتشير برامج البحث والتقدير إلى نفس الاتجاه. تُظهِر دراسات تطوير الذكاء الاصطناعي في العالم الحقيقي، مثل مبادرة LASR في المملكة المتحدة، كيف تعمل الاتصالات وعمليات التسليم والافتراضات بين الفرق على تشكيل الثقة بقدر ما تؤثر على النماذج نفسها.
ثم تسلط مبادرات مثل جوائز الذكاء الاصطناعي الوطنية الضوء على المنظمات التي تضع الحوكمة الثقافية موضع التنفيذ وتضع معايير أكثر وضوحًا للنضج.
بالنسبة للشركات، تتمثل المهمة الآن في جعل الوضوح الثقافي جزءًا أكثر تكاملاً من التصميم التشغيلي. كلما زادت قدرة الفرق على الاعتماد على المعايير المشتركة، والملكية المرئية، واتخاذ القرارات المتسقة، أصبحت أنظمة الذكاء الاصطناعي الخاصة بها أكثر مرونة بمرور الوقت.
نتطلع إلى الأمام
وبما أن الذكاء الاصطناعي أصبح جزءًا من عملية صنع القرار اليومية، فيجب أن يتحول تركيز القيادة من أداء النموذج الفردي إلى البيئة الأوسع التي تعمل فيها تلك الأنظمة.
وهذا يعني تجاوز الإصلاحات على مستوى المشروع والاستثمار في النسيج الضام بين الفرق، والإجراءات الروتينية، والمنتديات، والعادات التي تمنح تطوير الذكاء الاصطناعي البنية اللازمة للتوسع بأمان.
يستغرق بناء هذا النضج وقتًا، لكنه يبدأ بالوضوح. وضوح الملكية والتغيير والسياق.
إن المنظمات التي تحرز تقدماً هي تلك التي تتعامل مع الثقافة ليس باعتبارها مهارة شخصية، بل كأصل عمل، أو شيء يجب مراجعته، وتوفير الموارد له، وتحسينه باستمرار.
وهذا الهيكل الثقافي هو الذي سيشكل الأمن في نهاية المطاف. من خلال العادات المتأصلة التي تجعل من السهل رؤية المخاطر وإظهارها والتصرف فيها، حيث يصبح الذكاء الاصطناعي أكثر أهمية في كيفية عمل الشركات اليوم.
لقد عرضنا أفضل دورة للأمن السيبراني عبر الإنترنت.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات