
مع قيام المؤسسات بدمج وكلاء الذكاء الاصطناعي في سير عملها، يحدث تحول صامت.
تتصادم ضوابط الأمان المبنية على سياسات الوصول الثابتة المصممة للسلوك الذي يمكن التنبؤ به مع الأنظمة التي تفكر بدلاً من مجرد التنفيذ. إن وكلاء الذكاء الاصطناعي، الذين يقودهم النتائج بدلا من القواعد، يكسرون نموذج إدارة الهوية والوصول التقليدي.
لنأخذ على سبيل المثال شركة بيع بالتجزئة تستخدم مساعد مبيعات يعمل بالذكاء الاصطناعي لتحليل سلوك العملاء وتحسين الاحتفاظ بهم. لا يتمتع المساعد بإمكانية الوصول إلى معلومات التعريف الشخصية، فهو مقيد حسب التصميم.
ومع ذلك، عندما يُطلب منك “العثور على العملاء الذين من المرجح أن يلغوا الاشتراكات المميزة”، فإنه يربط سجلات الأنشطة وتذاكر الدعم وسجلات الشراء عبر أنظمة متعددة. يؤدي هذا إلى إنشاء قائمة بمستخدمين محددين يتم استنتاجها من خلال أنماط السلوك وعادات الإنفاق واحتمالية التراجع.
المؤسس المشارك والرئيس التنفيذي للتكنولوجيا في Token Security.
لم يتم الكشف عن أي أسماء أو بطاقات ائتمان، ولكن الوكيل أعاد تحديد هوية الأفراد بشكل فعال من خلال الاستدلال، وأعاد بناء الرؤى الحساسة التي لم يكن المقصود من النظام الوصول إليها مطلقًا وربما كشف معلومات التعريف الشخصية (PII).
على الرغم من أنه لم يخرق ضوابط الوصول، إلا أنه شق طريقه حول الأنظمة للوصول إلى المعلومات التي لم يكن من المقرر الوصول إليها في الأصل.
عندما يصبح السياق هو الاستغلال
على عكس سير عمل البرامج التقليدية، لا يتبع وكلاء الذكاء الاصطناعي المنطق الحتمي؛ يتصرفون بناء على النية. عندما يكون هدف نظام الذكاء الاصطناعي هو “تعظيم الاحتفاظ” أو “تقليل زمن الوصول”، فإنه يتخذ قرارات مستقلة بشأن البيانات أو الإجراءات التي يحتاجها لتحقيق هذه النتيجة. قد يكون كل قرار مشروعًا بشكل منفصل، ولكن معًا، يمكن أن يكشفوا عن معلومات تتجاوز النطاق المقصود للوكيل.
هذا هو المكان الذي يصبح فيه السياق سطح استغلال. تركز النماذج التقليدية على من يمكنه الوصول إلى ماذا، بافتراض وجود حدود ثابتة. لكن في الأنظمة الوكيلة، ما يهم هو سبب حدوث الفعل وكيف يتغير السياق عندما يستدعي وكيل آخر. عندما تتدفق النية عبر الطبقات، حيث يعيد كل منها تفسير الهدف، يتم فقدان سياق المستخدم الأصلي وتتلاشى حدود الامتيازات.
والنتيجة ليست خرقًا تقليديًا؛ إنه شكل من أشكال تصعيد الامتيازات السياقية حيث يصبح المعنى، وليس الوصول، هو ناقل الهجوم.
عيوب الضوابط الحتمية
تتعلم معظم المؤسسات أن نماذج RBAC (التحكم في الوصول القائم على الأدوار) وABAC (التحكم في الوصول على أساس السمات) لا يمكنها مواكبة المنطق الديناميكي. في التطبيقات الكلاسيكية، يمكنك تتبع كل قرار مرة أخرى إلى مسار التعليمات البرمجية. في عملاء الذكاء الاصطناعي، يكون المنطق ناشئًا وقابلاً للتكيف. يمكن لنفس المطالبة أن تؤدي إلى إجراءات مختلفة اعتمادًا على البيئة أو التفاعلات السابقة أو الأهداف المتصورة.
على سبيل المثال، قد يبدأ وكيل التطوير المدرب على تحسين تكاليف الحوسبة السحابية في حذف السجلات المستخدمة لأغراض التدقيق أو النسخ الاحتياطية. من منظور الامتثال، يعد هذا أمرًا كارثيًا، لكن من وجهة نظر الوكيل، فهو فعال. ويفترض النموذج الأمني الحتمية؛ الوكيل يفترض الحكم الذاتي.
يكشف عدم التطابق هذا عن وجود خلل في كيفية تصميم الأذونات. يجيب RBAC وABAC على “هل يجب على المستخدم X الوصول إلى المورد Y؟” في النظام البيئي الوكيل، يصبح السؤال “هل يجب أن يكون الوكيل X قادرًا على الوصول إلى أكثر من المورد Y، ولماذا يحتاج إلى هذا الوصول الإضافي؟” هذه ليست مشكلة في الوصول؛ إنها مشكلة تفكير.
صعود الانجراف السياقي
في البنى الموزعة ومتعددة الوكلاء، تتطور الأذونات من خلال التفاعل. يقوم الوكلاء بتسلسل المهام ومشاركة المخرجات ووضع الافتراضات بناءً على نتائج الآخرين. وبمرور الوقت، تتراكم هذه الافتراضات، لتشكل انحرافًا سياقيًا، وانحرافًا تدريجيًا عن القصد الأصلي للوكيل والنطاق المصرح به.
تخيل وكيل تحليلات التسويق يلخص سلوك المستخدم، ويغذي مخرجاته إلى وكيل التنبؤ المالي، الذي يستخدمه للتنبؤ بالإيرادات الإقليمية. يرى كل وكيل جزءًا فقط من العملية. لكنهم معًا قاموا ببناء صورة كاملة وغير مقصودة لبيانات العملاء المالية.
اتبعت كل خطوة السياسة. التأثير الكلي كسره.
الانحراف السياقي هو المعادل الحديث لانجراف التكوين في DevOps، إلا أنه يحدث هنا في الطبقة المعرفية. يرى نظام الأمان الامتثال؛ ترى شبكة الوكلاء فرصة.
النية الحاكمة، وليس الوصول فقط
ولمعالجة هذه الفئة الجديدة من المخاطر، يجب على المؤسسات التحول من التحكم في الوصول إلى التحكم في النوايا. يجب أن يتضمن الإطار الأمني للأنظمة الوكيلة ما يلي:
ربط النية: يجب أن يحمل كل إجراء سياق المستخدم الأصلي وهويته والغرض ونطاق السياسة طوال سلسلة التنفيذ.
الترخيص الديناميكي: تجاوز الاستحقاقات الثابتة. يجب أن تتكيف القرارات مع السياق والحساسية والسلوك في وقت التشغيل.
تتبع المصدر: احتفظ بسجل يمكن التحقق منه حول من بدأ الإجراء، ومن هم الوكلاء الذين شاركوا، وما هي البيانات التي تم التطرق إليها.
مراقبة الإنسان في الحلقة: بالنسبة للإجراءات عالية المخاطر، يجب طلب التحقق، خاصة عندما يتصرف الوكلاء نيابة عن المستخدمين أو الأنظمة.
التدقيق السياقي: استبدل السجلات المسطحة برسوم بيانية للهدف تصور كيفية تطور الاستعلامات إلى إجراءات عبر الوكلاء.
لماذا الأذونات وحدها معيبة
تفترض الأذونات الثابتة أن الهوية والنية تظل ثابتة. لكن الوكلاء يعملون في سياقات متغيرة ومتغيرة. يمكنهم إنتاج وكلاء فرعيين، أو إنشاء مسارات عمل جديدة، أو إعادة التدريب على البيانات الوسيطة، وهي الإجراءات التي تعيد تعريف “الوصول” باستمرار.
بحلول الوقت الذي يكتشف فيه نظام الهوية حادثة أمنية، يكون قد حدث بالفعل انتهاك أو خرق دون الحصول على إذن واحد. ولهذا السبب يجب أن تأتي الرؤية والإسناد في المقام الأول. قبل فرض السياسة، يجب عليك تعيين الرسم البياني للوكيل: ما هو موجود وما هو متصل ومن يملك ماذا.
ومن عجيب المفارقات أن نفس مبادئ الذكاء الاصطناعي التي تتحدى ضوابطنا يمكن أن تساعد في استعادتها. ويمكن للنماذج التكيفية الواعية بالسياسات أن تميز بين الاستدلال المشروع والاستدلال المشبوه. يمكنهم اكتشاف متى تتغير نية الوكيل أو عندما يشير الانحراف السياقي إلى ارتفاع المخاطر.
لقد جربت أكثر من 70 من أفضل أدوات الذكاء الاصطناعي.

التعليقات