
أصبحت معظم المؤسسات الآن على دراية بمفهوم وكلاء الذكاء الاصطناعي – الأنظمة المستقلة التي تدرك وتتخذ القرارات وتتخذ الإجراءات لتحقيق أهداف محددة داخل البيئة.
في الواقع، تستخدم نسبة مذهلة تبلغ 82% من المؤسسات وكلاء الذكاء الاصطناعي اليوم، وغالبًا ما يكون ذلك عبر وظائف أعمال متعددة. هذه العوامل ليست مجرد أدوات سلبية: إنها تكنولوجيا مستقلة تعمل وتقرر وتتكيف بسرعة مذهلة وعلى نطاق واسع.
وهم يزدادون تعقيدًا بمرور الوقت، وكثيرًا ما يتعاملون مع المهام التي كانت مخصصة في السابق للرقابة البشرية الماهرة.
الرئيس التنفيذي ومؤسس SailPoint.
لا جدال في القيمة التجارية لوكلاء الذكاء الاصطناعي، ولكن العواقب المحتملة للبيانات الحساسة المخترقة يمكن أن تكون مدمرة، بدءًا من الوصول إلى الأنظمة الحساسة ووصولاً إلى مشاركة البيانات دون تصريح. ومما يثير القلق أن أقل من أربع من كل عشر منظمات تحكم عملاء الذكاء الاصطناعي – على الرغم من ارتفاع معدل اعتماده.
يتطلب هذا الواقع الجديد أن ندير عملاء الذكاء الاصطناعي بنفس المستوى من الرقابة والحوكمة مثل المستخدمين البشريين. دعونا نلقي نظرة على الدور الذي يمكن أن يلعبه أمن الهوية في مساعدة المؤسسات على تسخير ذكاء الذكاء الاصطناعي، دون إغفال الأمن أو الامتثال.
وضع الفرامل على “سيارة السباق” التي تعمل بالذكاء الاصطناعي
يمكن لوكلاء الذكاء الاصطناعي العمل بشكل مستقل والتعلم والتكيف والتفاعل بطرق يصعب التنبؤ بها. وبدون حوكمة قوية، يمكن أن تؤدي إلى نقاط ضعف خطيرة حتى في البيئات الأكثر أمانًا.
هذا لا يعني أن الشركات لا ينبغي لها الاستفادة من وكلاء الذكاء الاصطناعي، لكنها بحاجة إلى وضع ضوابط لإبقاء “القوى العاملة الرقمية” الجديدة تحت السيطرة. فكر في الأمر مثل الفرامل في سيارة السباق: فهي ليست موجودة لإبطائك دون داعٍ، ولكنها موجودة لتمنحك التحكم اللازم عند التنقل في مسار صعب بسرعة عالية.
في الوقت الحالي، تقوم العديد من الشركات “بقيادة السيارة” بسرعة مذهلة، دون تشغيل الفرامل. النتيجة؟ لقد خرج وكلاء الذكاء الاصطناعي عن نطاق السيطرة – حيث أبلغت 80% من المؤسسات أن وكلاء الذكاء الاصطناعي لديهم قاموا بالفعل بإجراءات غير مصرح بها، بما في ذلك الوصول إلى المعلومات الحساسة ومشاركتها.
وعلى الرغم من إدراك الغالبية العظمى من قادة التكنولوجيا (92%) لأهمية حوكمة وكيل الذكاء الاصطناعي لأمن المؤسسات، إلا أن 44% منهم فقط قاموا بتنفيذ السياسات ذات الصلة.
وبعيدًا عن مشكلات الامتثال التنظيمي، يؤدي هذا إلى إنشاء نقاط ضعف تؤثر على سلسلة التوريد بأكملها – بما في ذلك الموظفين والشركاء والعملاء الذين لديهم حق الوصول إلى النظام – والذين قد يتلقون معلومات غير دقيقة، أو، وهو الأمر الأكثر خطورة، يكشفون بيانات اعتماد الوصول أو البيانات الأخرى التي تصب في أيدي الجهات الفاعلة الضارة.
نظرة فاحصة على إدارة المخاطر لوكلاء الذكاء الاصطناعي
ومع تخطيط 98% من الشركات لتوسيع عمليات نشر وكلاء الذكاء الاصطناعي في العام المقبل، ستصبح المؤسسات أكثر اعتمادًا على هذه القوى العاملة الرقمية الموسعة خلال العقد المقبل.
وسوف يتطلب هذا الانفجار في الهويات غير البشرية، إلى جانب التهديدات السيبرانية المتطورة على نحو متزايد، أدوات تعمل على تيسير اتباع نهج أكثر تكيفاً.
في الماضي، كان أسلوب “القلعة والخندق” فيما يتعلق بالأمن كافياً. كانت فرق مركز العمليات الأمنية (SOC) مسؤولة عن فهم ما كان يحدث على نقطة النهاية: وكانت وظيفتهم ببساطة هي حماية المحيط. والآن، يمكن أن تنفجر نقاط الضعف بسهولة إلى الخارج من داخل الشركة نفسها، إذا تُرك الوكلاء للتحرك بشكل أفقي وبحرية داخل الشبكات.
لمنع “انفجار الهوية”، تحتاج المؤسسات إلى التعامل مع حقوق وصول وكيل الذكاء الاصطناعي بنفس الطريقة التي يتعامل بها البشر. وهذا يعني أن نحكمهم وفقًا لسلوكياتهم ومخاطرهم الفريدة.
يمكن لأدوات أمان الهوية من الجيل التالي أن تمكن الشركات من طرح سياسات التحكم في الوصول السياقية والدقيقة والتكيفية، حيث يتم منح الوصول بشكل هادف عندما يكون ذلك مناسبًا – ويتم إلغاؤه بقوة عندما لا يكون ذلك مناسبًا. تخيل وكيل الذكاء الاصطناعي في القطاع المالي.
ويمكنه التعامل مع عملية إنشاء القرض بأكملها – تجميع البيانات المالية، وتحليل التاريخ الائتماني، وإعداد الشروط، وتسهيل الاكتتاب، والتواصل مع أصحاب المصلحة.
إن الكفاءة ملحوظة، ولكن المخاطر كبيرة: فبدون الضوابط المناسبة، يمكن لنفس الوكيل أن يسيء تفسير البيانات، أو يوافق على القروض عالية المخاطر، أو يكشف عن غير قصد معلومات العميل، مما يؤدي إلى انتهاكات الامتثال أو الإضرار بالسمعة.
يمكن للشركات تجنب هذا النوع من المخاطر من خلال التأكد من أن الوكلاء يمكنهم فقط الوصول إلى السجلات أو المعلومات المحددة ذات الصلة بحالة معينة. من خلال دور وملف تعريف مخصص، سيتم منح الوكيل حق الوصول المؤقت إلى السجلات التي قد تختفي بعد إكمال المهمة.
لتقليل المخاطر، يمكن ترك الوكيل بدون امتيازات النظام الإداري – على سبيل المثال، الوصول إلى سجلات التدقيق الداخلي أو لوحات المعلومات التنفيذية أو تقارير الامتثال التنظيمي.
يضمن النهج السياقي والتكيفي للهوية مراقبة وكلاء الذكاء الاصطناعي بشكل مستمر، وتحديث حقوق الوصول الخاصة بهم مع تطور أدوارهم وسلوكياتهم وملفات تعريف المخاطر.
تأمين القوى العاملة الرقمية
ومع تزايد اعتماد وكلاء الذكاء الاصطناعي، قد يواجه قادة الأعمال صداعًا حقيقيًا إذا قاموا بتوسيع “القوى العاملة الرقمية” لديهم قبل إنشاء الأنظمة لتتبع الهويات غير البشرية بشكل آمن.
ومن الواضح أن السؤال لم يعد يقتصر فقط على “من” يمكنه الوصول إلى ماذا. يتعلق الأمر بـ “ما” الذي يتصرف داخل بيئتك، و”كيف” يفعل ذلك، و”لماذا”. تعني الحوكمة السليمة تتبع وصول كل وكيل للذكاء الاصطناعي إلى البيانات الحساسة، وتعيين ملكية واضحة، وفرض سير عمل الموافقة قبل منح الوصول أو توسيعه.
ولم تعد الأساليب الثابتة ذات المقاس الواحد الذي يناسب الجميع للوصول إلى السياسات كافية. سيشكل النهج التكيفي والسياقي لأمن الهوية حجر الأساس لاعتماد عملاء الذكاء الاصطناعي بشكل مسؤول وآمن وقابل للتطوير.
لقد عرضنا أفضل برامج أتمتة تكنولوجيا المعلومات.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات