
يظهر الذكاء الاصطناعي الوكيل بسرعة باعتباره التغيير الرئيسي التالي في صناعة التكنولوجيا، حيث ينقل الذكاء الاصطناعي من مجرد روبوتات الدردشة إلى صانعي القرار المستقلين. على عكس أدوات الذكاء الاصطناعي التقليدية التي تتطلب تحفيزًا مستمرًا، يعمل الذكاء الاصطناعي الوكيل بدرجة من الاستقلالية والتعلم والتفكير والعمل لتحقيق أهداف محددة.
في الواقع، بحلول عام 2028، سوف يشتمل ثلث تطبيقات المؤسسات على الذكاء الاصطناعي الوكيل، ارتفاعًا من أقل من 1% في عام 2024، مع ما يصل إلى 15% من القرارات الروتينية في مكان العمل التي يتم اتخاذها بشكل مستقل. بالنسبة لقادة المؤسسات، يمثل هذا تغييرًا كبيرًا في كيفية دعم التكنولوجيا للأعمال وتشكيلها، لا سيما في مجال الأمن السيبراني.
المؤسس المشارك والمدير الأول لإدارة المنتجات في HackerOne.
في الواقع، يتمتع Agentic AI بالقدرة على تحويل قدرة الفرق على تصعيد المخاطر الأكثر أهمية عند القبول، وضمان تقديمات عالية الجودة، وتصفية التكرارات حتى تتمكن الفرق من التركيز على ما يهم. ومع ذلك، فإن الاستقلالية التي تجعلها قوية تفرض أيضًا مخاطر جديدة على فرق الأمن.
يحتاج قادة المؤسسات إلى فهم كيف يمكن لـ Agentic AI تعزيز دفاعاتهم والمزالق التي يجب مراقبتها عند نشره.
ما الذي يجعل Agent AI مختلفًا؟
تم تصميم Agentic AI حول عملاء مستقلين، مع أنظمة قادرة على التفكير والتكيف واتخاذ إجراءات مستقلة. إنه خروج عن كل من الأتمتة التقليدية والأشكال السابقة من الذكاء الاصطناعي. تنتج نماذج التعلم الآلي التقليدية إلى حد كبير مخرجات تعتمد على المطالبات أو المعلمات الثابتة.
وعلى النقيض من ذلك، يمكن للذكاء الاصطناعي الفاعل أن يعمل بشكل متكرر، ويقيم السياق، ويخطط لمسار العمل، ويتكيف عندما تتغير الظروف ويتحسن من خلال الخبرة.
تبتعد صناعة الأمن السيبراني عن الماضي حيث تقوم الروبوتات فقط بالإبلاغ عن عمليات تسجيل الدخول المشبوهة وتتجه نحو نظام متصل يقوم بالتحقيق بشكل مستقل وتصعيد نقاط الضعف ذات الأولوية ويوفر رؤى قابلة للتنفيذ للمستخدم.
تعزيز قدرات الأمن السيبراني
يعتبر Agentic AI مناسبًا تمامًا لبعض التحديات الأكثر إلحاحًا في مجال الأمن:
كشف التهديدات والاستجابة لها: غالبًا ما تغمر مراكز العمليات الأمنية (SOCs) بالتنبيهات، وكثير منها نتائج إيجابية كاذبة. يمكن للذكاء الاصطناعي الوكيل التحقيق بشكل مستقل في التنبيهات الروتينية، وتصعيد التنبيهات التي تتطلب الحكم البشري فقط.
وهذا يقلل من “إجهاد التنبيه” ويسمح للمحللين بالتركيز على الحوادث ذات الأولوية العالية. يمكن أن يؤدي التأثير إلى تقليل الوقت اللازم لاكتشاف المشكلات، مما يؤدي إلى تقصير النوافذ التي يتعين على المهاجمين استغلال نقاط الضعف فيها، مع تقليل الوقت اللازم للمعالجة.
اختبار الاختراق: يستطيع Agent AI تسريع عملية اكتشاف الثغرات الأمنية من خلال فحص أسطح الهجوم والعثور على المشكلات الشائعة على نطاق واسع. يتم بعد ذلك إطلاق سراح القائمين على الاختبار من البشر للتركيز على الجوانب الإبداعية عالية التأثير للاختبار والتي لا تستطيع الآلات تكرارها. والنتيجة هي تغطية أوسع واختبارات أكثر تواترا وفعالة من حيث التكلفة.
إدارة الثغرات الأمنية والتحقق من صحتها: بلغت الضجة في إدارة الثغرات الأمنية أعلى مستوياتها على الإطلاق، مما أدى إلى إحباط فرق الأمن الداخلية. إن تحديد أولويات نقاط الضعف التي يجب علاجها من خلال التحقق من صحة ما هو حقيقي يعد مهمة معقدة. وهذا يتطلب السياق التاريخي، وتحليل تأثير الأعمال والخبرة الفنية.
يمكن للذكاء الاصطناعي الوكيل تنفيذ الكثير من الأعمال الأساسية، مثل توحيد التقارير والمقارنة مع الأحداث الماضية والتوصية بالإجراءات، مع إبقاء البشر على اطلاع لتحديد أولويات تأثير الأعمال في القرارات النهائية.
قابلية التوسع: إن توظيف المحللين المهرة والاحتفاظ بهم أمر صعب ومكلف. من خلال أتمتة أجزاء كبيرة من سير العمل الأمني، يمكن لـ Agentic AI ربط الأدوات معًا والتكيف مع التعليقات. وهذا يمكّن المؤسسات من الحد من زيادات التكاليف، والحفاظ على تركيز الموظفين على الأولويات الإستراتيجية التي تتطلب براعة بشرية.
وبطبيعة الحال، فإن استخدام الذكاء الاصطناعي لتعزيز الأمن السيبراني ليس سوى نصف القصة. يجب أيضًا التعامل مع أمن الذكاء الاصطناعي الوكيل كأولوية. وبخلاف ذلك، فإن الأنظمة نفسها المصممة لحماية المؤسسة يمكن أن تصبح نواقل هجوم جديدة.
المخاطر التي يجب على قادة المؤسسات إدارتها
وفي حين أن الاستقلالية لها فوائد، فإنها تتطلب أيضًا مراقبة دقيقة. إذا لم يتم التحقق منه، يمكن للذكاء الاصطناعي الوكيل أن يخطئ في الحكم أو يخطئ أو يتم التلاعب به. لذلك، من المهم الاهتمام جيدًا بالمجالات التالية:
الحقن الفوري: وبينما يتفاعل وكلاء الذكاء الاصطناعي مع مصادر البيانات الخارجية، يمكن للمهاجمين تضمين تعليمات ضارة مصممة لتوجيه النتائج. يمكن أن يؤدي الحقن الفوري الذي يبدو تافهًا في برنامج الدردشة الآلي إلى إحداث ضرر أكبر بكثير عندما يتخذ وكيل مستقل قرارات أمنية.
لذلك، من الضروري الحفاظ على المراقبة المستمرة وتنفيذ حواجز حماية قوية.
الوصول إلى البيانات والخصوصية: تتفوق أنظمة الذكاء الاصطناعي في معالجة مجموعات البيانات الكبيرة، مما يخلق مخاطر إذا كانت ضوابط الوصول ضعيفة. ونتيجة لذلك، يمكن أن يتم كشف المعلومات الحساسة المدفونة في المستودعات التي تم تجاهلها عن غير قصد. تحتاج المنظمات إلى حوكمة قوية للبيانات ورقابة صارمة على التدريب ومجموعات البيانات التشغيلية.
كسر الحماية: وحتى مع وجود حواجز الحماية، قد تحاول الجهات الفاعلة في مجال التهديد “كسر حماية” نظام الذكاء الاصطناعي، وإقناعه بتجاهل القيود والتصرف خارج النطاق المقصود. وإذا اقترن ذلك بالحقن الفوري، فقد يؤدي ذلك إلى نتائج خطيرة، مثل التحويلات المالية غير المصرح بها.
وللحد من هذه المخاطر، يجب على المؤسسات تنفيذ فرق حمراء مستمرة لاختبار تحمل أنظمة الذكاء الاصطناعي.
احتضان وكيل الذكاء الاصطناعي
وبما أنه من المتوقع أن ينمو اعتماد الذكاء الاصطناعي بمعدل سنوي قدره 36.6% بين عامي 2023 و2030، فإن هذا يمثل فرصة وتحديًا في نفس الوقت. وإذا لم تتبنى الشركات الذكاء الاصطناعي الوكيل، فسوف تتسع فجوة التباين بين المهاجمين والمدافعين، وخاصة في ضوء النقص المستمر في المهارات في مجال الأمن السيبراني.
ومن خلاله، يمكن لفرق الأمن مضاعفة قدراتها وتقليل وقت الاستجابة والانتقال من مكافحة الحرائق التفاعلية إلى إدارة التهديدات المستمرة.
لتحقيق التوازن، يجب نشر الذكاء الاصطناعي الوكيل مع أطر حوكمة واضحة، والإشراف البشري في المراحل الحرجة والتركيز القوي على أمن البيانات. سيكون التعاون بين المطورين ومحترفي الأمن وصانعي السياسات أمرًا أساسيًا لضمان أن هذه الأنظمة تخدم مصالح المؤسسات والمجتمع الأوسع.
لقد أبرزنا أفضل منشئ مواقع الويب بالذكاء الاصطناعي.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات