
إن الوعد بوجود الذكاء الاصطناعي الوكيل في مركز العمليات الأمنية (SOC) واضح.
تحقيقات أسرع، وأنظمة يمكنها التصرف من تلقاء نفسها، والقدرة على مواكبة التهديدات التي لم تعد تأتي بشكل منظم.
يستمر المقال أدناه
CTO الميداني والمستشار الاستراتيجي في Splunk.
قد تبدو فكرة اتخاذ أدوات الذكاء الاصطناعي للقرارات فكرة مجردة، لكن التحول الذي تمثله ليس كذلك. إن الانتقال من الأتمتة إلى الذكاء الاصطناعي الوكيل يغير كيفية إنجاز العمل، وكيفية تقاسم المسؤولية، ومدى التحكم الذي يرغب القادة في تسليمه.
لقد كانت صناعة الأمن هنا من قبل. قبل بضع سنوات فقط، كانت العديد من فرق SOC لا تزال حذرة بشأن برامج الأتمتة. وكانت المخاوف بشأن الرؤية والمساءلة سبباً في تباطؤ تبني هذه السياسات، حتى عندما كانت الفوائد واضحة.
غيرت النماذج اللغوية الكبيرة تلك الديناميكية من خلال إظهار مدى قدرة الذكاء الاصطناعي على التكيف، ولكنها قدمت أيضًا نوعًا جديدًا من عدم اليقين. على عكس سير العمل المكتوب، تقوم هذه الأنظمة بتفسير السياق وإصدار الأحكام على طول الطريق.
يأخذ Agentic AI هذه الخطوة إلى الأمام، حيث يعمل لفترات طويلة ويشكل التحقيقات أثناء ظهورها. ويخلق هذا التحول فرصة حقيقية، لكنه يجبر قادة الأمن أيضًا على إعادة التفكير في شكل الثقة عندما لا يعود الناس يتخذون القرارات بالكامل.
عندما تفسح الأتمتة المجال للحكم
في بيئات SOC التقليدية، اتبعت القرارات مسارًا محددًا. حصلت الأتمتة على مكانتها في مركز العمليات الأمنية (SOC) من خلال البقاء ضمن حدود واضحة للتعامل مع مهام محددة والتصرف بطرق يمكن أن تتوقعها الفرق.
عندما يحدث خطأ ما، يكون السبب واضحًا عادةً: خطأ في تطبيق القاعدة، أو الحاجة إلى ضبط التكوين، أو فقدان مصدر البيانات.
يقوم وكيل الذكاء الاصطناعي بتغيير هيكل القرار هذا. تعمل هذه الأنظمة مع معلومات غير كاملة وسياق متغير. يمكنهم إجراء التحقيقات على مدى فترات أطول، وجمع الإشارات معًا وتحديد ما يستحق الاهتمام بعد ذلك. وهذه المرونة هي ما يجعلها مفيدة، ولكنها تغير أيضًا كيفية ارتباط الأشخاص بالتكنولوجيا.
بالنسبة لقادة الأمن، يعد هذا أكثر من مجرد ترقية تقنية. إنه يغير طبيعة القرار الذي يطلب منهم اتخاذه.
إن الموافقة على الذكاء الاصطناعي الوكيل تعني تفويض الحكم، وهو ما يتطلب نوعًا مختلفًا من الثقة في كيفية اتخاذ القرارات. وهذا التمييز دقيق في كيفية إدارة الأنظمة وفي مدى شعور القادة بالارتياح عند الاعتماد عليها.
من يجيب عندما يقوم الذكاء الاصطناعي بإجراء مكالمة
في مناقشات القيادة حول الذكاء الاصطناعي الفاعل، غالبًا ما تتغير اللهجة. في العمليات الأمنية، قد تشمل الحوادث فرقًا وعمليات متعددة، لكن المسؤولية تقع في النهاية على عاتق القادة المحددين. وهذا لا يتغير عندما يتم تقديم أنظمة الذكاء الاصطناعي.
عندما تعمل الأنظمة بشكل مستقل، فإن المسؤولية لا تختفي مع مشاركة الإنسان. لا يشرح الذكاء الاصطناعي أسبابه لمجلس الإدارة ولا يقدم الطمأنينة إلى الجهة التنظيمية. ولا تزال هذه المحادثات تجري مع المؤسسة، وفي معظم الحالات، مع رئيس أمن المعلومات (CISO).
هذا الواقع هو ما يعيد تشكيل المحادثات القيادية حول الذكاء الاصطناعي الوكيل. الإثارة المبكرة تفسح المجال لخط أكثر حذرا من الاستجواب. يبتعد التركيز عما يمكن أن تفعله التكنولوجيا ويتجه نحو ما يحدث عندما يحدث خطأ ما.
وهذا يجعل من الصعب التعامل مع الحكم الذاتي باعتباره قرارًا تقنيًا بحتًا. يجب أن يكون القادة واضحين بشأن من يملك هذه الأنظمة، ومقدار السلطة الممنوحة لهم، وأين من المتوقع أن يتدخل الحكم البشري. تكون هذه الحدود أكثر فعالية عندما يتم وضعها بشكل متعمد.
الوضوح هنا يغير كيفية الشعور بالاستقلالية. عندما يتم فهم المسؤولية، يصبح القادة في وضع أفضل للاعتماد على الأنظمة التي تعمل نيابة عنهم.
ما يساعد القادة على الثقة بما لا يستطيعون رؤيته
عندما تعمل الأنظمة خارج نطاق الإشراف البشري المباشر، تصبح الرؤية أمرًا بالغ الأهمية. فالقرارات التي تظهر دون سياق يمكن أن تجعل الفرق تشعر بعدم الارتياح، حتى عندما تبدو النتيجة معقولة.
لقد اعتاد متخصصو الأمن على العمل مع الأنظمة المعقدة، ولكن التعقيد وحده ليس هو المشكلة. ما يهم هو القدرة على رؤية كيفية التوصل إلى الاستنتاجات.
هذا هو المكان الذي تبدأ فيه إمكانية الملاحظة في لعب دور عملي. ولمنح المحللين والقادة شيئًا يرتكزون عليه، نحتاج إلى أنظمة يمكنها إظهار التقدم، وإظهار النتائج المؤقتة وترك مسارات التحقيق.
عندما يتم العمل على مدار ساعات أو أيام، فإن الرؤية تقلل من الشعور بالمخاطر. تبدو الإجراءات أقل غموضًا عندما يمكن تتبعها فور حدوثها.
يؤدي أيضًا خيار مقاطعة مهمة النظام أو إعادة توجيهها في منتصف المهمة إلى تغيير كيفية التمتع بالاستقلالية. إن معرفة أن الإنسان يمكن أن يتدخل يجعل الإشراف مقصودًا وليس رد فعل. بدأت الواجهات تعكس هذا التحول، حيث أصبح الذكاء الاصطناعي قادرًا على إظهار أسبابه أثناء التحقيقات بدلاً من تقديم إجابة واحدة في النهاية.
حيث لا يزال الحكم البشري هو الأكثر أهمية
في أي مركز عمليات أمنية، يكون للخبرة البشرية التأثير الأكبر عند نقطة اتخاذ القرارات. نظرًا لأن الذكاء الاصطناعي الوكيل يتولى المزيد من الأعمال المتكررة والتشغيلية في مركز العمليات الأمنية (SOC)، فإن الوقت المستغرق في جمع السياق الأساسي أو العمل من خلال قوائم انتظار التنبيه يبدأ في التلاشي.
وما يحل محله هو العمل الذي يعتمد بشكل أكبر على الحكم، مثل مراجعة القرارات وتشكيل سير العمل.
قد يكون هذا التغيير غير مريح، خاصة بالنسبة للفرق التي قامت ببناء الخبرة والمعرفة من خلال التكرار. وفي الوقت نفسه، فإنه يخلق فرصا جديدة. يتعرض المحللون المبتدئون للتفكير عالي المستوى في وقت مبكر، بينما يقضي كبار المحللين وقتًا أقل في مكافحة المشاكل ووقتًا أطول في تحسين جودة القرار عبر مركز العمليات الأمنية.
والنتيجة هي إعادة توزيع الأحكام، بدلاً من الحد من المشاركة البشرية. إن ما يتغير ليس الحاجة إلى الأشخاص، بل نوع عبء العمل الذي يتحملونه وأين يكون لهم التأثير الأكبر. يصبح السياق والتوجيه والإشراف أمرًا أساسيًا حيث تتولى الأنظمة المزيد من التنفيذ.
كيف تبدو الثقة في مركز العمليات الأمنية (SOC) المدعم بالذكاء الاصطناعي
يؤثر الذكاء الاصطناعي الوكيل بالفعل على كيفية عمل العمليات الأمنية. بالنسبة للقادة، تحول التحدي من القدرة إلى الثقة. والسؤال الآن هو ما إذا كان يمكن الاعتماد على هذه الأنظمة للعمل بما يتماشى مع الطريقة التي تتوقع بها المنظمة التعامل مع المخاطر.
الثقة تنمو من خلال الألفة. إن رؤية كيفية تصرف الأنظمة مع مرور الوقت، وفهم كيفية اتخاذ القرارات، ومعرفة أين تقع المسؤولية، كلها تلعب دورًا. وتزداد الثقة عندما يتمكن القادة من متابعة ما يحدث ويتمكن الخبراء من التدخل عند الحاجة.
ومن غير المرجح أن تصبح شركة نفط الجنوب مستقلة بشكل كامل. وسيستمر الأشخاص والأنظمة في العمل معًا بشكل وثيق، مع احتفاظ البشر بالمسؤولية والإشراف. وتتمثل مهمة قادة الأمن في تهيئة الظروف التي تجعل هذا التعاون يعمل بسلاسة ويمكن التنبؤ به.
إن مدى نجاحهم في إنشاء ثقافة التعاون هذه سيشكل مدى سهولة اعتماد الذكاء الاصطناعي الوكيل ومدى القيمة التي يقدمها في النهاية.
لقد أبرزنا أفضل منشئ مواقع الويب بالذكاء الاصطناعي.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات