
يتحول الذكاء الاصطناعي بسرعة من تجربة المؤسسات التكنولوجية إلى تجربة من المتوقع أن تستخدمها.
وفي العديد من الشركات، يعد هذا بالفعل جزءًا من العمليات اليومية، وهو مدمج في الأدوات التي يعتمد عليها الموظفون ومضمن في الأنظمة الخلفية.
ما يميز هذه اللحظة ليس فقط السرعة التي يتم بها اعتماد الذكاء الاصطناعي، ولكن مدى كونه أساسيًا لكيفية عمل الموظفين.
يستمر المقال أدناه
هناك الكثير من الأسباب للتفاؤل. وجدت دراسة حديثة أجرتها شركة KPMG أنه من بين 85% من المؤسسات التي تقوم بالفعل بدمج الذكاء الاصطناعي في عملياتها، زادت الإنتاجية بمعدل 35% بعد إدخال وكلاء الذكاء الاصطناعي في القوى العاملة.
تفتح الفرق فرصًا جديدة لتسريع سير العمل، وأتمتة المهام المتكررة، وإظهار الرؤى التي كانت في السابق تستغرق وقتًا أطول بكثير للكشف عنها.
ومع ذلك، مع تزايد ترسيخ الذكاء الاصطناعي في جميع أنحاء المؤسسة، يجب على المؤسسات اتباع نهج أكثر تعمداً في إدارته.
وينطبق هذا بشكل خاص عندما يتعلق الأمر بالحفاظ على الهويات آمنة، حيث ستحدد القرارات المتخذة اليوم مدى أمان الذكاء الاصطناعي في التوسع في المستقبل.
تأمين القوى العاملة في مجال الذكاء الاصطناعي
حتى الآن، ركزت معظم المحادثات على البشر الذين يستخدمون الذكاء الاصطناعي. لقد سيطر المساعدون ومساعدو الطيارون الذين يجلسون جنبًا إلى جنب مع الموظفين على عناوين الأخبار، وذلك لسبب وجيه. إنهم يغيرون كيفية كتابة الأشخاص للمحتوى، وتطوير التعليمات البرمجية، وتحليل البيانات، والتواصل مع الآخرين. لكن هذا ليس سوى جزء من القصة.
هناك تحول أكثر هدوءًا يجري حيث لم يعد الذكاء الاصطناعي يدعم القوى العاملة فحسب، بل أصبح جزءًا مميزًا منها. نحن في المراحل الأولى من قيام عملاء الذكاء الاصطناعي المستقلين بتولي المهام بشكل مستقل، والوصول إلى التطبيقات، وسحب البيانات، واتخاذ القرارات بمشاركة بشرية قليلة أو معدومة.
وفي حين أنه من المغري رؤيتهم ببساطة على أنهم التطور التالي للمساعدين، إلا أنهم شيء مختلف تمامًا. يعمل هؤلاء الوكلاء كجهات فاعلة مستقلة داخل البيئة ويجب أن يستخدموا بيانات الاعتماد والأذونات الخاصة بهم، مما يعني أنهم يتصرفون مثل الموظفين الرقميين أكثر من الأدوات.
وهذا التحول مهم لأن معظم المؤسسات لا تزال تتعامل مع هؤلاء الوكلاء مثل البرامج، حتى عندما يتحملون مسؤوليات تشبه إلى حد كبير العمل البشري. على سبيل المثال، يتخذ العديد من وكلاء الذكاء الاصطناعي الطريق السهل ويطلبون من الإنسان إعادة استخدام بيانات الاعتماد والأذونات الحالية الخاصة بهم.
لماذا تلعب أنظمة الهوية دور اللحاق بالركب؟
لعقود من الزمن، تم تصميم إدارة الهوية والوصول (IAM) حول افتراض بسيط: المستخدم الأساسي هو الإنسان.
حتى عندما قامت المؤسسات بتوسيع IAM لتشمل حسابات الخدمة وهويات الأجهزة، كانت تلك الهويات مرتبطة بأنظمة يمكن التنبؤ بها تؤدي مهام ضيقة ومتكررة.
العملاء المستقلون يعطلون هذا النموذج. إنهم قادرون على التكيف، ويعملون من خلال المهام بطرق مرنة وغير موحدة، ويعملون بسرعة الآلة، وقد يتعاملون مع أنظمة أكثر بكثير مما قد يفعله أي موظف واحد على الإطلاق.
وعلى الرغم من ذلك، تحاول العديد من البيئات ضغطهم في أطر عمل لم يتم تصميمها أبدًا للعاملين الرقميين المستقلين الذين يتخذون القرار.
يُظهر تقرير بحثي حديث حول البيانات وأمن الذكاء الاصطناعي لعام 2025 أن 16% فقط من المؤسسات تتعامل مع الذكاء الاصطناعي باعتباره فئة هوية خاصة بها مع سياسات مخصصة.
والنتيجة هي فجوة متزايدة بين كيفية تصرف هؤلاء العملاء وكيفية إدارة هويتهم، مما يخلق نقاطًا عمياء يكون المهاجمون على استعداد لاستغلالها.
لا يوجد نظام للموارد البشرية للذكاء الاصطناعي
تبدأ هذه الفجوة في اللحظة التي تحاول فيها إحدى المنظمات ضم وكيل مستقل. عندما ينضم موظف جديد، يقوم برنامج الموارد البشرية بتشغيل إنشاء الهوية، وتعيين الأدوار، وتوفير الوصول، وتوضيح الملكية. يوجد سجل عن هوية الشخص، وما هو المسؤول عنه، ومن يديره.
يصل الوكلاء المستقلون بدون أي من هذه البنية. يتم إنشاؤها من قبل المطورين، أو تضمينها في سير العمل، أو تقديمها من خلال منصات جديدة، غالبًا بدون أي رؤية مركزية أو عملية متسقة. لا يوجد نظام موارد بشرية للذكاء الاصطناعي، ولا يوجد مدير افتراضي، ولا يوجد ضمان بأن أي شخص مسؤول عما يمكن لهذا الوكيل الوصول إليه أو القيام به.
وهذا هو المكان الذي يجب أن تتطور فيه حوكمة الهوية. تحتاج المؤسسات إلى اكتشاف هؤلاء الوكلاء وتسجيلهم ومنحهم هويات مميزة مرتبطة بملكية الأعمال الواضحة.
يجب أن يكون لكل وكيل مستقل مالك واضح يفهم سبب وجوده، وما هو المقصود منه، وما هي الأنظمة التي يجب أن يلمسها. وبدون هذا الأساس، يصبح من الصعب الإجابة حتى على الأسئلة الأساسية حول عدد العملاء الموجودين، ومن يملكهم، وما إذا كان وصولهم لا يزال مبررًا.
ونظراً للتقديرات التي تشير إلى أن ما يقرب من 3 من كل 4 شركات تخطط لنشر الذكاء الاصطناعي الوكيل في العامين المقبلين، مع وجود شركة واحدة فقط من كل 5 شركات لديها نموذج حوكمة ناضج لهذه الوكلاء المستقلين – وفقًا لشركة ديلويت – فإن هذه التحديات من المتوقع أن تتوسع.
التحدي المتمثل في الحكم بسرعة الآلة
إن الصعود هو البداية فقط. بمجرد وجود الوكلاء في البيئة، تكمن الصعوبة الحقيقية في التحكم فيما يمكنهم فعله ومتى. من السهل التركيز على تأمين النماذج أو التعليمات البرمجية، ولكن الحوكمة تتعلق في النهاية بإدارة الهويات والامتيازات بما يتماشى مع غرض العمل.
إذا كان بإمكان الوكيل التصرف نيابة عن المنظمة، فيجب أن يتم التحكم في هويته بنفس الصرامة التي يخضع لها الموظف البشري. وفي كثير من الحالات، يجب أن يتم التحكم فيها بشكل أكثر إحكامًا، حيث يعمل وكلاء الذكاء الاصطناعي بشكل مستقل ومستمر وعبر حدود الثقة بسرعة الآلة وحجمها. وهذا يجعل الوصول المفرط في الامتيازات خطيرًا بشكل خاص.
لقد غير الذكاء الاصطناعي بشكل جذري نموذج أمن الهوية. يتم تنفيذ الإجراءات المميزة بشكل متزايد عبر الأنظمة البيئية المختلطة – بدءًا من الأنظمة المحلية والسحابية وحتى قواعد البيانات وSaaS – وفقدت المؤسسات نقطة التحكم المركزية في الوصول المميز الذي كانت تعتمد عليه في السابق.
لم يعد بإمكان المؤسسات الاعتماد على الوصول الدائم الدائم. ويجب عليهم التحول نحو النماذج الديناميكية والزائلة. تساعد بيانات الاعتماد قصيرة الأجل، والوصول في الوقت المناسب، والأذونات ذات النطاق المحكم، والمراقبة المستمرة على ضمان قدرة الوكلاء على إكمال مهام محددة في وقت العمل دون الاحتفاظ بصلاحيات أكثر مما يحتاجون إليه.
يدعم هذا النوع من النهج الابتكار مع تقليل نصف قطر الانفجار إذا حدث خطأ ما.
إدارة مخاطر الرحيل
لا تقل أهمية عملية الإعداد والحوكمة عن عملية النقل. عندما يغادر أحد الأشخاص المنظمة، يتم إلغاء الوصول وإغلاق الحسابات. مع الوكلاء المستقلين، غالبًا لا يوجد حدث واضح لدورة الحياة يؤدي إلى نفس عملية التنظيف.
قد يتقاعد الوكيل بهدوء، أو يتم استبداله بشيء جديد، أو ببساطة يتم نسيانه. إذا لم يكن هناك أحد يراقب، فيمكن أن تظل تلك الهوية في مكانها دون الحاجة إلى الوصول إليها بعد الآن. يصبح الوكيل غير المُدار الذي يتمتع بالامتيازات المتبقية هدفًا سهلاً ونقطة دخول مخفية إلى الأنظمة المهمة.
يعد توسيع عمليات الاكتشاف ودورة الحياة لتحديد العوامل الخاملة أو المعزولة، وإزالتها على الفور، أمرًا ضروريًا للحفاظ على نظافة البيئة وتقليل المخاطر طويلة المدى.
ولا تزال الرقابة البشرية عنصرا أساسيا
وحتى في عالم الأنظمة المستقلة، يظل البشر محوريين. يجب في النهاية ربط كل وكيل بشخص أو فريق مسؤول عن سلوكه. يجب أن تتطلب الإجراءات الحساسة موافقة الإنسان. يجب أن يكون النشاط واضحًا وقابلاً للتدقيق حتى تتمكن الفرق من فهم ليس فقط ما حدث، ولكن لماذا.
الحكم الذاتي لا يزيل المساءلة. وإذا كان هناك أي شيء، فهو يرفع مستوى الرقابة، لأن وتيرة وحجم النشاط الذي تقوده الآلة يترك مساحة أقل للخطأ. إن المؤسسات التي تبني ملكية واضحة وضوابط بشرية في برامج الهوية الخاصة بها ستكون في وضع أفضل بكثير لكسب الثقة في كيفية استخدام الذكاء الاصطناعي.
IAM للقوى العاملة الدائمة
إن مستقبل العمل لا يتعلق فقط باستخدام البشر للذكاء الاصطناعي. يتعلق الأمر بقوى عاملة مختلطة يعمل فيها الأشخاص والوكلاء المعتمدون على الذكاء الاصطناعي جنبًا إلى جنب، ويساهم كل منهم في كيفية عمل المنظمة. ومع قيام 62% من المؤسسات بالفعل بتجربة وكلاء الذكاء الاصطناعي، فإن هذا المستقبل أصبح حقيقة بسرعة.
سوف يتجاوز أولئك الذين يزدهرون النظر إلى الوكلاء المستقلين كبرامج خلفية ويبدأون في إدارتهم كموظفين رقميين. سيقومون بإنشاء عمليات تأهيل تتماشى مع الموارد البشرية، وتنفيذ أطر الحوكمة التي يمكنها مواكبة عمليات سرعة الآلة، وفرض ممارسات خارج الخدمة التي تضمن عدم ترك أي نقاط وصول مكشوفة.
لقد حان الوقت لتجهيز برامج الهوية والوصول للقوى العاملة التي لا تلتزم بالوقت، والاعتراف بأنه في عصر الذكاء الاصطناعي المستقل، تمتد الهوية والتفويض إلى ما هو أبعد من الأشخاص وحدهم.
اقرأ قائمتنا لأفضل برامج إدارة الموظفين.

التعليقات