
تستثمر المؤسسات في كل صناعة في الذكاء الاصطناعي الوكيل لإطلاق العنان لمكاسب الإنتاجية والكفاءة. في الواقع، وجدت دراسة أجرتها شركة PWC مؤخرًا أن 79% من الشركات تستخدم وكلاء الذكاء الاصطناعي في وظيفة عمل واحدة على الأقل.
الشقوق في الأساس
يعمل Agentic AI من خلال إنشاء وكلاء يجمعون معلومات حول بيئتهم. يعتمد هؤلاء الوكلاء على واجهات برمجة التطبيقات (APIs) للوصول إلى البيانات واتخاذ القرارات.
تكمن المشكلة في أنه مع تسريع المؤسسات لطموحاتها في مجال الذكاء الاصطناعي بشكل متزايد، فإن عدد الاتصالات يرتفع بشكل كبير. إذا لم تتم إدارتها بعناية، فإن كل اتصال جديد يخلق نقاطًا أمنية عمياء محتملة.
ويجلب هذا مخاطر كبيرة، حيث أصبحت واجهات برمجة التطبيقات (APIs) نقطة الدخول الأساسية للهجمات الإلكترونية، مما أدى إلى أكثر من 40.000 حادث أمني خلال ستة أشهر فقط من العام الماضي.
عندما تفشل ضوابط أمان واجهة برمجة التطبيقات (API)، يمكن أن تكون العواقب فورية وواسعة النطاق. يمكن للمهاجمين استغلال نقاط نهاية واجهة برمجة التطبيقات المكشوفة للوصول إلى الملايين من سجلات المستخدمين، والتي يتم بعد ذلك تداولها وإعادة استخدامها عبر النظام البيئي لمجرمي الإنترنت، مما يسلط الضوء على التداعيات عندما لا يتم اتخاذ تدابير أمنية قوية لواجهة برمجة التطبيقات.
لا يمكنك تأمين ما لا يمكنك رؤيته
في حين أن الذكاء الاصطناعي الوكيل يوفر مكاسب إنتاجية كبيرة، فإنه يزيد أيضًا من المخاطر الأمنية الحالية لواجهات برمجة التطبيقات. يؤدي نشر الذكاء الاصطناعي الوكيل دون إدارة وإشراف مركزي إلى ظهور “الذكاء الاصطناعي الظلي”، مما يؤدي إلى خلق نقاط عمياء إضافية.
وسرعان ما يترجم الافتقار إلى الرؤية والتحكم إلى حوادث أمنية، حيث يمكن للوكلاء المستقلين استخدام واجهات برمجة التطبيقات للوصول إلى البيانات التي يحتمل أن تكون حساسة وتنفيذ سير العمل دون إشراف بشري. على سبيل المثال، يمكن لوكيل الذكاء الاصطناعي الذي يتعامل مع طلبات العملاء أن يشارك عن غير قصد بيانات الموارد البشرية أو البيانات المالية خارجيًا إذا لم يتم تقييد وصوله بشكل صحيح.
يمكن لأي نتيجة غير مقصودة أن تخرج عن نطاق السيطرة بشكل أسرع بكثير من قدرة البشر على الاستجابة، مما يترك فرق الأمن تتدافع لجمع القطع.
ولسوء الحظ، أصبحت حوادث الذكاء الاصطناعي الظل شائعة بشكل متزايد، حيث كشف تقرير حديث أن 71٪ من موظفي المملكة المتحدة استخدموا أدوات الذكاء الاصطناعي غير المعتمدة للمستهلك، مثل مساعدي الدردشة الآلية، في العمل.
وبعيدًا عن الذكاء الاصطناعي الظلي، يمكن للبنية التحتية التي يعتمد عليها العملاء أيضًا أن تخلق ثغرات أمنية. “واجهات برمجة تطبيقات الزومبي”؛ الاتصالات التي كان من المفترض أن يتم إيقاف تشغيلها ولكنها لا تزال متاحة ولم يتم صيانتها بشكل نشط، يمكن استغلالها من قبل مجرمي الإنترنت من خلال عملاء الذكاء الاصطناعي.
يمكن للمهاجمين نشر مدخلات ضارة للعملاء في رسائل مطالبة يمكن أن تصيب الأنظمة. مع تطور الأعمال وتغير مجموعات البيانات، يمكن للعملاء غير الموثقين أيضًا كشف معلومات حساسة وتوسيع مساحات الهجوم دون أن يلاحظ أحد، مما يجعلهم هدفًا رئيسيًا.
إغلاق الباب الخلفي
لضمان أن عمليات نشر الذكاء الاصطناعي لا تؤدي إلى تفاقم المخاطر الأمنية، تحتاج المؤسسات إلى سياسات قوية وأسس تكنولوجية متينة. وفي قلب هذا يوجد مركز بيانات مركزي يعمل كمصدر واحد للحقيقة.
وهذا يتيح لوكلاء الذكاء الاصطناعي إمكانية الوصول بسهولة إلى البيانات المعتمدة والمستخدمة بشكل متكرر، مع تقليل مخاطر اتصالهم بمعلومات حساسة أو لم يتم فحصها.
ويجب أن تتم إدارة وكلاء الذكاء الاصطناعي بنفس الطريقة التي تتم بها إدارة الموظفين من البشر: حيث يتم منحهم الوصول فقط إلى المعلومات التي يحتاجون إليها لأداء دورهم، وإدارتهم بشكل صحيح، وتعليمهم سياسات العمل. كما يحتاجون أيضًا إلى مراجعات وفحوصات منتظمة، تقريبًا مثل وظيفة الموارد البشرية، لضمان استمرارهم في العمل بأمان وبشكل أخلاقي.
تمنح منصة إدارة الذكاء الاصطناعي المركزية المؤسسات الرؤية والتحكم في جميع الوكلاء طوال دورة حياتهم، مما يقلل من مخاطر واجهات برمجة التطبيقات “الزومبي” ويحافظ على إمكانية التدقيق الكامل.
وهذا مهم بشكل خاص مع تشديد اللوائح، مما يتطلب من الشركات إظهار مسار كامل لنشر الذكاء الاصطناعي الوكيل، وصولاً إلى كل مجموعة بيانات يصل إليها الوكيل لإكمال المهمة.
ومن خلال الحوكمة القوية والإشراف الواضح على كيفية نشر الذكاء الاصطناعي، يمكن للشركات توسيع نطاق طموحاتها بأمان والاستفادة من مكاسب الإنتاجية.
التحضير للمستقبل الوكيل
مع تزايد انتشار الوكلاء عبر الشركات، أصبح أمان واجهة برمجة التطبيقات (API) وإدارة الذكاء الاصطناعي أكثر أهمية من أي وقت مضى. وبدون حوكمة ورقابة قوية، يمكن للأنظمة الذاتية أن تسبب مخاطر أمنية بسرعة وعلى نطاق أوسع مما تستطيع المؤسسات مواكبته.
ومع ذلك، مع تطبيق ممارسات أمنية قوية، يمكن للمؤسسات تقليل هذه المخاطر وإطلاق العنان لوعد الذكاء الاصطناعي بالإنتاجية المفرطة. وأولئك الذين يفعلون ذلك سيكونون في وضع أفضل للاستفادة من الإمكانات التحويلية لهذه التكنولوجيا سريعة التطور، والابتعاد عن حالات الاستخدام البسيطة إلى شيء ثوري.
لقد عرضنا أفضل دورة للأمن السيبراني عبر الإنترنت.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات