
لقد عملت الشركات لعقود من الزمن على تطوير بنية الأمن السيبراني الخاصة بها والحماية من خروقات البيانات. لقد شكل ازدهار اعتماد GenAI تحديًا لجهود الأمن السيبراني في العامين الماضيين، ولكن ظهور الوكلاء
لقد قدم الذكاء الاصطناعي عقبة أكبر. مع اكتساب وكلاء الذكاء الاصطناعي القدرة على اكتشاف الأدوات بشكل مستقل، والتعاون مع وكلاء آخرين، واتخاذ القرارات بسرعة الآلة، تواجه المؤسسات تهديدًا جديدًا: اختراقات العملاء.
نائب الرئيس لحلول الذكاء الاصطناعي للمؤسسات في AnswerRocket.
بفضل بروتوكولات مثل بروتوكول سياق النموذج (MCP) الخاص بشركة Anthropic، وبروتوكول وكيل إلى وكيل (A2A) الخاص بشركة Google، وبروتوكول اتصال الوكيل (ACP) الخاص بشركة IBM، والتي تتيح لعملاء الذكاء الاصطناعي التواصل بشكل مباشر، فإن المشهد الأمني يتطور بسرعة.
تعمل هذه العوامل المستقلة بسرعات تتجاوز بكثير قدرات المراقبة البشرية، وغالبًا ما يكون لديهم إمكانية الوصول إلى الأنظمة الحساسة.
لقد تجاوزنا المآزق الأمنية الأساسية للذكاء الاصطناعي (على سبيل المثال، هل ستقوم هذه النماذج بتدريب منافسي باستخدام بياناتي؟).
أصبحت المؤسسات الآن واثقة بشكل عام من أن نشر نماذج كبيرة ضمن بيئات سحابية خاصة آمنة يوفر حماية مماثلة لقواعد البيانات السحابية التقليدية مع تطبيق الإدارة المناسبة.
هناك قلق جديد اليوم. في عصر الذكاء الاصطناعي متعدد الوكلاء، تستدعي النماذج نماذج أخرى، مما يؤدي إلى إنشاء جميع أنواع أسطح الهجوم الجديدة. إن منح النماذج مزيدًا من الاستقلالية لتحقيقها يعني أيضًا منحها المزيد من المفاتيح لمملكة البيانات.
نقاط الضعف في MCP وA2A وACP
كانت خروقات البيانات التقليدية تتعلق بالوصول غير المصرح به إلى المعلومات. تتعلق انتهاكات الوكيل بسلوك الوكيل غير المصرح به أو غير المقصود.
وهذا يعني وصول الوكلاء إلى البيانات الخاطئة، أو إساءة تفسير المعلومات المهمة، أو إنشاء سلاسل اتصال ضعيفة بين الأنظمة.
في معظم الأحيان، لا تستطيع النماذج الحصول على البيانات من تلقاء نفسها. لذا، يحتاج الوكلاء إلى برامج وأشخاص لبدء العمل، ووضع البيانات موضع التنفيذ.
تسمح البروتوكولات مثل MCP للعملاء بالعثور على عوامل مفيدة أخرى واستخدامها للمتابعة، ولكن هل هذه الترابطات آمنة وما هي الأجزاء الجديدة من سطح الهجوم؟
يجلب كل من MCP وA2A وACP اهتماماتهم الفريدة.
لنبدأ مع MCP. يمكّن MCP الوكلاء من اكتشاف الأدوات ديناميكيًا، والذهاب إلى ما هو أبعد من نقاط النهاية الثابتة لواجهات برمجة التطبيقات التقليدية. على الرغم من أن هذا يسمح بالمرونة، إلا أنه قد يعني أيضًا تفاعل العملاء مع أدوات غير معروفة أو لم يتم التحقق منها، مما يزيد من خطر هجمات انتحال الشخصية.
بدون آليات التحقق المضمنة، يتطلب MCP طبقات أمان خارجية لجعله قابلاً للتطبيق في إعدادات المؤسسة. تحتاج إلى إضافة طبقات الحماية الخاصة بك للتأكد من أنها جاهزة للاستخدام في المؤسسة.
التالي هو A2A. يثير A2A أسئلة حول المساءلة والتحكم عندما يتفاعل الوكلاء مع البائعين الآخرين. ومن المسؤول عن القرارات المتخذة بشكل مشترك؟ هل الاتصالات آمنة؟
ما هي النماذج المعنية، وهل هي عرضة للانجراف؟ قد لا تكتشف المراقبة التقليدية بيانات الملكية المضمنة في ملخصات الذكاء الاصطناعي، مما يجعل من الصعب ضمان الحوكمة.
هجمات الذكاء الاصطناعي الوكيل سريعة ومدمرة
يعمل الذكاء الاصطناعي بشكل أسرع بكثير من البشر. وهذا يعني أنه عندما تسوء الأمور مع العملاء، فإن ذلك يحدث بسرعة الآلة. تتجاوز هجمات الذكاء الاصطناعي الوكلاء عمليات الحقن السريعة البسيطة. بشكل عام، يحاول المهاجمون القيام بواحد على الأقل من ثلاثة أشياء:
1) استخراج بنية الوكيل لتعيين بنية الذكاء الاصطناعي بأكملها للمؤسسة، 2) سرقة تعليمات الوكيل ومخططات الأدوات للكشف عن منطق الأعمال ومنهجيات الملكية، و3) استغلال التكوينات الخاطئة للأداة للوصول إلى شبكة الشركة.
يمكن أن يحدث هذا بعدة طرق في العالم الحقيقي. خذ بعين الاعتبار السيناريو التالي: تقوم شركة خدمات مالية بنشر وكيل الذكاء الاصطناعي للمساعدة في سداد مدفوعات البائع.
يكتشف أحد المهاجمين أن بإمكانه أن يطلب من الوكيل “التحقق من تفاصيل الدفع” لبائع مزيف، ثم يقنعه ببدء “معاملة اختبارية” بقيمة دولار واحد. وبمجرد نجاحها، فإنها تتصاعد إلى مبالغ أكبر من خلال صياغة الطلبات على أنها “موافقات تنفيذية عاجلة”.
إليك مثال آخر يمكن أن يحدث في أي قطاع تقريبًا. في نظام متعدد الوكلاء حيث يقوم وكيل تحليل البيانات بتغذية الرؤى إلى وكيل الإستراتيجية، يقوم المهاجمون بتسميم مخرجات وكيل التحليل بتفسيرات متحيزة بمهارة.
وعلى مدار أسابيع، يؤدي ذلك إلى قيام وكيل الإستراتيجية بالتوصية بقرارات عمل سيئة بشكل متزايد، وكل ذلك بينما يبدو أنه يعمل بشكل طبيعي.
التحكم هو المفتاح لاعتماد الذكاء الاصطناعي الوكيل بأمان
كيف يمكن للشركات استخدام الذكاء الاصطناعي الوكيل بأمان؟ الأمر كله يتعلق بالسيطرة والحفاظ عليها. ابدأ بهذه الخطوات الخمس: مركزية الوصول إلى نماذج الذكاء الاصطناعي: امنح الجميع حقوق استخدام النماذج، ولكن من خلال بوابة خاضعة للمراقبة والقياس يمكنك التحكم فيها.
الاستفادة من أدوات أداة التوسعة الفائقة: قم بتطبيق الأدوات المتاحة من أداة التوسعة الفائقة لديك، مع العلم أنك لست المؤسسة الوحيدة التي تعاني من هذه المشكلات. لكن كن حذرًا بشأن منحهم السيطرة الكاملة لاختيار مثيلات نموذج الذكاء الاصطناعي الفعلية لك، دون رأيك.
التحقق من امتثال البائع: تأكد من امتثال البائعين لديك لاستراتيجيتك، باستخدام الوصول إلى البوابة الخاصة بك لمنطق الذكاء الاصطناعي المدمج. توحيد المعايير وتوحيدها وتوحيدها: توحيد المعايير على الكتل الكبيرة مثل تقارير تكاليف الذكاء الاصطناعي والتقييمات واختبار انحراف النماذج.
إنشاء مستودع: قم بإنشاء مستودع للموجهات والأدوات ومتجهات التضمين التي تتميز بسهولة إدارتها وتوصيلها، مثل مصادر البيانات الخاصة بأدوات إعداد التقارير والصادرات.
يقدم Agentic AI قيمة تحويلية، مما يزيد من عائد الاستثمار لـ GenAI “التقليدي” بشكل كبير. لا ينبغي للشركات أن تكون خائفة أو بطيئة في اعتماد الوكلاء. إنهم فقط بحاجة إلى أن يكونوا مدروسين.
قم ببناء الأمان في أساس البيئات متعددة الوكلاء. مركزية التحكم دون خلق اختناقات. مراقبة كل شيء دون إبطاء أي شيء.
يتطلب التحول من منع خروقات البيانات إلى منع خروقات العملاء تفكيرًا جديدًا ونماذج حوكمة جديدة.
لكن الأساسيات تظل قائمة: معرفة ما يحدث في أنظمتك، والتحكم في من لديه حق الوصول، وبناء الأمان في الأساس بدلاً من تثبيته بعد ذلك.
لقد عرضنا أفضل VPN للأعمال.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات