
عملاء الذكاء الاصطناعي لا يطرقون الباب قبل الدخول. فهم يكتبون التعليمات البرمجية، ويطلقون مسارات العمل، ويصلون إلى واجهات برمجة تطبيقات الإنتاج مباشرةً – وفي معظم المؤسسات، لا يعلم أحد في فريق الأمان بوجودهم.
وهذا ليس خطرا في المستقبل. أظهر استطلاع حديث أن 48% من المتخصصين في مجال الأمن يتوقعون بالفعل أن يصبح الذكاء الاصطناعي العميل هو أكبر ناقل للهجوم بحلول نهاية العام، مما يصنفه فوق التزييف العميق وكل التهديدات الأخرى في القائمة.
وتيرة الانتشار تجعل الأمر أسوأ. عندما انتشرت أداة Moltbot، وهي أداة ذكاء اصطناعي مفتوحة المصدر، على نطاق واسع، قامت بربط 150 ألف عميل مستقل على شبكة مشتركة بين عشية وضحاها تقريبًا.
يستمر المقال أدناه
الرئيس التنفيذي والمؤسس المشارك لشركة Appknox.
وقد أشار الباحثون الأمنيون إلى ذلك باعتباره مخططًا لما يبدو عليه الوصول غير الخاضع للرقابة للوكلاء على نطاق واسع: الكشف عن البيانات الخاصة، وقنوات الاتصال الخارجية، وهجمات التنفيذ المتأخر المجمعة من مدخلات تبدو غير ضارة من تلقاء نفسها.
إن فجوة الحوكمة بين ما يمكن لعملاء الذكاء الاصطناعي الوصول إليه وما يمكن لفرق أمن الإنترنت مراقبته فعليًا هي المكان الذي يتزايد فيه سطح الهجوم.
حركة المرور التي لن تظهرها تحليلاتك أبدًا
عادةً ما يتم إنشاء واجهات برمجة تطبيقات الأجهزة المحمولة على افتراض أن الكيان الذي يقدم الطلبات هو إنسان يستخدم تطبيقك. منطق المصادقة، وتحديد المعدل، ومراقبة الجلسة، كلها مصممة حول هذا النموذج العقلي. ومع ذلك، فإن عملاء الذكاء الاصطناعي يكسرون هذا الافتراض.
يتجاوز الوكلاء طبقة واجهة المستخدم بالكامل. وهي تتفاعل مباشرة مع واجهات برمجة التطبيقات، وتعمل خارج المعايير السلوكية التي ينشئها المستخدمون البشريون. وهذا يعني أنها لا تنشئ بيانات الجلسة أو أنماط التنقل أو إشارات التفاعل التي تستخدمها أدوات التحليلات لتحديد الوضع الطبيعي. تبدو حركة المرور الخاصة بهم مشروعة على مستوى واجهة برمجة التطبيقات. غالبًا لا يظهر في السجلات التي تراقبها فرق الأمان فعليًا.
والمشكلة تتفاقم بسرعة. الهويات غير البشرية – حسابات الخدمة، ومفاتيح واجهة برمجة التطبيقات، وأدوات التشغيل الآلي، ووكلاء الذكاء الاصطناعي – يفوق عددها الآن عدد المستخدمين البشريين بما يصل إلى 50 إلى 1، ومع ذلك فإن معظمها يعمل خارج أي دورة حياة للحوكمة. لا يوجد مالك واضح. لا يوجد تاريخ انتهاء الصلاحية. لا مراقبة. الهويات التي تقود معظم نشاط واجهة برمجة التطبيقات (API) هي تلك ذات الرؤية الأقل المرتبطة بها.
وضع مولتبوت وجهًا على التهديد. حددت شركة Palo Alto Networks هجمات الحقن الفوري المخبأة داخل محتوى عادي، وهي تعليمات توجه العملاء بهدوء لتسريب بيانات خاصة أو إنشاء حمولات تأخير التنفيذ من مدخلات تبدو غير ضارة عند وصولها. لا توجد تنبيهات، ولا حالات شاذة، مجرد وكيل يفعل بالضبط ما قيل له.
كيف يفتح المطورون الباب عن غير قصد
يقوم عملاء الذكاء الاصطناعي بضرب الإنتاج قبل أن تعرف فرق الأمن بوجودهم. إن اعتماد Shadow AI والتكامل السريع وغير المدقق في كثير من الأحيان لخوادم MCP (بروتوكول السياق النموذجي) مفتوحة المصدر في سير عمل التطوير يعني أن النشر يتجاوز الرقابة بهامش كبير.
يحتاج الوكلاء إلى وصول واسع النطاق إلى وظائفهم، وبمجرد منح هذا الوصول، لا تتم مراجعته أو تقليله أبدًا بعد النشر. وينتهي الوكيل المخصص لوظيفة واحدة بوصول دائم يتجاوز بكثير ما تتطلبه هذه الوظيفة.
الكود نفسه يحمل مخاطر أيضًا. يمكن للتعليمات البرمجية المكتوبة بواسطة الذكاء الاصطناعي أن تجتاز كل فحص فردي وتظل عرضة للخطر لأن العيوب تكمن في كيفية تفاعل مكوناتها في وقت التشغيل. تظهر الأخطاء المنطقية في الفراغات بين الأنظمة، وليس بداخلها.
تعمل عمليات تكامل الجهات الخارجية على توسيع نطاق التعرض بشكل أكبر. يتفاعل الوكلاء مع واجهات برمجة تطبيقات الدفع والتحليلات والمراسلة بموجب نفس افتراضات الثقة التي لا تخضع للتدقيق والتي تجعل الاتصالات الخارجية مسؤولية بالفعل، وهي مسؤولة عن 35% من الخروقات الأمنية الأكثر شيوعًا.
يضع تطبيق Deepseek Android وجهًا لهذا الأمر. إنه بالضبط نوع المنتج الذي تتوقع أن يتمتع بأمانه. لم يحدث ذلك. تم اكتشاف ست نقاط ضعف خطيرة — تكوين الشبكة غير الآمنة وعدم التحقق من صحة طبقة المقابس الآمنة (SSL) — في أحد تطبيقات الذكاء الاصطناعي الرائدة. نفس فئات المخاطر التي من المفترض أن تزيلها أدوات الذكاء الاصطناعي.
ما يتطلبه وكلاء الذكاء الاصطناعي الحاكمون فعليًا
نقطة البداية هي قبول أن الاختبار في الوقت المناسب لا يعمل مع الوكلاء. إنهم يعملون بشكل مستمر وديناميكي، لذا فإن لقطة ثابتة لسلوكهم لا تخبرك تقريبًا بأي شيء عما يفعلونه بعد ساعة. يلتقط pentest التقليدي لحظة من الزمن. يقوم الوكلاء بإنشاء المخاطر في كل لحظة بعدها. يجب أن تتوافق التغطية الأمنية مع هذا الإيقاع.
ومن هناك، انظر إلى الأذونات. الامتياز الأقل ليس مبدأ مخصصًا للمستخدمين البشريين. وهذا ينطبق على كل هوية غير بشرية في بيئتك. يمكنك الوصول إلى وكيل النطاق بإحكام منذ البداية، وبناء عملية مراجعة لا تعتمد على تذكر شخص ما للقيام بذلك يدويًا.
يجب أن تتطور المراقبة أيضًا. يتجاهل اكتشاف الحالات الشاذة المستندة إلى الحجم معظم حالات إساءة الاستخدام التي يحركها الوكيل. ما يهم هو الأنماط السلوكية، مثل تسلسلات استدعاء واجهة برمجة التطبيقات (API) غير العادية، ومجموعات الوصول غير المتوقعة إلى البيانات، وعمليات التكامل التي يتم إطلاقها خارج المعلمات العادية.
ولأن الوكلاء يعملون بسرعة الآلة، فإن المراقبة التي يراجعها الإنسان وحدها لن تتمكن من اكتشافها في الوقت المناسب. التحقق الذاتي، حيث يقوم الذكاء الاصطناعي باستكشاف بيئتك بشكل مستمر بنفس الطريقة التي يفعلها العميل الضار، هو ما يسد هذه الفجوة.
وينطبق نفس المنطق داخل خط أنابيب التطوير. يجب تضمين نقاط التفتيش الأمنية في CI/CD حتى يتم التحقق من صحة التعليمات البرمجية المكتوبة بواسطة الذكاء الاصطناعي أو التي يتم تشغيلها بواسطة الذكاء الاصطناعي قبل أن تصل إلى مرحلة الإنتاج، وليس بعد ذلك.
وأخيرًا، تعامل مع الوكلاء على أنهم فئة هوية خاصة بهم. إنهم ليسوا مستخدمين، وليسوا برامج تقليدية. إنهم بحاجة إلى نفس صرامة الحوكمة المطبقة على واجهات برمجة التطبيقات التابعة لجهات خارجية وعمليات التكامل الخارجية، والتي لا تزال معظم المؤسسات تعمل على تنفيذها بشكل صحيح.
عملاء الذكاء الاصطناعي لن يرحلوا. وستكون الفرق التي تحكمها بشكل استباقي في وضع أفضل من تلك التي تتعامل معها كأدوات سلبية. يعد سد الفجوة بين الوصول والرقابة قرارًا يتعلق بسير العمل بقدر ما هو قرار أمني.
تحقق من قائمتنا لأفضل برامج حماية نقطة النهاية.

التعليقات