التخطي إلى المحتوى

كشف تحقيق دام ستة أشهر في أدوات التطوير المدعومة بالذكاء الاصطناعي عن أكثر من ثلاثين ثغرة أمنية تسمح بتسريب البيانات، وفي بعض الحالات، تنفيذ التعليمات البرمجية عن بُعد. النتائج، الموضحة في تقرير بحثي IDEsaster، أظهر كيف يمكن التلاعب بوكلاء الذكاء الاصطناعي المضمنين في بيئة التطوير المتكاملة (IDEs) مثل Visual Studio Code ومنتجات JetBrains وZed والعديد من المساعدين التجاريين لتسريب معلومات حساسة أو تنفيذ تعليمات برمجية يتحكم فيها المهاجم.

وفقًا للبحث، كانت 100% من بيئات تطوير الذكاء الاصطناعي ومساعدي البرمجة التي تم اختبارها معرضة للخطر. تشمل المنتجات المتأثرة GitHub Copilot، وCursor، وWindsurf، وKiro.dev، وZed.dev، وRoo Code، وJunie، وCline، وGemini CLI، وClaude Code، مع ما لا يقل عن أربعة وعشرين من التهديدات الشائعة المعينة وإرشادات إضافية من AWS.

Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *