- تكتشف BeyondTrust Phantom Labs ثغرة خطيرة في إدخال الأوامر في ChatGPT Codex الخاص بـ OpenAI
- تسمح الثغرة الأمنية للمهاجمين بسرقة رموز GitHub OAuth المميزة عبر أسماء الفروع الضارة
- تم تصحيح OpenAI من خلال التحقق من صحة الإدخال بشكل أقوى، والهروب من الصدفة، وعناصر التحكم في الرمز المميز
ادعى الخبراء أن ChatGPT Codex الخاص بـ OpenAI يحمل ثغرة أمنية حرجة في حقن الأوامر والتي سمحت لممثلي التهديد بسرقة رموز مصادقة GitHub الحساسة.
هذا وفقًا لقسم الأبحاث في BeyondTrust، Phantom Labs، الذي ساعد عمله OpenAI على تحديد الخلل وتصحيحه.
ChatGPT Codex هي إحدى ميزات البرمجة داخل برنامج الدردشة الشهير الذي يساعد المستخدمين على كتابة البرامج وتحريرها باستخدام تعليمات باللغة البسيطة. يمكن للمستخدمين تحويل طلبات اللغة البشرية إلى تعليمات برمجية صالحة للعمل أو يمكنهم اقتراح إصلاحات وتحسينات بنفس الطريقة.
يستمر المقال أدناه
كيفية التحكم في عملاء الذكاء الاصطناعي
عندما يقوم أحد المطورين بإجراء تغييرات على مشروع GitHub، فإنه يفعل ذلك في نسخته الخاصة، والتي تعد فرعًا منفصلاً للمشروع. الآن، وفقًا لـ BeyondTrust Phantom Labs، تنبع المشكلة من الطريقة التي يعالج بها Codex أسماء الفروع أثناء إنشاء المهام.
من الواضح أن الأداة سمحت لممثل (خبيث) بالتلاعب بمعلمة الفرع وإدخال أوامر shell عشوائية أثناء إعداد البيئة.
يمكن لهذه الأوامر تشغيل أي تعليمات برمجية داخل الحاوية، بما في ذلك التعليمات البرمجية الضارة. قالت Phantom Labs إنها تمكنت من سحب رموز GitHub OAuth بهذه الطريقة، والوصول إلى مشروع نظري لجهة خارجية، واستخدام الرموز المميزة للتحرك أفقيًا داخل GitHub.
لسوء الحظ – الأمر يزداد سوءا. كانت واجهة سطر الأوامر الخاصة بـ Codex، وSDK، وتكاملات بيئة التطوير كلها معيبة بنفس الطريقة، وقال الباحثون إنه من خلال تضمين البرامج الضارة في أسماء فروع GitHub، سيكونون قادرين على اختراق العديد من المطورين الذين يعملون في نفس المشروع.
بعد الكشف بشكل مسؤول عن النتائج إلى OpenAI، قامت الشركة بإصلاح المشكلة من خلال تحسين التحقق من صحة المدخلات، وأنظمة حماية أقوى للهروب، وضوابط أفضل على التعرض للرموز المميزة داخل الحاويات. وقيل إن نطاق الرمز المميز وعمره أثناء إنشاء المهمة كانا محدودين أيضًا.
وخلص الباحثون إلى أن عوامل ترميز الذكاء الاصطناعي هي “بيئات تنفيذ حية مع إمكانية الوصول إلى بيانات الاعتماد الحساسة والموارد التنظيمية”.
“نظرًا لأن هؤلاء الوكلاء يتصرفون بشكل مستقل، يجب على فرق الأمان فهم كيفية التحكم في هويات وكيل الذكاء الاصطناعي لمنع حقن الأوامر، وسرقة الرموز المميزة، والاستغلال الآلي على نطاق واسع. ومع تكامل وكلاء الذكاء الاصطناعي بشكل أعمق في سير عمل المطورين، يجب التعامل مع أمن الحاويات التي يعملون فيها – والمدخلات التي يستهلكونها – بنفس الصرامة مثل أي حدود أمنية أخرى للتطبيق.”

أفضل برامج مكافحة الفيروسات لجميع الميزانيات
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات