
ليس هناك شك في أن المشهد البرمجي المولد بواسطة الذكاء الاصطناعي قد تطور بمعدل غير مسبوق خلال العام الماضي. أدى ظهور البرمجة الحيوية، حيث يستخدم المطورون نماذج لغوية كبيرة (LLMs) لإنشاء تعليمات برمجية وظيفية، إلى تغيير جذري في كيفية بناء البرامج.
الرئيس التنفيذي للتكنولوجيا في أوروبا والشرق الأوسط وأفريقيا في Veracode.
ومع ذلك، فقد تم إيلاء اهتمام أقل لما إذا كانت التعليمات البرمجية المنتجة آمنة أم لا. النتيجة؟ جبال من أكواد الإنتاج التي تعمل عمليًا ولكنها تعمل بهدوء على تضمين ونشر ثغرات أمنية كبيرة.
وفي الوقت نفسه، تعمل LLMs على تمكين المهاجمين من تحديد هذه العيوب واستغلالها بشكل أسرع من أي وقت مضى. ومع تأخر القدرات الدفاعية، تتسع الفجوة بين المهاجمين والمدافعين في وقت حرج، تماما كما تعتمد الشركات بشكل متزايد على الذكاء الاصطناعي.
الأمان ثابت في معظم نماذج الذكاء الاصطناعي
على الرغم من التقدم السريع الذي تم إحرازه على المستوى السطحي مؤخرًا في نماذج الذكاء الاصطناعي وقدرتها على إنشاء تعليمات برمجية وظيفية، إلا أن هناك أدلة متزايدة على فشل الأمن في مواكبة التقدم.
تظهر الأبحاث الحديثة أن معظم أدوات الذكاء الاصطناعي (GenAI) تنتج عيوبًا أمنية صارخة، بما في ذلك النماذج الشائعة مثل Anthropic's Claude، وGoogle's Gemini، وXAI's Grok.
عبر جميع النماذج واللغات وCWEs (تعداد نقاط الضعف الشائعة) والمهام، ينتج حوالي 55% فقط من مهام الإنشاء تعليمات برمجية آمنة، مما يعني أن حاملي شهادات الماجستير يقدمون ثغرة OWASP العشرة الأوائل القابلة للاكتشاف في نصف الوقت تقريبًا.
ومن المثير للدهشة أن خطر الضعف المتزايد هذا لم يكن محددًا عبر أنواع النماذج المختلفة، مع عدم وجود فرق كبير بين النماذج الأصغر والأكبر.
في حين أن القدرة على إنشاء تعليمات برمجية صحيحة نحويًا قد تحسنت بشكل كبير، إلا أن الأمان لا يزال راكدًا. إن مجرد توسيع نطاق النماذج أو تحديث بيانات التدريب لا يكفي لتحسين النتائج الأمنية بشكل مفيد.
الاستثناء الملحوظ هو نماذج GPT-5 المنطقية الخاصة بـ OpenAI، والتي تتخذ خطوات إضافية للتفكير في المشكلات قبل إنتاج التعليمات البرمجية. حققت هذه النماذج معدلات نجاح أمنية أعلى بكثير تصل إلى 70% وما فوق، مقارنة بـ 50-60% للأجيال السابقة.
ومع ذلك، في المقابل، تأخر GPT-5-chat، وهو متغير غير منطقي، بنسبة 52%، مما يشير إلى أن محاذاة الاستدلال، وليس مقياس النموذج، هو الذي يقود هذه المكاسب. من الممكن أن تتضمن أمثلة ضبط OpenAI هنا كودًا آمنًا عالي الجودة أو تعليم النماذج بشكل صريح للتفكير في المقايضات الأمنية لتحقيق هذا المعدل الأعلى.
كما ظهرت اتجاهات خاصة باللغة. تؤدي العديد من نماذج الذكاء الاصطناعي أداءً أسوأ بكثير في مهام إنشاء أكواد Java مقارنة بأي لغات برمجة أخرى، حيث تقل معدلات النجاح الأمني عن 30%، بينما تتراوح معدلات النجاح في Python وC# وJavaScript بشكل عام بين 38% و45%.
وفي الوقت نفسه، فإن النماذج الأحدث، وخاصة تلك التي تم ضبطها منطقيًا، تحقق أداءً أفضل في إنشاء تعليمات برمجية آمنة لـ C# وJava، وهو ما يعكس على الأرجح تركيز مختبرات الذكاء الاصطناعي على لغات المؤسسات الرئيسية.
لماذا ركود الأمن LLM؟
يكمن جذر المشكلة في طبيعة بيانات التدريب، المكونة من نماذج التعليمات البرمجية العامة المستخرجة من الإنترنت. ونتيجة لذلك، تحتوي البيانات على أمثلة آمنة وغير آمنة، بما في ذلك المشاريع المعرضة للخطر بشكل متعمد مثل WebGoat – وهو تطبيق Java غير آمن يستخدم للتدريب الأمني.
تتعامل النماذج بعد ذلك مع كل هذه الأمثلة باعتبارها طرقًا مشروعة لتلبية طلب الترميز، وأنماط التعلم التي لا تميز بشكل موثوق بين التنفيذ الآمن وغير الآمن.
مع تدريب معظم طلاب ماجستير إدارة الأعمال على هذه البيانات المتاحة للجمهور، هناك أنماط مماثلة في كيفية إنتاج المخاطر الأمنية. نظرًا لأن البيانات تظل دون تغيير إلى حد كبير بمرور الوقت، ويتم استكمالها بشكل متزايد بالرموز الاصطناعية والمولدة بالذكاء الاصطناعي، فقد ظل أداء أمان النماذج راكدًا عبر أجيال من النماذج.
يساعد هذا أيضًا في تفسير سبب كون Java مشكلة خاصة. تتمتع Java بتاريخ طويل كلغة تنفيذ من جانب الخادم، وتسبق الاعتراف الواسع النطاق بالثغرات الأمنية مثل حقن SQL.
ولذلك يجب أن تحتوي بيانات التدريب الخاصة بها على العديد من الثغرات الأمنية مقارنة باللغات الأخرى مثل C# أو Python، مما يؤدي إلى أداء النماذج بشكل أسوأ بكثير في المهام الخاصة بجافا.
النقطة الأمنية العمياء في البرمجة الحيوية
تثير هذه النتائج مخاوف كبيرة بشأن التطوير بمساعدة الذكاء الاصطناعي والشعبية المتزايدة للبرمجة الحيوية. في حين أن هذه الممارسات تعمل على تسريع الإنتاجية، إلا أن المطورين نادرًا ما يحددون القيود الأمنية عند مطالبة حاملي شهادات LLM، الأمر الذي من شأنه أن يحسن بشكل كبير أمان التعليمات البرمجية التي تم إنشاؤها.
على سبيل المثال، قد يطلب المطور من النموذج إنشاء استعلام قاعدة بيانات دون تحديد ما إذا كان يجب إنشاؤه باستخدام عبارة معدة (آمنة) أو تسلسل سلسلة (غير آمن).
وهذا يترك تلك القرارات فعليًا إلى حاملي شهادة الماجستير في القانون، الذين، كما تظهر النتائج، يختارون بشكل غير صحيح ما يقرب من نصف الوقت. ومن المثير للقلق أن هذه المشكلة لا تظهر سوى القليل من علامات التحسن.
وقد بدأت المخاطر تطفو على السطح بالفعل في الممارسة العملية. تسببت حادثة وقعت مؤخرًا باستخدام أداة ترميز الذكاء الاصطناعي على منصة Replit في حذف قاعدة بيانات الإنتاج المباشر بالكامل أثناء تجميد التعليمات البرمجية – وهو تحذير واضح لما يمكن أن يحدث من خطأ عندما يتم الوثوق في التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي دون حواجز حماية كافية.
الآثار المترتبة على المطورين والمنظمات
ونظراً لأوجه القصور المستمرة هذه، فإن الاعتماد على التحسينات النموذجية وحدها لا يشكل استراتيجية أمنية قابلة للتطبيق. في حين أن نماذج الاستدلال الأحدث تقدم ميزة واضحة، إلا أن الأداء الأمني يظل متغيرًا إلى حد كبير، وحتى النماذج الأفضل أداءً تعرض ثغرات أمنية في ثلث الحالات تقريبًا.
تعد مساعدات التشفير التي تعتمد على الذكاء الاصطناعي أدوات قوية، لكنها لا تستطيع أن تحل محل المطورين المهرة أو برامج الأمان الشاملة.
يعد اتباع نهج متعدد الطبقات لإدارة المخاطر أمرًا ضروريًا: يعد الحفاظ على الفحص المستمر والتحقق من الصحة باستخدام التحليل الثابت (SAST) وتحليل تكوين البرامج (SCA)، بغض النظر عن أصل التعليمات البرمجية، والحظر الاستباقي للتبعيات الضارة أمرًا بالغ الأهمية لمنع الثغرات الأمنية من الوصول إلى خطوط أنابيب الإنتاج.
تساعد أدوات المعالجة المدعومة بالذكاء الاصطناعي أيضًا المطورين من خلال توفير التوجيه في الوقت الفعلي والإصلاحات التلقائية، إلا أن مسؤولية التنفيذ الآمن تظل في النهاية مسؤولية بشرية.
التكلفة المخفية للكود الذي تم إنشاؤه بواسطة الذكاء الاصطناعي
يمثل مساعدو ترميز الذكاء الاصطناعي وسير العمل الوكيل مستقبل تطوير البرمجيات وسيستمرون في التطور بوتيرة سريعة. ولكن على الرغم من أن حاملي شهادة الماجستير في القانون أصبحوا ماهرين في إنشاء تعليمات برمجية صحيحة وظيفيًا، إلا أنهم يستمرون في إنتاج ثغرات أمنية بمعدل مرتفع مثير للقلق – وهي مشكلة لن يكون من السهل إصلاحها.
التحدي الذي يواجه كل مؤسسة هو ضمان تطور الأمن جنبًا إلى جنب مع هذه القدرات الجديدة. وتتطلب معالجة هذه المشكلة تدريباً خاصاً بالأمن، والمواءمة المنطقية، والاعتراف بأن الأمن لا يمكن أن يأتي في مرحلة لاحقة إذا أردنا منع تراكم كميات كبيرة من الديون الأمنية.
وإلى أن تعطي مختبرات الذكاء الاصطناعي الأولوية للأمن في عمليات التدريب والمواءمة، يجب على المطورين وفرق الأمان التعامل مع التعليمات البرمجية التي ينشئها الذكاء الاصطناعي باعتبارها مدخلات غير موثوقة بطبيعتها – وهو مبدأ يجب أخذه في الاعتبار عند البرمجة الحيوية اليومية.
لقد عرضنا أفضل برامج حماية نقطة النهاية.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات