
- يدعي التقرير أن متوسط طلبات السحب التي تم إنشاؤها بواسطة الذكاء الاصطناعي بها 10.83 مشكلة مقارنة بـ 6.45 للشفرة البشرية
- يمكن أن تكون الجودة أفضل من حيث الأخطاء المطبعية، مما يترك مجالًا للمراجعين البشريين
- لقد تم رفع تصحيحات التعليمات البرمجية لـ Microsoft، ولكن ربما يكون الأمر كذلك بالنسبة للإنتاج الإجمالي
تزعم بيانات جديدة من CodeRabbit أن التعليمات البرمجية التي ينشئها الذكاء الاصطناعي معرضة في الواقع لنقاط ضعف أكثر من التعليمات البرمجية التي ينشئها الإنسان، مما يثير تساؤلات حول موثوقية بعض الأدوات.
بلغ متوسط عدد مشكلات طلبات السحب التي تم إجراؤها باستخدام أدوات الذكاء الاصطناعي 10.83 مشكلة، مقارنة بـ 6.45 مشكلة في طلبات السحب التي أنشأها الإنسان، مما يؤدي في النهاية إلى مراجعات أطول واحتمال وجود المزيد من الأخطاء للوصول إلى المنتج النهائي.
إلى جانب وجود مشكلات أكثر بمقدار 1.7 مرة بشكل عام، كانت طلبات السحب التي تم إنشاؤها بواسطة الذكاء الاصطناعي تحتوي أيضًا على مشكلات أكثر أهمية بمقدار 1.4 مرة و1.7 مرة أكثر من المشكلات الرئيسية، لذا فهي ليست مجرد إزعاجات بسيطة.
التعليمات البرمجية التي ينشئها الذكاء الاصطناعي ليست آمنة كما قد تعتقد
وشهدت أخطاء المنطق والصحة (1.75x)، وجودة التعليمات البرمجية وقابلية الصيانة (1.64x)، والأمن (1.57)، والأداء (1.42x) أخطاء برمجية أعلى من المتوسط، حيث انتقد التقرير الذكاء الاصطناعي لإدخاله أخطاء أكثر خطورة ليقوم المراجعون البشريون بإصلاحها.
تتضمن بعض المشكلات التي كان من المرجح أن يقدمها الذكاء الاصطناعي التعامل غير المناسب مع كلمات المرور، ومراجع الكائنات غير الآمنة، ونقاط ضعف XSS، وإلغاء التسلسل غير الآمن.
وعلق ديفيد لوكر، مدير CodeRabbit للذكاء الاصطناعي، قائلاً: “تعمل أدوات ترميز الذكاء الاصطناعي على زيادة الإنتاج بشكل كبير، ولكنها تقدم أيضًا نقاط ضعف يمكن التنبؤ بها وقابلة للقياس والتي يجب على المؤسسات التخفيف منها بشكل فعال”.
ومع ذلك، فهذا ليس بالضرورة أمرًا سيئًا، حيث يعمل الذكاء الاصطناعي على تحسين الكفاءة عبر المراحل الأولية لإنشاء التعليمات البرمجية. قدمت التقنية أيضًا أخطاء إملائية أقل بمقدار 1.76 مرة ومشكلات أقل في قابلية الاختبار بمقدار 1.32 مرة.
وعلى الرغم من أن الدراسة تسلط الضوء على بعض عيوب الذكاء الاصطناعي، إلا أنها تخدم أيضًا غرضًا مهمًا وهو إظهار كيف يمكن للبشر ووكلاء الذكاء الاصطناعي أن يتفاعلوا مع بعضهم البعض في المستقبل. بدلاً من إزاحة العمال البشريين، نشهد تحول العمل البشري إلى إدارة ومراجعة الذكاء الاصطناعي – حيث تتعامل أجهزة الكمبيوتر فقط مع بعض المهام الشاقة التي تبطئ البشر في المقام الأول.
على الرغم من أن مايكروسوفت تدعي أنها قامت بتصحيح 1139 من التهديدات الخطيرة في عام 2025، مما يجعلها ثاني أعلى عام على الإطلاق، إلا أن هذا لا يعني بالضرورة شيئًا سيئًا. باستخدام الذكاء الاصطناعي، يقوم المطورون بإنشاء المزيد من التعليمات البرمجية للبدء بها، وبالتالي فإن النسبة المئوية الإجمالية للتعليمات البرمجية المراوغة قد لا تكون سيئة كما تشير تلك الأرقام في البداية.
ثم هناك حقيقة أن نماذج الذكاء الاصطناعي، مثل عائلة GPT الخاصة بـ OpenAI، يتم تحسينها باستمرار لإنتاج نتائج أكثر دقة وأقل عيوبًا.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات