
يقوم الجيل الجديد من أدوات الذكاء الاصطناعي الوكيل بإعادة كتابة كيفية إنشاء البرامج وإدارتها. بينما نتحدث الآن، يتم تضمين المزيد من مساعدي البرمجة المستقلين ووكلاء سير العمل وأنظمة DevOps المعتمدة على الذكاء الاصطناعي عبر مجموعات التكنولوجيا بسرعة غير مسبوقة.
ومع ذلك، مع تسارع وتيرة التبني، تتزايد المخاطر أيضًا عندما تتخلف الرقابة. لم تعد حوكمة كود الذكاء الاصطناعي مجرد فكرة لاحقة للامتثال؛ إنها عجلة القيادة التي تحافظ على الابتكار القائم على الذكاء الاصطناعي على الطريق.
مدير أول في مجموعة تحسين البرمجيات.
هذه ليست نظرية. أشارت رويترز إلى استخدام الذكاء الاصطناعي على مستوى المؤسسة في الخدمات المهنية والذي تضاعف تقريبًا إلى 40٪ في عام 2026. وتتوقع IDC بالمثل أن تعمل الأتمتة الوكيلة على تعزيز القدرات في أكثر من 40٪ من تطبيقات المؤسسات.
يستمر المقال أدناه
تعكس هذه الأرقام انتقال السوق من التجارب الأولية إلى الاعتماد التشغيلي الكامل. سوف يتزايد إغراء إعطاء الأولوية للسرعة على السلامة، ولكن الحوكمة هي التي تضمن عدم تحول السرعة إلى تقلبات.
تعتبر حادثة AWS التي وقعت في ديسمبر 2025 بمثابة مثال صارخ. تشير التقارير إلى أن المهندسين استخدموا وكيل ترميز الذكاء الاصطناعي الداخلي، Kiro، لكن عناصر التحكم في الوصول التي تم تكوينها بشكل خاطئ منحت الوكيل أذونات أوسع مما هو مقصود، مما أدى إلى حوالي 13 ساعة من التوقف.
أوضحت أمازون لاحقًا أن السبب الرئيسي كان خطأ المستخدم، وهو خطأ بشري في التكوين وليس عطلًا فنيًا داخل Kiro، وأن الأداة عادةً ما تتطلب موافقة بشرية مزدوجة قبل التصرف. لكن الوجبات الجاهزة واضحة:
عندما تمنح أدوات الذكاء الاصطناعي نفس الأذونات الممنوحة لكبار المهندسين ولكن دون أي حكم، فإن التكوينات الخاطئة الصغيرة يمكن أن تصبح حوادث خطيرة بسرعة كبيرة.
هذه الحالة ليست تحذيرًا بشأن مخاطر الذكاء الاصطناعي بقدر ما هي درس في المسؤولية. بالنسبة لقادة الهندسة، ينبغي النظر إلى وكلاء الذكاء الاصطناعي على أنهم مهندسون مبتدئون سريعون للغاية، بارعون في مطابقة الأنماط والتنفيذ، لكنهم يفتقرون إلى الحكم والسياق وضبط النفس.
إن أنظمة الحوكمة هي التي تضمن مساهمة هؤلاء الشباب الرقميين بأمان وبشكل منتج.
ينبغي منح الذكاء الاصطناعي أقل قدر من الوصول
القاعدة الأولى للنشر الآمن هي الأقل امتيازًا. في عالم وكلاء الذكاء الاصطناعي، لا ينبغي أبدًا ترجمة الإمكانات غير المحدودة إلى وصول غير محدود. يجب أن يكون لديهم وصول مقيد إلى البيانات والبيئات، وليس أكثر مما يحتاجون إليه لإنجاز مهمة واحدة محددة.
مثل مهندس البرمجيات المتخرج، يجب عليهم العمل داخل بيئة معزولة. يضمن هذا العزل إمكانية التكرار أو الهلوسة أو الفشل دون إسقاط النظام. يتم اكتساب الوصول إلى الإنتاج، وليس منحه، ولا يتم منحه إلا بعد اجتياز المخرجات لتحديات الاختبارات وعمليات المسح والمراجعات البشرية.
إذا لم يُسمح لإنسان مبتدئ بإرسال التعليمات البرمجية مباشرةً إلى بيئة حية دون موافقة أحد كبار السن، فيجب إخضاع الذكاء الاصطناعي لمعايير أكثر صرامة. يؤدي تجاوز عملية المراجعة هذه إلى تصعيد الامتيازات بشكل غير مقصود، وهو ما يعد قاتلًا هادئًا لأمان التعليمات البرمجية.
ومن خلال فرض هذه الحدود، فإنك تمنع خطأ منطقيًا بسيطًا من التحول إلى تكوين خاطئ فادح. في عصر الوكلاء المستقلين، تعد الرقابة الصارمة ضرورية للحفاظ على أمان الأنظمة.
تعتبر المراقبة أمرًا ضروريًا للتعليمات البرمجية التي ينشئها الذكاء الاصطناعي
على الرغم من أن عملاء الذكاء الاصطناعي أقوياء، إلا أن لديهم قيودًا متأصلة تتطلب التعامل مع مساهماتهم بحذر، وهو ما يشبه مستوى الثقة الذي قد تمنحه لمهندس مبتدئ.
يعتمد نموذجهم التشغيلي بشكل كبير على الارتباط القائم على الأنماط، مما يعني أنهم يفتقرون إلى النظام الحقيقي والفهم المعماري للمطور البشري المتمرس.
يمكن أن يؤدي هذا الاعتماد إلى أخطاء غير متوقعة أو إنشاء تعليمات برمجية فعالة من الناحية الفنية ولكنها تؤدي إلى تعقيدات غير متوقعة أو ثغرات أمنية، لأنها تفتقر إلى السياق الكامل لفلسفة سلامة وتصميم النظام على المدى الطويل.
يجب أن تتناسب درجة الإشراف مع الاستقلالية. كلما زادت قدرة الوكيل على التصرف دون تدخل بشري، كلما أصبحت آليات التدقيق والتتبع أكثر صرامة.
في إعدادات DevOps الناضجة، يعني ذلك تضمين تسجيل الذكاء الاصطناعي والتحكم في الإصدار ووظيفة التراجع مباشرة في مسار النشر، مما يضمن إمكانية شرح كل إجراء من إجراءات الذكاء الاصطناعي أو عكسه.
ويضمن هذا النهج المنضبط أنه بينما يقوم وكلاء الذكاء الاصطناعي بتعزيز السرعة والكفاءة، إلا أنهم لا يعرضون سلامة بيئة الإنتاج أو أمنها أو استقرارها للخطر، مما يقيدهم بشكل فعال في دور مهندس مبتدئ.
حل فجوة الرؤية
بمجرد أن تبدأ فرق متعددة في استخدام الوكلاء، فإنك تفقد بسرعة مكان وصول التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي وما تفعله. أنت بحاجة إلى أدوات على مستوى المحفظة لمعرفة مكان تشغيل كود الذكاء الاصطناعي، ومدى أمانه وقابلية صيانته، ومكان تركيز التغييرات الأكثر خطورة.
وبدون إشراف موحد، قد لا يعرف القادة مكان نشر التعليمات البرمجية التي ينشئها الذكاء الاصطناعي، أو كيفية تفاعلها مع الأنظمة الأخرى، أو ما إذا كان وكلاء مماثلون يكررون نفس العملية المعيبة عبر الفرق.
الرؤية المركزية ضرورية. يحتاج القادة إلى رؤية حالية شاملة للمحفظة حول المكان الذي يتم فيه استخدام التعليمات البرمجية التي تم إنشاؤها بواسطة الذكاء الاصطناعي، والأنظمة التي تنطوي على أكبر قدر من المخاطر، وما الذي يجب إصلاحه أولاً.
توصي أطر الحوكمة الحديثة برسم خرائط ليس فقط لما يكتبه الذكاء الاصطناعي أو ينفذه، بل أيضًا أين ولماذا، مما يسمح بالتعرف المبكر على الأنماط غير الآمنة قبل أن تظهر في الإنتاج.
الحكم هو المقود وليس المكابح
أظهرت حالة AWS ما يحدث عندما تكتسب الأتمتة السلطة دون مساءلة مماثلة. لن يتجنب الجيل القادم من المؤسسات الذكاء الاصطناعي؛ سيقومون بربط الاستقلالية بالرقابة، وبناء حدود واضحة للأذونات، وفرض مسارات المراجعة، والحفاظ على الرؤية عبر المؤسسات.
لا تؤدي حوكمة كود الذكاء الاصطناعي إلى إبطاء ابتكار الذكاء الاصطناعي. فهو يمنح المؤسسات القدرة على اعتماد الذكاء الاصطناعي بثقة، والتركيز على المخاطر الصحيحة أولاً، والمضي قدماً بشكل أسرع وبمسؤولية.
لقد أبرزنا أفضل منشئ مواقع الويب بالذكاء الاصطناعي.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات