
تقوم المؤسسات بإلقاء نظرة فاحصة على كيفية تناسب الذكاء الاصطناعي مع البيئات المنظمة والغنية بالبيانات. وتتركز معظم المناقشة على النماذج والمطالبات وأطر الحوكمة.
هذه الأسئلة مهمة، لكنها غالبًا ما تتجاهل مسألة أكثر عملية. هذه هي الأنظمة التشغيلية التي تحدد ما يمكن للذكاء الاصطناعي الوصول إليه فعليًا أو تغييره أو الكشف عنه بمجرد تضمينه في العمل اليومي.
لماذا تعتبر مخاطر الذكاء الاصطناعي مشكلة تشغيلية، وليست مشكلة سياسية؟
الذكاء الاصطناعي لا يعمل في عزلة. بل إنه يتفاعل مع المنصات الحية وبيانات الإنتاج وخطوط النشر وعناصر التحكم في الوصول التي تم تصميمها قبل وقت طويل من ظهور نماذج اللغات الكبيرة في الصورة.
إذا كانت هذه الأسس غير متسقة أو سيئة الإدارة، فإن الذكاء الاصطناعي يرث هذا الخطر تلقائيًا. يكشف الذكاء الاصطناعي عن مخاطر جديدة بدلاً من خلقها، وعادةً ما يتم اكتشاف هذه المشكلات بعد حدوث شيء ما بالفعل.
ولهذا السبب يمكن أن تفشل العديد من “حواجز الحماية” الخاصة بالذكاء الاصطناعي في البيئات الحقيقية. يمكن للسياسة أن تقول شيئًا واحدًا، لكن التحكم الحقيقي يأتي من كيفية قيام الفرق بشحن البرامج. إذا كانت المراجعات غير متسقة أو كانت قواعد الوصول غير واضحة، فسيعمل الذكاء الاصطناعي ضمن الحدود المعطاة لها.
عندما يحدث خطأ ما، نادرًا ما يكون ذلك بسبب فشل النموذج. ذلك لأن العمليات المحيطة والانضباط التشغيلي لم يكن قوياً بما فيه الكفاية.
كيف تخلق المنصات سريعة الحركة تعرضًا مخفيًا للبيانات
تعمل الأنظمة الأساسية سريعة الحركة – مثل منصات SaaS المستندة إلى السحابة أو بيئات التطوير منخفضة التعليمات البرمجية – على زيادة الضجيج حول هذه المشكلة. تتغير أنظمة المؤسسات الحديثة باستمرار، غالبًا من خلال مزيج من التعليمات البرمجية والتكوين والأتمتة.
في هذه البيئات، تتغير مسارات البيانات بسرعة ويمكن أن تتخلف عن الواقع. من الناحية العملية، غالبًا ما يكشف الذكاء الاصطناعي معلومات لم يكن الأشخاص على علم بأنها قد تم الكشف عنها. ولا يرجع ذلك إلى سوء السلوك، بل إلى غياب الحدود الواضحة والمطبقة باستمرار في الأنظمة التي تعتمد عليها.
قد تعتقد الفرق أن البيانات الحساسة محمية لأن الوصول إليها مقيد من حيث المبدأ. ولكن هذا يمكن أن يؤدي إلى خطر التعرض للبيانات المخفية حيث ستتجاهل نفس الفرق مدى تكرار تغيير الأذونات أو استنساخ البيئات أو تحديث أنظمة الاختبار ببيانات على شكل إنتاج.
بدون ضوابط متسقة عبر دورة حياة النشر، يمكن لأدوات الذكاء الاصطناعي أن تواجه البيانات في أماكن لم يقصد القادة الوصول إليها مطلقًا.
ما الذي تعنيه عبارة “جاهز للذكاء الاصطناعي” فعليًا في البيئات المنظمة؟
وبالتالي فإن كونك “مستعدًا للذكاء الاصطناعي” لا علاقة له بالطموح بقدر ما يتعلق بالوعي بالمخاطر. الخطوة الأولى هي فهم مدى تحمل المنظمة للتعرض والخطأ.
وينبغي أن يحدد هذا الوضوح مكان استخدام الذكاء الاصطناعي، وكيفية اختباره، ومجموعات البيانات المحظورة. يجب أن تنظر المنظمات إلى الاستعداد باعتباره تقدمًا مبنيًا على الثقة والأدلة على المشاريع التي تم نشرها بنجاح، وليس كحالة ثنائية.
وهذا يعني، من الناحية العملية، البدء بحالات استخدام ذات مخاطر أقل وحصص أقل. يجب أن تركز مشاريع الذكاء الاصطناعي المبكرة على التحليل الروتيني أو البيانات غير الحساسة أو سير العمل الداخلي، مثل التوثيق أو إنشاء بيانات الاختبار.
وهذا يعطي الأولوية للتعلم عبر فرق التطوير ويحتوي على أخطاء. على الرغم من أنها قد لا تقدم نتائج رئيسية فورية، إلا أنها تسمح للفرق بمراقبة السلوك وتحسين الضوابط وبناء الثقة قبل التوسع في المزيد من المشاريع التي تستحوذ على العناوين الرئيسية.
لماذا يعد البدء صغيرًا هو الطريقة المسؤولة الوحيدة لتوسيع نطاق الذكاء الاصطناعي
يعكس هذا النهج مدى اعتماد الفرق الناضجة لأي قدرة جديدة. إن الاستراتيجية السليمة لإدارة المخاطر من شأنها أن تضمن عدم تكليف أي نظام لم يتم اختباره بعملياته الأكثر حساسية في اليوم الأول.
وينطبق المبدأ نفسه عند دمج أدوات الذكاء الاصطناعي أو توليد التعليمات البرمجية في الأنظمة الحالية. يجب بناء الثقة مع مرور الوقت. وهذا يعني البدء على نطاق صغير، وإثبات الموثوقية، ووضع الاختبار والملكية موضع التنفيذ قبل السماح للذكاء الاصطناعي بالقرب من سير العمل عالي المخاطر.
لا شيء من هذا يعمل بدون نظافة قوية للبيانات. تحتاج الفرق إلى صورة واضحة عن البيانات الموجودة، وكيفية تصنيفها، وأين تنتقل. لا ينبغي أبدًا النظر إلى إخفاء البيانات وإخفاء الهوية والتنظيف على أنها “أشياء لطيفة يمكن الحصول عليها”.
وبدونها، حتى عمليات نشر الذكاء الاصطناعي ذات النوايا الحسنة يمكن أن تكشف المعلومات ببساطة عن طريق وضع مرآة أمام ما هو موجود بالفعل.
أسس DevOps التي تجعل الذكاء الاصطناعي الجدير بالثقة ممكنًا
يجب أن تتطور الإدارة التشغيلية جنبًا إلى جنب مع الأدوات. ويشمل ذلك التحكم في الوصول إلى أنظمة الذكاء الاصطناعي، والحد من استخدام الأدوات الشخصية غير المُدارة – مثل مساعدي الذكاء الاصطناعي العامين، وتوفير البدائل المعتمدة التي تحترم الحدود التنظيمية.
من المهم أن تفهم الفرق سبب وجود هذه الضوابط. ويعني ذلك أن السلوك الآمن يصبح جزءا لا يتجزأ من الثقافة التنظيمية، بدلا من ممارسة الامتثال الذي يحركه الخوف من عمليات التدقيق.
وأخيرًا، يجب على المؤسسات التدقيق بشكل صحيح في موردي الذكاء الاصطناعي، كما تفعل مع أي شريك آخر في البنية التحتية. يتضمن جاهزية الذكاء الاصطناعي مراجعة AppSec رسمية لبيئة استضافة البائع للتأكد من أنها تلبي معايير الصناعة وتوفر أطر عمل آمنة.
هذه ليست حجة ضد اعتماد الذكاء الاصطناعي. إن المنظمات التي تستثمر في الدقة التشغيلية هي في وضع أفضل لتحقيق فوائد الذكاء الاصطناعي بأمان. ولكن من المؤكد أن هذه المنظمات نفسها سيكون لديها عمليات نشر واضحة واختبارات موثوقة وضوابط وصول متسقة.
وتتحول كل هذه الأمور معًا لتكوين بيئة يمكن فيها تقديم الذكاء الاصطناعي بثقة بدلاً من الحذر الذي يطغى على التقدم.
لا تتحقق الثقة في عمليات الذكاء الاصطناعي من خلال وثائق السياسة وحدها. على العكس من ذلك، فهي مبنية على الآليات اليومية لكيفية تطوير البرمجيات واختبارها وإصدارها.
بالنسبة للمؤسسات الجادة بشأن حماية البيانات مع تبني الابتكار، فإن انضباط DevOps ليس أحد تفاصيل التنفيذ. إنه الأساس الذي يجعل الذكاء الاصطناعي المسؤول ممكنًا على نطاق واسع.
لقد أبرزنا أفضل برامج الأتمتة.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات