
الذكاء الاصطناعي لا يتعثر بسبب الخوارزميات السيئة. إنها تتعثر لأن الناس لا يثقون بها.
في اللحظة التي تراهن فيها الشركات بشكل كبير على الذكاء الاصطناعي لدفع النمو، تتآكل الثقة في التكنولوجيا. يُظهر بحثنا أن 71% من المؤسسات لا تزال مترددة في الثقة بالوكلاء المستقلين في بيئات المؤسسات.
بالنسبة للأداة التي تم الترحيب بها باعتبارها محرك الإنتاجية التالي، فهذه أزمة ثقة مختبئة على مرأى من الجميع.
يستمر المقال أدناه
نائب رئيس التحليلات والذكاء الاصطناعي في شركة Capgemini Invent.
فجوة الثقة في الخطوط الأمامية
لكي يتمكن الذكاء الاصطناعي من تقديم عائد استثمار حقيقي وقابل للتطوير، لا يمكنه الجلوس بمفرده في مختبر الابتكار. يجب دمجها في القرارات اليومية وسير العمل الذي يحافظ على ازدهار الأعمال. ولكن من المفارقة أن الأشخاص الذين يقومون بهذا العمل اليومي هم من الأقل اقتناعا.
وجدت مجلة هارفارد بيزنس ريفيو مؤخرًا أن استخدام الموظفين للأدوات التي يوفرها أصحاب العمل انخفض بنسبة 15% بين فبراير ويوليو من هذا العام. عندما يبدو الذكاء الاصطناعي غامضا أو غير مختبر، يميل الموظفون إلى تجنبه. والأسوأ من ذلك أنهم يلجأون إلى أدوات الذكاء الاصطناعي “الظل” الخاصة بهم بدلاً من ذلك
تظهر أبحاث Capgemini أن 63% من محترفي البرمجيات الذين يستخدمون حاليًا الذكاء الاصطناعي التوليدي يفعلون ذلك باستخدام أدوات غير مصرح بها أو بطريقة غير خاضعة للرقابة. ويؤدي هذا إلى ظهور تهديدات أمنية وفجوات في الامتثال ونتائج غير متسقة، وفي النهاية يؤدي إلى إبطاء الاعتماد الناجح.
عندما تتآكل الثقة على الخطوط الأمامية، لا تستطيع المؤسسات تجاوز مرحلة التجربة، بغض النظر عن مدى تقدم نماذجها.
الثقة المفرطة دون ضمانات
مشكلة الثقة لها تأثير في كلا الاتجاهين. هناك أيضًا الكثير من الثقة، أو بالأحرى، الثقة في الأماكن الخطأ. تشير تقارير IDC إلى أن حوالي ثلث الشركات البريطانية تقول إنها “تثق تمامًا” في الذكاء الاصطناعي.
ومع ذلك، فإن العديد من تلك المنظمات نفسها لم تضع حواجز الحماية الأساسية في مكانها الصحيح: الحوكمة، أو ضوابط البيانات، أو أطر المخاطر، أو الرقابة الأخلاقية. وبعبارة أخرى، فإنهم يثقون في التكنولوجيا أكثر من ثقتهم في البنية التحتية الخاصة بهم.
إنه خلل خطير. إن المؤسسات التي تبالغ في تقدير نضجها في مجال الذكاء الاصطناعي تتقدم للأمام من خلال إجراء التجارب دون تخفيف التحيز أو التخطيط للامتثال. وفي المناخ التنظيمي الذي تشكله أطر مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي، قد تكون تكلفة سوء التقدير باهظة ــ تصل إلى 7% من الإيرادات العالمية نتيجة لسوء الاستخدام عالي المخاطر.
إصلاح مشكلة الثقة من مصدرها
لقد كان الذكاء الاصطناعي التقليدي يحتاج دائمًا إلى الحوكمة. لكن الذكاء الاصطناعي التوليدي، بما يحمله من إبداع، وعدم القدرة على التنبؤ، ومخاطر الهلوسة، يتطلب نهجا أكثر تعمدا من أي وقت مضى. يتطلب بناء الثقة اتباع نهج شامل يمزج بين الحوكمة والثقافة والتدريب والتعاون المتعمد بين الإنسان والذكاء الاصطناعي.
لا يمكن التعامل مع الحوكمة باعتبارها فكرة لاحقة، يتم تفعيلها بمجرد اكتمال عملية الطرح. يجب أن يشكل التصميم من اليوم الأول. تحتاج المنظمات إلى إنشاء أطر واضحة لإدارة دورة حياة النموذج، ومصدر البيانات، وتقييم المخاطر، وقابلية التفسير، والرقابة البشرية، والمراقبة المستمرة وضمان الجودة.
ورغم أن ذلك قد يبدو وكأنه قائمة طويلة، إلا أنه ينبغي لنا أن ننظر إلى الحوكمة القوية باعتبارها ميزة تنافسية، وليست عائقا. وإذا تم تنفيذه بشكل صحيح، فإنه يعمل على تسريع الابتكار من خلال جعل التوسع آمنًا ويمكن التنبؤ به وجديرًا بالثقة.
بناء الذكاء الاصطناعي الذي يعكس القيم الإنسانية
لا يمكننا أن نتوقع من الناس أن يثقوا بما لا يفهمونه، ولا ينبغي لهم أن يفعلوا ذلك.
الثقة تأتي من الوضوح. وينمو الأمر عندما يفهم الموظفون كيفية عمل الذكاء الاصطناعي، ولماذا يوصي بمخرجات معينة، وكيف يتوافق مع القيم التنظيمية. ولهذا السبب يجب أن تذهب الإدارة إلى ما هو أبعد من الاعتبارات الفنية. وينبغي دمج الأخلاقيات البشرية في مجموعة الذكاء الاصطناعي بشكل محكم مثل مقاييس الأداء.
عندما يدرك الناس مبادئهم الخاصة (مثل العدالة والشفافية) التي تنعكس في سلوك الذكاء الاصطناعي، يصبح تبنيها خطوة طبيعية وليس قفزة إيمانية.
تمكين الموظفين بالمهارات والثقة
يكون الذكاء الاصطناعي أكثر فعالية عندما يعرف الناس كيفية استخدامه. التدريب الشامل، وتعريفات الأدوار الجديدة (مثل مشرفي الذكاء الاصطناعي والمتخصصين البشريين في الحلقة)، والنهج القائم على المهارات يساعد الموظفين على الشعور بالتمكين بدلاً من النزوح.
ولتحقيق هذه الغاية، يجب تصميم التعاون بين الإنسان والذكاء الاصطناعي بشكل مقصود. هياكل صنع القرار، ومسارات التصعيد، وتسليم المهام؛ هذه كلها تعقيدات تحتاج إلى رسم خرائط.
وفي حين يمكن للوكلاء المستقلين قيادة العمليات من البداية إلى النهاية، يظل البشر مسؤولين عن توفير التوجيه، والحفاظ على حواجز الحماية، وضمان النتائج الناجحة.
من الطيارين إلى عائد الاستثمار في المؤسسة
الطريق إلى عائد استثمار الذكاء الاصطناعي يمر عبر النطاق، ولا يحدث النطاق إلا عندما تكون الأسس قوية.
واليوم، غالبًا ما تكون هذه الأسس غير موجودة. العديد من المؤسسات عالقة في الوضع التجريبي، حيث تقوم بإجراء تجارب معزولة بدون بنية البيانات أو الحوكمة أو إدارة التغيير اللازمة للتوسع.
تسلط أبحاث Microsoft الأخيرة الضوء على أن قادة الذكاء الاصطناعي الذين يحققون عائد استثمار يصل إلى 3 أضعاف على “المتخلفين” يتميزون بإستراتيجيتهم المتماسكة على مستوى المؤسسة.
ويتعين على القادة أن يتقبلوا أن بناء مثل هذه الاستراتيجية يستغرق وقتاً. الثقة لا تُبنى بين عشية وضحاها. إن خريطة الطريق المرحلية المتوافقة مع قيم موظفيك سوف تتفوق دائمًا على الاندفاع لنشر أي نموذج سيكون الأحدث هذا الشهر.
مستقبل مبني على الثقة
لن يصل الذكاء الاصطناعي إلى إمكاناته المؤسسية من خلال الابتكار التقني وحده. إنها تحتاج إلى تحول ثقافي، وابتكار في مجال الإدارة، وتجديد الالتزام ببناء الأنظمة التي يرغب الناس بالفعل في العمل معها.
الثقة هي أساس عائد الاستثمار القابل للتطوير. تجاهل ذلك، وستتحول استراتيجية الذكاء الاصطناعي الخاصة بك إلى قنبلة موقوتة. ولكن عندما تستثمر المؤسسات في الضمانات والمهارات والقيم الصحيحة، يصبح الذكاء الاصطناعي كما كان من المفترض دائمًا أن يكون: شريكًا يمكن الاعتماد عليه في بناء المستقبل.
لقد عرضنا أفضل برامج أتمتة تكنولوجيا المعلومات.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات