
- يجد تقرير Experian أن 87% من القادة يوافقون على أن الذكاء الاصطناعي المسؤول سيميزهم عن المنافسة
- ولا يشعر حتى نصفهم بأنهم مستعدون لنشر الذكاء الاصطناعي بشكل مسؤول
- يفتقر الكثير منها إلى بيانات عالية الجودة لنقل الذكاء الاصطناعي إلى المستوى التالي
على الرغم من أن أدوات الذكاء الاصطناعي أثبتت قدرتها على تعزيز الإنتاجية في بعض الحالات، إلا أن التكنولوجيا لا تخلو من نصيبها العادل من المخاوف – وتحديداً الأمن الوظيفي والتكاليف والانبعاثات.
توصل بحث جديد أجرته شركة Experian إلى أن ثلاثة من كل أربعة (76%) من الشركات تتفق الآن على أن تطبيق الذكاء الاصطناعي المسؤول أصبح الآن أحد أكبر التحديات التي تواجهها.
ويأتي ذلك على الرغم من اعتراف 89% من قادة الأعمال في المملكة المتحدة بأن الذكاء الاصطناعي يعمل بالفعل على تحسين أدائهم، ويتطلعون إلى المستقبل، ويوافق 87% منهم على أن الذكاء الاصطناعي المسؤول سيصبح عامل تمييز تنافسي رئيسي خلال العامين أو الثلاثة أعوام القادمة.
كيفية نشر الذكاء الاصطناعي بطريقة مسؤولة
يقسم Experian الذكاء الاصطناعي المسؤول إلى أربعة مبادئ أساسية: الموثوقية وحماية الخصوصية وتقليل التحيز وإدارة المخاطر.
في الوقت الحالي، تسعى الشركات إلى الاستفادة من الخبرة التقنية (32%)، وتطبيق الذكاء الاصطناعي على حالات الاستخدام في العالم الحقيقي (31%)، وتحقيق التوازن بين سرعة الابتكار والحوكمة (30%).
علاوة على ذلك، 45% فقط قاموا بدمج الذكاء الاصطناعي المسؤول، مع 10% متخلفين و1% ليس لديهم أي نهج على الإطلاق. ويعتقد نصف المشاركين تقريبًا (48%) أن فرقهم مستعدة بشكل كافٍ لنشر الذكاء الاصطناعي المسؤول.
لخصت كريستين فوستر، المدير العام للذكاء الاصطناعي والأتمتة في شركة Experian UK&I، المبادئ الأساسية للذكاء الاصطناعي: “وضع الأسس الصحيحة، بما في ذلك البيانات عالية الجودة بالإضافة إلى المساءلة الواضحة والأدوات التي تدعم اعتماد الذكاء الاصطناعي عبر دورة حياته.”
على الرغم من أن تسعة من كل 10 أشخاص يوافقون على أن البيانات عالية الجودة ضرورية، إلا أن 43% فقط يشعرون بالثقة في جودة بياناتهم – وهذه هي الخطوة الثانية لشركة Experian في مبادئها السبعة للذكاء الاصطناعي المسؤول.
ينصح التقرير الشركات بتقييم أداء نموذج الذكاء الاصطناعي بانتظام؛ تقليل المخاطر المحتملة على العمليات والأشخاص والعملاء؛ التركيز على الأمن؛ وضع أدوات التفسير في مكانها الصحيح؛ ضمان الخصوصية حسب التصميم؛ والتحقق باستمرار من التحيز.
تتضمن بعض النصائح الرائعة البدء صغيرًا لإثبات القيمة قبل التوسع، وتشغيل السيناريوهات والاختبارات في المحاكاة قبل النشر، وتنويع الفرق المشاركة في الذكاء الاصطناعي لتوسيع وجهات النظر وتقليل النقاط العمياء.
واختتم فوستر حديثه قائلاً: “مع تطور الذكاء الاصطناعي، لا سيما مع ظهور الأنظمة المستقلة، فإن الحصول على هذا الحق سيكون أمرًا بالغ الأهمية لبناء الثقة، وتمكين اتخاذ قرارات عمل أفضل، والحفاظ على القدرة التنافسية”.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات