
يمكن للذكاء الاصطناعي التوليدي والوكلاء والأتمتة أن يفتحوا فوائد لا تعد ولا تحصى للمؤسسة؛ لقد انتقلت من كونها تجربة ممتعة إلى ضرورة لكي لا تتخلف المؤسسات عن منافسيها. ومع ذلك، لا يزال العديد من قادة الأعمال مترددين بشأن تبني هذه التقنيات بشكل كامل.
في كثير من الأحيان، أرى الشركات تبدأ في تجربة الذكاء الاصطناعي والأتمتة، فقط ليتم تأجيل المشاريع بهدوء بعد بضعة أشهر. توقعت مؤسسة جارتنر مؤخرا أن يتم التخلي عن 40% من مشاريع الذكاء الاصطناعي بحلول نهاية عام 2027. إذن، ما الذي يمنع مشاريع الذكاء الاصطناعي من الانتقال إلى ما بعد المرحلة التجريبية؟
نائب رئيس استشارات الحلول العالمية في Workato.
والحقيقة هي أنه في حين أن تدفق أدوات الذكاء الاصطناعي التوليدية في محادثات مجلس الإدارة قد دفع الكثيرين إلى اعتماد الأدوات بسرعة، فقد انتهى الأمر بالمؤسسات إلى تخطي بعض الخطوات التأسيسية الحاسمة التي تؤدي في النهاية إلى إبطاء المشاريع وإخراجها عن مسارها بالكامل.
كما هو الحال مع أي تكنولوجيا جديدة، هناك العديد من المخاوف والمخاوف التي تمنع الشركات من تبني الذكاء الاصطناعي. سأل استطلاع أجرته شركة Workato قادة الأعمال في المملكة المتحدة عن أكبر العوائق التي تحول دون اعتماد الذكاء الاصطناعي، وكانت الإجابات الأكثر شيوعًا هي الحوكمة والخصوصية والأمن والتكلفة.
دعونا نوضح لماذا يعتبر كل منها عقبة وما يمكن القيام به لمعالجة هذه المخاوف بشكل مباشر. ومن خلال النهج والرؤى الصحيحة، يمكن لقادة الأعمال فهم كيفية التغلب على التحديات الأكثر شيوعًا وبناء استراتيجية الذكاء الاصطناعي بثقة.
العقبة رقم 1: الحوكمة
لقد أثبت الصعود الدراماتيكي والمتسارع للذكاء الاصطناعي التوليدي مدى قوة هذه التكنولوجيا وعدم القدرة على التنبؤ بها. يتميز عملاء الذكاء الاصطناعي بقدراتهم المثيرة والمرعبة في نفس الوقت، حيث يقدمون إمكانات تبدو غير مستغلة ولا يستطيع معظمنا فهمها بالكامل.
وبالنظر إلى السرعة التي يمكن بها دمج الذكاء الاصطناعي، وخطر الهلوسة، وإمكانية منح السيطرة على أنظمة متعددة، فمن المفهوم أن الحوكمة هي أكبر عائق أمام اعتماد الشركات البريطانية للذكاء الاصطناعي.
يعد الحفاظ على سير العمل البشري في الحلقة أمرًا بالغ الأهمية لقادة تكنولوجيا المعلومات للحفاظ على السلطة والسلطة على الوكلاء والأنظمة الآلية الأخرى. يجب إصدار الذكاء الاصطناعي ومراجعته وإيقافه عن العمل مثل أي برنامج آخر.
يساعد تحديد الحدود وبرمجتها طوال دورة حياة التطوير الكاملة، مثل المطالبات المنظمة والأسس السياقية ونطاقات المخرجات المقيدة، على ضمان أن التكنولوجيا تعمل لصالحك بالطريقة التي تريدها. تعمل إدارة دورة الحياة، بدءًا من الإنشاء وحتى انتهاء العمل، على منع وقوع أي أخطاء عبر الثغرات.
عندما يتعلق الأمر بالذكاء الاصطناعي الوكيل، فكر في من هو الوكيل؟ يجب معاملة الوكلاء مثل مستخدمي النظام، وتخصيص هوية محددة ووصول محدد ومالك واضح. غالبًا ما يعمل الوكيل نيابةً عن مستخدم بشري، ويتخذ الإجراءات بصفته ذلك المستخدم عبر الأنظمة المتصلة.
إن تطبيق الحد الأدنى من الامتيازات وعدم التنصل على مستخدم النظام يضمن أن كل وكيل يمكن تتبعه، ومقصود، ومحدود بشكل مناسب. وبدون هذه الضوابط، يصبح الوكلاء التزامات أمنية.
الاهتمام رقم 2: الخصوصية والأمن
ومن غير المستغرب أن تكون الخصوصية والأمن من الشواغل الحاسمة. خذ بعين الاعتبار شركات Fortune 500 وأولئك الذين يعملون في الصناعات الحساسة، مثل الدفاع أو الرعاية الصحية – قد يبدو الوكيل الذي يكشف عن بيانات لا ينبغي له، أو أداة الذكاء الاصطناعي التي توفر بوابة سهلة الاختراق للجهات الفاعلة التي تهدد التهديد، وكأنها مخاطرة أكثر من المكافأة.
ولكن ليس عليك أن تتخلى عن الامتثال الأمني لكي تكون مبتكرًا وسريعًا. هناك العديد من الإجراءات الأمنية التي تمكن الشركات من التجربة والابتكار، مع الحفاظ على أمان بيانات الشركة.
عند اختيار أدوات الذكاء الاصطناعي الآمنة، يجب على قادة الأعمال ضمان الرؤية والتحكم الكاملين. على سبيل المثال، من الممكن الحد بشكل دقيق من نطاق نموذج الذكاء الاصطناعي أو وصول الوكيل، بالإضافة إلى من يمكنه قيادة البرنامج في الشركة.
تذكر أنه يجب منح عملاء الذكاء الاصطناعي فقط إمكانية الوصول إلى البيانات والوظائف المحددة التي يحتاجون إليها.
إن تبني بنية الثقة المعدومة، حيث تفترض أن كل شخص وكل شيء يمثل تهديدًا محتملاً، يعد أيضًا طريقة آمنة من الفشل. يجب أن يستوفي الذكاء الاصطناعي والوكلاء والأتمتة نفس المعايير مثل أي شخص آخر أو نظام تكنولوجيا معلومات آخر يتفاعل مع بيانات الشركة وأن يتم تدقيقهم باستمرار.
يجب أن يكون من وماذا ولماذا وراء كل إجراء آلي قابلاً للملاحظة وتسجيله حتى تتمتع فرق الأمان بالرؤية اللازمة لاكتشاف الحالات الشاذة والاستجابة بثقة. وأخيرًا، يجب دائمًا الاحتفاظ ببيانات العميل منفصلة ومشفرة باستخدام مفتاح فريد يتم تدويره كل ساعة.
ومن خلال إدارة ضوابط الوصول الصارمة وسجلات التدقيق الواضحة، يمكن للشركات أن تكون واثقة من أن تعزيز الكفاءة من خلال الذكاء الاصطناعي لن يؤدي إلى المساس بالأمن والخصوصية. يعد الحفاظ على الإشراف البشري بهذه الطريقة أمرًا بالغ الأهمية وغالبًا ما يكون مطلوبًا بموجب الأطر التنظيمية.
يمكن لقادة الأعمال أيضًا طلب التوجيه من اللوائح التنظيمية، والتي يتم كتابتها مع وضع الأمان والخصوصية في الاعتبار.
القلق رقم 3: التكلفة
أقر صناع القرار في الشركات البريطانية بأن تكلفة تنفيذ الذكاء الاصطناعي كانت بمثابة عائق رئيسي آخر أمام تبني التكنولوجيا بشكل كامل. توقع سام ألتمان، من شركة OpenAI الشهيرة، أن تنخفض تكلفة استخدام الذكاء الاصطناعي عشر مرات كل عام.
قريبًا، ستصبح أدوات الذكاء الاصطناعي في المؤسسات سلعة بالكامل، لكن هذا لا يعني أنه يجب عليك الانتظار للحصول على صفقة.
تحتاج الشركات إلى النظر في العوائد طويلة المدى على عملياتها واستراتيجياتها من خلال الاستثمار اليوم. سيؤدي تأخير الاستثمار في الذكاء الاصطناعي إلى خسائر في الإنتاجية والكفاءة مقارنة بالمنافسين، وفي النهاية، انخفاض الإيرادات النهائية وتباطؤ عائد الاستثمار عندما تستثمر في النهاية.
بدلاً من عدم الإنفاق على الذكاء الاصطناعي، تحتاج الشركات إلى التأكد من أنها تنفق على الذكاء الاصطناعي الصحيح. لا أحد يريد إهدار ميزانية تكنولوجيا المعلومات على الطيارين الطموحين الذين لا يؤتيون ثمارهم لأنهم لم يتم تصميمهم بما يتماشى مع احتياجات العمل الأوسع. وهنا – أحتاج إلى إجراء تمييز حاسم …
إزالة حواجز الطرق الخاصة بالذكاء الاصطناعي من خلال التنسيق
وهنا يأتي دور التنسيق لضمان إنفاق استثمارات الذكاء الاصطناعي بشكل جيد وضمان العائدات. في حين أن اعتماد الذكاء الاصطناعي يتضمن إضافة أدوات ذكاء اصطناعي أو أدوات أتمتة توليدية إلى بعض أجزاء عملك – مثل ChatBot أو أداة جديدة – فإن تنسيق الذكاء الاصطناعي يعد نهجًا أكثر شمولية للذكاء الاصطناعي.
إنه يتطلب المزيد من الاهتمام، ولكنه يجلب قيمة أكبر بكثير. يمكنك اعتبار الأمر بمثابة النسيج الضام بين مبادرات الذكاء الاصطناعي لديك ومنطق عملك الحالي.
وهذا ما يضمن أن تعمل التكنولوجيا الجديدة جنبًا إلى جنب مع البيانات والأنظمة والأشخاص الحاليين وضمنها لتحقيق نتيجة مشتركة يمكن أن تستمر في التطور والازدهار على المدى الطويل.
والأهم من ذلك، أن الذكاء الاصطناعي يحتاج إلى تكملة النموذج الحالي للشركة وإعداده والعمل معه لتحقيق تأثير طويل المدى وعوائد مالية. وهنا يفشل التبني السريع للذكاء الاصطناعي ويفوز التنسيق.
إن الحوكمة والأمن والخصوصية والتكلفة هي مخاوف مشروعة ولكنها ليست حواجز لا يمكن اختراقها. إلى جانب النهج الذي يرتكز على التنسيق، يمكن للشركات في المملكة المتحدة أن تشعر بالثقة في أنها تشرع في رحلة الذكاء الاصطناعي الخاصة بها للحصول على مكافآت طويلة المدى.
لقد عرضنا أفضل روبوت محادثة يعمل بالذكاء الاصطناعي للأعمال.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات