
في كل مرة تأتي أداة جديدة، يشعر الناس بالقلق من أنها ستدمرنا.
فالمطبعة ستفسد الإيمان، والآلة الحاسبة ستقتل مهارات الرياضيات، وكان من المفترض أن يؤدي البريد الإلكتروني إلى تدمير الإنتاجية.
الآن حان دور الذكاء الاصطناعي. النمط مألوف. يبدأ الأمر بمزيج من الضجيج والخوف والارتباك.
رئيس قسم تكنولوجيا المعلومات الجزئي في DeepTempo والمؤسس/الرئيس التنفيذي لشركة BLodgic Inc.
اليوم، يتساءل القادة والموظفون على حد سواء عما إذا كان الذكاء الاصطناعي ضروريًا حقًا أم أنه ينطوي على مخاطر أكثر مما يكافئ.
وفي أعقاب الاستثمار، غالبًا ما تتبع الشكوك، على الرغم من أن 76% من الشركات تستكشف GenAI من أجل الابتكار، إلا أن حوالي 40% فقط من المستهلكين يثقون في مخرجات الذكاء الاصطناعي المنتجة، مشيرين إلى المخاوف بشأن الدقة والشفافية.
الحقيقة هي أن الذكاء الاصطناعي ليس قوة غريبة جديدة تمامًا. لقد كان جزءًا من حياتنا اليومية لعقود من الزمن.
محركات التوصية على Amazon، وقوائم انتظار Netflix، والمساعدين الصوتيين مثل Siri، وحتى جهاز Roomba الذي تطلقه في غرفة معيشتك.
هذه كلها منظمة العفو الدولية. الفرق هو أن الذكاء الاصطناعي التوليدي يبدو أقرب، ويمس كيفية كتابتنا وبرمجتنا وإنشاءنا. وهذا القرب يجعل المخاطر تبدو أكبر.
لكن هذه المرة، الضربة A مختلفة بعض الشيء. ولا يتعلق الأمر بأتمتة المهام في الخلفية. يصطدم الذكاء الاصطناعي وجهاً لوجه مع العاملين في مجال المعرفة وهذا يجعل الناس غير مرتاحين. هل “الخبرة” نفسها مطروحة للنقاش؟
كل الغاز، لا الفرامل
إن اعتماد الذكاء الاصطناعي لا يفعل أي شيء سوى التهدئة. وفي عام 2024 وحده، نما الاستثمار الخاص في الذكاء الاصطناعي في الولايات المتحدة إلى 109.1 مليار دولار، واجتذب 33.9 مليار دولار على مستوى العالم في الاستثمار الخاص، بزيادة قدرها 18.7% عن عام 2023.
لقد نضجت تقنيات الذكاء الاصطناعي الأساسية على مدى عقود من الزمن، ولكن القفزة في ماجستير إدارة الأعمال القادرة على إنتاج النصوص والصور والتعليمات البرمجية، دفعت التكنولوجيا إلى دائرة الضوء الثقافية بشكل لم يسبق له مثيل.
وقد أدى هذا التسارع إلى تكثيف وتيرة التغيير، مما أجبر المنظمات على اتخاذ قرارات التبني تحت رقابة عامة متزايدة. تسعى مجالس الإدارة إلى تحقيق السرعة، بينما لا يزال المنظمون وفرق الأمن يحاولون وضع القواعد الأساسية اللازمة.
الأمر المختلف حقًا هذه المرة هو السرعة الملحوظة للتأثير. تتطرق GenAI إلى العمل المعرفي بشكل مباشر، وتتحدى المعايير الراسخة حول الخبرة والتأليف والتحكم في الإنتاج الفكري.
وهذا يخلق احتكاكًا بين دعاة الابتكار وأولئك الذين يشعرون بالقلق من تآكل الحكم البشري. والنتيجة هي نقاش استقطابي، واستراتيجيات اعتماد غير متسقة، ونواقل جديدة للتهديد الأمني، وتوجيه أصابع الاتهام للمنظمين مثل ميم الرجل العنكبوت.
وخاصة بالنسبة لقطاعات مثل القانون والمالية والرعاية الصحية والأوساط الأكاديمية، فإن المخاطر لا يمكن أن تكون أعلى. الثقة والسمعة هي عملتها. وفي الوقت نفسه، قد تعني مقاومة التبني تمامًا التخلف عن المنافسين الذين يتفوقون على الذكاء الاصطناعي ويجعلونه يعمل لصالحهم.
وإذا تسارع التبني دون ضمانات، فإن المؤسسات تخاطر بفقدان مصداقيتها لدى العملاء، والجهات التنظيمية، وموظفيها الذين قد يفضلون التوجه إلى منافس يقوم بالأمر على النحو الصحيح.
على الجانب الآخر، فإن استبعاد الذكاء الاصطناعي تمامًا والجلوس على جانب حمام السباحة أمر خطير بنفس القدر. لقد قفز منافسونا بالفعل إلى النهاية العميقة باستخدام الذكاء الاصطناعي.
الخوف مقابل FOMO يخطئ هذه النقطة
تحتاج محادثة الذكاء الاصطناعي إلى تجاوز الثنائيات القائمة على الخوف. مثل الآلات الحاسبة في الفصل الدراسي أو البريد الإلكتروني في مكان العمل، فإن الذكاء الاصطناعي ليس جيدًا أو سيئًا بطبيعته. ببساطة، إنها القدرة أو الذكاء المشترك.
والفارق الحقيقي هنا هو الكيفية التي يوجه بها القادة عملية التبني ويوازنون بين الضمانات التقنية والتكيف الثقافي. سيكون الفرق هو القيادة والشركات الناشئة في مجال الذكاء الاصطناعي التي تتخلص من الحرس القديم، موضحة كيفية دمج الذكاء الاصطناعي بشكل متعمد مع حواجز الحماية الصحيحة والثقافة والأمن والشفافية.
بالنسبة لرؤساء تكنولوجيا المعلومات، ومديري تكنولوجيا المعلومات، وغيرهم من صناع القرار، يجب أن يكون الهدف هو رفض الاختيار الزائف بين التبني الكامل والحظر التام. وبدلاً من ذلك، يجب أن تهدف المؤسسات إلى التكامل المتعمد، وإدارة إثبات المفهوم (PoC)، والارتكاز على الحوكمة الشفافة.
يمكنك استضافة جلسات غداء وتعلم لتعزيز تعليم المستخدمين، وإنشاء توافق واضح بين القيم والثقافة التنظيمية مع الذكاء الاصطناعي. التأثير البشري لا يزال مهما. خاصة الآن.
لحظة التدريس للجميع
عندما يتعلق الأمر بالذكاء الاصطناعي، فإن توضيح معنى “الخبرة” يجب أن يكون أولوية. احصل على نظرة شاملة لما هو ممكن وما يحدث بالفعل.
ألقِ نظرة جديدة على سير عملك واكتشف أين يمكن للذكاء الاصطناعي أن يزيل العمل المزدحم عن كاهل الأشخاص، وأين لا تزال بحاجة إلى الحكم البشري في مقعد السائق.
لا تخف من أن تكون صريحًا بشأن المكان الذي تحتاج فيه إلى الحكم البشري والمكان الذي يمكن للذكاء الاصطناعي أن يتولى فيه العمل المتكرر بأمان. يجب أن تكون هناك رؤية كاملة لأنه عندما تترك الأمر غامضًا، فقد يكون عرضة لتفسيرات واسعة النطاق.
وفي مجال الأمن السيبراني، يظهر هذا الوضوح كل يوم. لقد رأيت الذكاء الاصطناعي يساعد في تصفية آلاف التنبيهات التي من شأنها أن تدفن فريقًا أمنيًا. يقوم النموذج بالعمل الناخر ويضع علامات على الأنماط التي تبدو مشبوهة. ثم يتدخل الإنسان ويقرر ما إذا كان هذا ضوضاء أم هجومًا حقيقيًا.
عندما يكون هذا الخط واضحًا، يظل الفريق حادًا. عندما لا يكون الأمر واضحًا، إما أن يثق الفريق في النموذج كثيرًا أو يغرق في التنبيهات. إن المخاطر كبيرة لأن اتخاذ قرار واحد قد يشكل الفارق بين منع التطفل والقراءة عنه لاحقًا في الأخبار.
من خلال تقديم تفسيرات كاملة، وربما حتى مملة في بعض الأحيان، حول كيفية استخدام الذكاء الاصطناعي، وما هي البيانات التي يمكن أن يلمسها، وكيف سيتم التحقق من صحة المخرجات، وكيفية تخصيص الرصيد، فأنت في وضع جيد.
عندما تجعل الذكاء الاصطناعي أمرًا يخص الجميع، يصبح من الأسهل بكثير التأكد من أن موظفيك لديهم الحقوق والأخطاء في مكانها الصحيح، لأن معرفة الذكاء الاصطناعي لا ينبغي أن تكون في قسم تكنولوجيا المعلومات وحده. إذا فهم قسم تكنولوجيا المعلومات المخاطر فقط، فسوف تغرق.
امنح الأشخاص في جميع أنحاء المؤسسة الأدوات والمعرفة اللازمة لاستخدامها بشكل مسؤول، بدءًا من اكتشاف التحيز وحتى معرفة متى يجب الثقة أو التشكيك في إجاباته.
ابدأ صغيرًا ولكن تعلم بسرعة عن طريق اختبار الذكاء الاصطناعي في المناطق منخفضة المخاطر أولاً، واعرف ما الذي ينجح، وقم بالتعديل مع تقدمك. راقب كيفية أدائها من خلال عمليات التعلم الآلي (MLOps). قياس ما يهم. اسمح للعاملين في مجال المعرفة التجارية ببناء المقاييس ومؤشرات الأداء الرئيسية. اجعل ضمان الجودة رائعًا مرة أخرى.
المطبعة والآلة الحاسبة… والآن الذكاء الاصطناعي
عندما يتم تنفيذ الذكاء الاصطناعي بشكل صحيح، فإنه يزيد من حدة الحافة. المطبعة لم تنته من التعلم. الآلة الحاسبة لم تقتل الرياضيات. البريد الإلكتروني لم يدمر الإنتاجية. رفع كل واحد منهم الكلمة وأعطى الناس مساحة للعمل على الأمور الأكثر أهمية.
وينبغي التعامل مع الذكاء الاصطناعي بنفس الطريقة. وليس الهدف هنا محو الثقة أو إضعاف الأنظمة. إنه هنا لتضخيم ما يفعله الناس عندما يقترن بالحوكمة والمساءلة الواضحة. يستمر التقدم عندما يرى الناس أنه يجعل الحياة أفضل دون المساس بالنزاهة.
الثقة لا تكتسب عن طريق البيانات الصحفية. ويكتسب بالإثبات. أظهر للموظفين أن الذكاء الاصطناعي لديه حواجز حماية. أظهر للعملاء أن الأمان والخصوصية يأتيان في المقام الأول. هكذا تترسخ المصداقية.
تستمر المصداقية عندما يكون الذكاء الاصطناعي شفافًا وخاضعًا للمساءلة. هذه هي الطريقة التي ندافع بها عن الثقة في الأمن السيبراني، وهذه هي الطريقة التي نشكل بها المستقبل.
لقد عرضنا أفضل برامج التشفير.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات