
لقد أصبح الذكاء الاصطناعي أمرًا لا مفر منه. ما كان في السابق مجالًا بحثيًا متخصصًا أصبح الآن مندمجًا بالكامل في الحياة الشخصية والمهنية للشخص العادي. بالنسبة لقادة الأعمال، يتطور السؤال من “هل يستخدم الموظفون الذكاء الاصطناعي؟” (سواء أعجبك ذلك أم لا)، إلى “هل يستخدم الموظفون الذكاء الاصطناعي بشكل آمن؟”
باحث رئيسي في مجال الأمن السيبراني في CultureAI.
من الواضح أن الموظفين، وبالتالي أصحاب العمل، يدركون إمكانية استخدام الذكاء الاصطناعي لتحقيق مكاسب في الإنتاجية. نقطة “زائدة” جذابة للفرق التي تعاني من ضائقة الوقت والموارد.
يتم دفع الكثير من هذا التغيير من الأسفل إلى الأعلى. تشير الأبحاث إلى أن 78% من مستخدمي الذكاء الاصطناعي يستخدمون بالفعل أدوات الذكاء الاصطناعي الخاصة بهم في العمل. ومع ذلك، غالبًا ما تُستخدم هذه الأدوات داخل مكان العمل دون معرفة الشركة أو إشرافها.
يمكن لأدوات الذكاء الاصطناعي غير الموثقة هذه – أو الذكاء الاصطناعي الظلي – التي تعمل على شبكات الشركة أو تستخدم بيانات الشركة أن تشكل مخاطر أمنية كبيرة.
الأمر الواضح هو أن الموظفين سيستمرون في استخدام الذكاء الاصطناعي، دون انتظار أصحاب العمل لمواكبة الأذونات والمبادئ التوجيهية الواضحة والتدابير الأمنية. ولحسن الحظ، هناك طرق يمكن لأصحاب العمل من خلالها تنفيذ ضوابط فعالة لإدارة الذكاء الاصطناعي واستخدامه بسرعة دون خنق الابتكار.
رؤية الذكاء الاصطناعي (أو عدم وجودها)
من المرجح أن يستخدم موظفوك الذكاء الاصطناعي بطريقة أو بأخرى. الخطر لا يكمن في معرفة أين أو كيف وبأي أدوات. تشير الأبحاث إلى أن ما يقرب من نصف (47%) مستخدمي GenAI ما زالوا يصلون إلى الأدوات عبر الحسابات الشخصية غير المُدارة، إما حصريًا أو جنبًا إلى جنب مع الأدوات المعتمدة من الشركة.
على عكس البرامج التقليدية، يعتمد الذكاء الاصطناعي التوليدي على إدخال البيانات. مع هذا يأتي خطر المطالبات المدخلة بما في ذلك المعلومات السرية أو البيانات الشخصية أو IP أو حتى رمز المصدر. وبدون الرؤية، يواجه أصحاب العمل نقطة عمياء متزايدة.
فهم المخاطر المرتبطة باستخدام الذكاء الاصطناعي في مكان العمل
مع اعتماد أي تكنولوجيا جديدة تأتي المخاطر. مع اعتماد الذكاء الاصطناعي في مكان العمل، يتضمن ذلك ما يلي:
الظل منظمة العفو الدولية
يقوم الموظفون بشكل متزايد بتجربة أدوات الذكاء الاصطناعي الجديدة في العمل، غالبًا لأنها مجانية أو أسرع أو أكثر ملاءمة من البدائل المعتمدة. وفي حين أن هذا يمكن أن يؤدي إلى تحسين الكفاءة، فإن استخدام تطبيقات الذكاء الاصطناعي غير المصرح بها (الذكاء الاصطناعي الظلي) يؤدي إلى توسيع نطاق الهجوم بشكل كبير ويترك فرق الأمن دون رؤية أو إشراف كافيين.
ما يثير القلق هو البيانات التي يتم إدخالها في هذه الأدوات. تشير الأبحاث الحديثة إلى أن 93% من الموظفين يضعون بيانات الشركة في أدوات ذكاء اصطناعي غير مصرح بها، مع اعتراف ما يقرب من ثلث هؤلاء بمشاركة معلومات العميل السرية.
وهذا يعني أن الملكية الفكرية والمعلومات المنظمة والبيانات الشخصية من المحتمل أن تتم معالجتها من قبل أطراف ثالثة غير معروفة. وما يفعلونه بهذه المعلومات لا يزال مجهولا.
ومما يثير القلق أن العديد من أدوات المراقبة التقليدية تكافح من أجل اكتشاف عمليات الإرسال السريعة التي تحتوي على بيانات حساسة، خاصة عندما يتم الوصول إلى أدوات الذكاء الاصطناعي عبر حسابات غير مُدارة أو أجهزة شخصية.
تسرب البيانات
يقوم الموظفون بشكل روتيني بلصق المعلومات الحساسة في أدوات الذكاء الاصطناعي، وغالبًا ما يكون ذلك دون فهم كامل للمخاطر. في وقت مبكر من عام 2023، كشف مهندسو سامسونج عن طريق الخطأ عن رموز الملكية وملاحظات الاجتماعات السرية من خلال إرسالها إلى ChatGPT، مما يضع البيانات خارج سيطرة الشركة.
منذ ذلك الحين، ظهرت حوادث مماثلة عبر الصناعات، مما كشف عن مقدار المعلومات الحساسة التي تتدفق بهدوء إلى أنظمة الذكاء الاصطناعي التابعة لجهات خارجية. بمجرد إرسالها، غالبًا ما يكون لدى المؤسسات قدرة محدودة على إزالة تلك البيانات أو التحكم في كيفية الاحتفاظ بها أو استخدامها.
الحسابات والانتهاكات السريعة
يمكن لمحادثات الذكاء الاصطناعي المسربة أو المطالبات المخترقة أن توفر للجهات الفاعلة في مجال التهديد إمكانية الوصول إلى مجموعة واسعة من المعلومات الحساسة، وفي بعض الحالات، تمكين المزيد من اختراق الحساب إذا كانت ضوابط الأمن السيبراني الأوسع ضعيفة.
نظرًا لحجم وحساسية البيانات التي يتم إدخالها غالبًا في أدوات الذكاء الاصطناعي، يمكن أن يؤدي حساب ذكاء اصطناعي واحد مخترق إلى الكشف الفوري عن معلومات الشركة الخاصة، بما في ذلك بيانات الاعتماد والملكية الفكرية والأنظمة الداخلية.
فجوات الامتثال والحوكمة
مع تسارع اعتماد الذكاء الاصطناعي، يقوم المنظمون بشكل متزايد بالتدقيق في كيفية استخدام المؤسسات للذكاء الاصطناعي، لا سيما عندما يتقاطع مع حماية البيانات. قد يؤدي إرسال معلومات التعريف الشخصية (PII) إلى خدمات الذكاء الاصطناعي الخارجية أو غير الخاضعة للرقابة إلى انتهاك اللوائح مثل اللائحة العامة لحماية البيانات (GDPR) وقانون نقل التأمين الصحي والمسؤولية (HIPAA) ومتطلبات الخصوصية الخاصة بقطاع معين.
في الصناعات شديدة التنظيم مثل التمويل والدفاع والرعاية الصحية، حتى الاستخدام غير المصرح به لأداة خارجية للذكاء الاصطناعي يمكن أن يؤدي إلى تعرض كبير للقانون والامتثال.
مستقبل الذكاء الاصطناعي في مكان العمل
في حين أن انفجار الذكاء الاصطناعي في مكان العمل قد يبدو سريعًا، إلا أنه يعكس نفس التبني “من القاعدة إلى القمة” للتقنيات التي جاءت قبله.
الفرق بين الذكاء الاصطناعي واستيعاب التقنيات “الجديدة” الأخرى هو أن الذكاء الاصطناعي يستهلك بيانات الشركة على نطاق واسع في كل تفاعل، مما يزيد من مخاطر التسريبات والانتهاكات وقضايا الامتثال بشكل كبير. الحل لا يكمن في حظر الذكاء الاصطناعي تمامًا.
سيجد الموظفون طرقًا بديلة، مثل استخدام هواتفهم الشخصية لإدخال بيانات الشركة، خاصة إذا كانوا قد وجدوا بالفعل أن هذه الأدوات ذات قيمة لتحقيق الكفاءة. تحتاج فرق الأمان إلى بناء استراتيجيات الأمان وتكنولوجيا المعلومات التي تحدد ضوابط استخدام الذكاء الاصطناعي واكتشاف الظل للذكاء الاصطناعي وتحليلات الاستخدام الشاملة.
وتعتبر هذه الركائز عوامل تمكين أساسية للابتكار المسؤول.
قد يستغرق الأمر بعض الوقت حتى يتم تطبيق اللوائح، لكن المنظمات الأساسية لا تنتظر. في النهاية، يستخدم موظفوك الذكاء الاصطناعي – سواء أعجبك ذلك أم لا – يمكن أن يساعدك التصرف الآن على فهم “كيف” و”أين” والتحكم فيهما، مما يجعل استخدام الذكاء الاصطناعي أكثر أمانًا، دون خنق الابتكار.
لقد عرضنا أفضل روبوت محادثة يعمل بالذكاء الاصطناعي للأعمال.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات