
يعمل الذكاء الاصطناعي على إعادة تشكيل الطريقة التي نعمل بها، ونبتكر، ونتخذ القرارات، مثلما فعل الإنترنت منذ عقود مضت.
من أتمتة المهام إلى إنشاء التعليمات البرمجية وتحليل البيانات، يتجه الموظفون في مختلف الصناعات إلى أدوات الذكاء الاصطناعي للعمل بشكل أسرع وأكثر ذكاءً.
ومع ذلك، فإن معظم المنظمات ليس لديها رؤية حول كيفية أو مكان أو سبب استخدامها.
باحث أمني في وحدة استخبارات التهديدات لشركة LevelBlue.
يُعرف هذا الاستخدام غير المصرح به لأدوات الذكاء الاصطناعي من قبل الموظفين دون موافقة أو مراقبة إدارة تكنولوجيا المعلومات في المؤسسة باسم Shadow AI.
إن الثقة العمياء في مخرجات الذكاء الاصطناعي، وضعف التدريب على الأمن السيبراني، والافتقار إلى الإدارة الواضحة، تسمح للبيانات الحساسة، والملكية الفكرية، وحتى عمليات صنع القرار، بالخروج عن نطاق السيطرة التنظيمية. وما بدأ كأداة لتحقيق الكفاءة أصبح الآن يغذي التهديدات غير المرئية.
في هذه المقالة، سأستكشف الأسباب التي تدفع إلى ظهور Shadow AI، والمخاطر التي يشكلها على الشركات، وما يمكن للمؤسسات القيام به لاستعادة الرؤية والسيطرة قبل أن تتفاقم المشكلة.
ما الذي يدفع طفرة الذكاء الاصطناعي في الظل؟
إن الارتفاع السريع لـ Shadow AI ليس نتيجة نوايا خبيثة، بل هو نتيجة لنقص الوعي والتعليم. غالبًا ما يجلب الموظفون الذين يستخدمون الذكاء الاصطناعي في حياتهم الشخصية نفس الأدوات إلى مكان العمل، على افتراض أنها آمنة للأنظمة المعتمدة من قبل الشركة. بالنسبة للكثيرين، أصبح الخط الفاصل بين الاستخدام الشخصي والمهني غير واضح.
مع التقدم السريع في أدوات الذكاء الاصطناعي، لم تقم بعض المنظمات بعد بوضع سياسات واضحة أو إرشادات تدريبية حول ما يشكل الاستخدام المناسب للذكاء الاصطناعي في مكان العمل.
وبدون توجيه واضح، يقوم الموظفون بالتجربة بأنفسهم. وبالمثل، فإن سهولة وشعبية أدوات الذكاء الاصطناعي غالبا ما تفوق المخاطر المتصورة. وهو يعكس، من نواحٍ عديدة، الأيام الأولى لـ Shadow IT، حيث تحول الموظفون ذات مرة إلى أدوات SaaS وتطبيقات المراسلة غير المعتمدة لتسريع الإنتاجية.
هذه المرة فقط، أصبحت المخاطر أعلى بكثير، لأنه على عكس Shadow IT، لا يقوم Shadow AI بنقل البيانات فحسب؛ فهو يحول البيانات ويكشفها ويتعلم منها، مما يؤدي إلى ظهور نقاط ضعف غير مرئية ومخاطر أعلى.
المخاطر الرئيسية للذكاء الاصطناعي الظل
يؤدي اعتماد الذكاء الاصطناعي غير المُدار إلى مجموعة من المخاطر. مصدر القلق الأكثر إلحاحا هو تسرب البيانات، وهي مشكلة أبرزها اختراق DeepSeek هذا العام. عندما يقوم الموظفون بإدخال معلومات سرية في أدوات الذكاء الاصطناعي العامة، فقد يتم تسجيل تلك البيانات أو الاحتفاظ بها أو حتى استخدامها لتدريب النماذج المستقبلية. يمكن أن يؤدي ذلك إلى انتهاكات قوانين حماية البيانات مثل اللائحة العامة لحماية البيانات (GDPR) أو قانون HIPAA، وفي بعض الحالات، حتى التجسس على البيانات.
يثير تخزين المعلومات الحساسة على خوادم موجودة في بلدان غير تابعة مخاوف بشأن احتمال سرقة البيانات أو المراقبة الجيوسياسية. ولهذا السبب، حظرت العديد من الوكالات الحكومية في جميع أنحاء الولايات المتحدة وأوروبا استخدام DeepSeek داخل مؤسساتها.
الخطر الرئيسي الآخر هو المسؤوليات القانونية والتنظيمية. عندما يعتمد الموظفون على المخرجات التي يولدها الذكاء الاصطناعي دون التحقق من دقتها أو شرعيتها، فإنهم يفتحون الباب أمام عواقب وخيمة من انتهاكات حقوق النشر وانتهاكات الخصوصية إلى فشل الامتثال على نطاق واسع.
يمكن أن تؤدي المشاركة غير المصرح بها للمعلومات الشخصية أو الحساسة مع النماذج الخارجية أيضًا إلى ظهور إشعارات الانتهاك، والتحقيقات التنظيمية، والانتهاكات التعاقدية، مما يعرض المنظمة لغرامات باهظة الثمن والإضرار بالسمعة.
يتم تضخيم هذه المخاطر من خلال الاتجاهات الناشئة مثل التشفير الديناميكي والذكاء الاصطناعي الوكيل. في بعض الحالات، يتم نشر التعليمات البرمجية مباشرة في الإنتاج دون مراجعة.
ويمكن أن تظل هذه العيوب مخفية حتى يتم استغلالها. يشكل الذكاء الاصطناعي الوكيل مصدر قلق أوسع. غالبًا ما يتم منح وكلاء الذكاء الاصطناعي الداخلي، المصممين لأتمتة سير العمل أو مساعدة الموظفين، حق الوصول بشكل مفرط إلى البيانات التنظيمية.
وبدون ضوابط صارمة، يمكن أن تصبح بمثابة باب خلفي للأنظمة الحساسة، مما يؤدي إلى كشف السجلات السرية أو إثارة إجراءات غير مقصودة. تعمل هذه الممارسات معًا على توسيع سطح الهجوم بطرق تتطور بشكل أسرع مما تستطيع معظم المؤسسات اكتشافه أو احتوائه.
ومما يثير القلق أيضًا الثقة العمياء في مخرجات الذكاء الاصطناعي. ومع ازدياد ارتياح المستخدمين لهذه الأنظمة، ينخفض مستوى التدقيق لديهم. يمكن أن تنتشر النتائج غير الدقيقة أو المتحيزة دون فحص من خلال سير العمل، وعند استخدامها خارج البيئات الخاضعة للعقوبات، تفقد فرق تكنولوجيا المعلومات الرؤية اللازمة لتحديد الأخطاء أو التحقيق في الحوادث.
لماذا تعتبر الرؤية ضرورية لمعالجة تهديد الذكاء الاصطناعي في الظل والتخفيف منه
تبدأ معالجة Shadow AI بالرؤية. لا تستطيع المؤسسات حماية ما لا يمكنها رؤيته، وفي الوقت الحالي، ليس لدى الكثير منها سوى القليل من المعرفة حول كيفية استخدام أدوات الذكاء الاصطناعي عبر شبكاتها.
تتمثل الخطوة الأولى في تقييم مكان استخدام الذكاء الاصطناعي ووضع سياسات واضحة ومحدثة تحدد ما هو مسموح به وما هو مقيد وتحت أي ظروف يمكن استخدام الذكاء الاصطناعي. يعد التدريب على مستوى المؤسسة أمرًا بالغ الأهمية أيضًا لمساعدة الموظفين على فهم فوائد ومخاطر استخدام نماذج اللغات الكبيرة (LLMs).
ويجب على الشركات أيضًا توفير الموارد المناسبة. عندما يتمكن الموظفون من الوصول إلى أدوات الذكاء الاصطناعي المعتمدة التي تلبي احتياجات أعمالهم، فمن غير المرجح أن يبحثوا عن أدوات غير مصرح بها. على سبيل المثال، قد يحتاج المطورون إلى نماذج متخصصة مستضافة في بيئات آمنة للاستفادة من الذكاء الاصطناعي بأمان دون الكشف عن أكواد الملكية أو بيانات العملاء.
بعد ذلك، يجب على المؤسسات دمج الذكاء الاصطناعي في بنيتها الأمنية. يجب تنفيذ إدارة الوصول المميز للوصول إلى بعض حاملي LLM، مما يضمن أن المستخدمين المصرح لهم فقط هم من يمكنهم التفاعل مع الأنظمة أو مجموعات البيانات الحساسة. يجب على فرق الأمان أيضًا نشر عناصر التحكم الفنية، مثل CASB أو DLP أو تصفية الوكيل، لاكتشاف استخدام Shadow AI وحظره.
في النهاية، لن ينتظر Shadow AI سياستك. إنها تقوم بالفعل بتشكيل مسارات العمل والقرارات وتدفقات البيانات عبر المؤسسات. والخيار ليس ما إذا كان سيتم السماح بالذكاء الاصطناعي، بل ما إذا كان سيتم إدارته.
يمكن للمؤسسات التي توفر الرؤية والتحكم والمساءلة فيما يتعلق باستخدام الذكاء الاصطناعي الخاص بها أن تعمل على تمكين الابتكار بأمان، ولكن تجاهل Shadow AI لن يؤدي إلى اختفائه. ومن الأفضل بكثير مواجهتها بشكل مباشر، وفهم كيفية استخدامها، وإدارة المخاطر قبل أن يديروك.
لقد قمنا بتقييم أفضل المنصات بدون كود.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات