
عندما يتعلق الأمر بأدوات الذكاء الاصطناعي مثل ChatGPT، فإن التحدي الحقيقي ليس فقط ما يمكنهم فعله، ولكن ما يجب أن يقولوه.
المخاوف بشأن المحتوى الضار موجودة في كل مكان، ولكن السؤال الأصعب هو من الذي يقرر المعنى الفعلي لكلمة “ضار”، ومن يمكنه رؤيته.
حدود مرشحات السلامة
أظهرت الحالات البارزة ما يحدث عندما تخطئ أدوات الذكاء الاصطناعي. أدت التقارير التي تفيد بأن ChatGPT يقنع المراهقين بالانتحار إلى إجبار كبار مقدمي الخدمة على اتخاذ إجراءات صارمة ضد موضوعات مثل الانتحار وإيذاء النفس. وقد أدى ذلك إلى حواجز الحماية الشاملة والضوابط الأبوية.
لكن من الناحية العملية، غالبًا ما اتخذت حواجز الحماية هذه نهجًا أخرقًا بمقاس واحد يناسب الجميع. تنطبق نفس القواعد على كل مستخدم، بغض النظر عن العمر أو الخبرة أو السياق. هذه هي الطريقة التي ينتهي بها الأمر في مواقف محبطة حيث يتم التعامل مع البالغين مثل الأطفال ويتم التعامل مع الأطفال مثل البالغين.
تحتاج الشركات إلى فارق بسيط
داخل مكان العمل، تصبح هذه المشكلة أكثر فوضوية. قد يطلب كل من المتدرب في مجال التسويق، ومسؤول الامتثال، والمدير المالي نفس نظام الذكاء الاصطناعي للمساعدة. ومع ذلك، فإن حساسية ما يجب عليهم رؤيته يمكن أن تختلف بشكل كبير.
قد يحتاج مسؤول الامتثال إلى الرجوع إلى الإرشادات التنظيمية بشأن التداول الداخلي. قد تكون هذه المعلومات نفسها خطيرة في أيدي موظف مبتدئ.
قد يحتاج المطور إلى الوصول العميق إلى وثائق تكنولوجيا المعلومات، ولكن لا ينبغي السماح لمستخدم الأعمال بكشف أسرار النظام من خلال مطالبة غير رسمية.
لا يمكن للمؤسسات الاعتماد على مرشحات المحتوى ذات النمط الاستهلاكي التي تعامل الجميع بنفس الطريقة. إنهم بحاجة إلى أنظمة ذكاء اصطناعي تعترف بالأدوار والمسؤوليات والحدود القانونية.
أدخل: عناصر التحكم في الوصول المستندة إلى الشخصية
بدلاً من القيود الشاملة التي تحظر موضوعًا بأكمله للجميع، يمكن للمؤسسات تطبيق عناصر التحكم في الوصول المستندة إلى الشخصية (PBAC) التي تعكس المعرفة التي يجب السماح للمستخدمين المختلفين بالاطلاع عليها.
ومن شأن نظام الذكاء الاصطناعي الذي يلتزم بـ PBAC أن يصمم الإجابات بناءً على من يسأل وما هو المصرح له بمعرفته. قد تؤدي نفس المطالبة إلى إجابات مختلفة اعتمادًا على قسم المستخدم أو مستوى التخليص أو المشاريع الحالية.
قد يبدو هذا مثل التحكم في الوصول المستند إلى الدور (RBAC) في الأمن السيبراني، لكن RBAC يجيب على السؤال: ما هي الأنظمة والملفات التي يمكن لهذا الدور الوصول إليها؟ يجيب PBAC: ما هي المعرفة التي يجب أن تراها هذه الشخصية في هذا السياق المحدد، وما الذي يجب تصفيته؟
على سبيل المثال، مع RBAC، قد يتمتع كل من مدير الموارد البشرية ومحلل برامج الموارد البشرية بإمكانية الوصول إلى نفس نظام تسجيل الموظفين بناءً على أدوارهم. إذا طلب كل منهم من مساعد الذكاء الاصطناعي نفس المطالبة، “تلخيص اتجاهات الغائبين خلال الأشهر الستة الماضية”، فإن نظام الذكاء الاصطناعي الذي يعتمد فقط على عناصر تحكم RBAC سيعيد نفس الاستجابة لكلا المستخدمين.
قد يتضمن ذلك تفاصيل حساسة مثل غياب موظفين محددين، أو أسباب الإجازة، أو حتى الملاحظات الطبية المضمنة إذا لم يتم تنظيف السجلات الأساسية بشكل صحيح.
على الرغم من أن كلا الدورين يتمتعان بإمكانية الوصول إلى النظام من الناحية الفنية، إلا أن الناتج قد يكشف بشكل غير متوقع عن المعلومات الصحية المحمية (PHI) ويخلق مخاطر امتثال محتملة.
شخصيات مختلفة
باستخدام PBAC، يقوم مساعد الذكاء الاصطناعي بتصميم استجابته وفقًا لشخصية كل مستخدم:
بالنسبة لقائد الموارد البشرية، الذي قد لا تشمل شخصيته المسؤولية عن إدارة الموظفين فحسب، بل أيضًا عن الرفاهية، يقدم مساعد الذكاء الاصطناعي ملخصًا مجهول المصدر ولكنه مفصل مثل “شهدت المنطقة أ زيادة بنسبة 17٪ في الإجازات الطبية، في المقام الأول بين الأدوار التي تواجه العملاء، مع كون حالات الغياب المرتبطة بالتوتر هي الفئة الأكثر شيوعًا”.
بالنسبة لمحلل البيانات، الذي تركز شخصيته على مقاييس الأداء، يقوم مساعد الذكاء الاصطناعي بإنشاء تقرير اتجاه عالي المستوى دون أي سياق طبي أو شخصي: “زاد التغيب عن العمل بنسبة 7% على أساس ربع سنوي، مع حدوث أكبر زيادة في قسم العمليات”.
طرح كلا المستخدمين نفس السؤال، لكن PBAC يضمن أن كل منهما يتلقى فقط الرؤى المناسبة لدوره وسياق الحاجة إلى المعرفة.
يقوم العديد من موردي أمن الإنترنت باختبار هذا النهج بالفعل. إنهم يجلسون بين نماذج اللغات الكبيرة والمستخدم النهائي، ويفرضون السياسات التي تتوافق مع متطلبات الشركة للامتثال والخصوصية والأمان.
يتحول النظام إلى جدار حماية للمحتوى، لا يقوم بتصفية المواد السامة فحسب، بل أيضًا الموضوعات التي قد تشكل مخاطر تجارية غير ضرورية بناءً على شخصية كل مستخدم.
ما وراء الإشراف على المحتوى، إلى الحوكمة
يمهد PBAC الطريق لحوكمة أفضل للذكاء الاصطناعي. عندما تتم تصفية مخرجات النموذج أو حظرها، يمكن للنظام توثيق السبب وتوفير مسار تدقيق يوضح المحتوى الذي تم تقييده، وبموجب أي سياسة، ولمن.
تعد إمكانية التدقيق هذه أمرًا بالغ الأهمية لأن لوائح الذكاء الاصطناعي مثل قانون الاتحاد الأوروبي للذكاء الاصطناعي وإطار إدارة مخاطر الذكاء الاصطناعي التابع لـ NIST تدفع الشركات نحو حوكمة يمكن تتبعها وشفافة.
لإدارة مخاطر الأعمال الناجمة عن اعتماد الذكاء الاصطناعي، يجب على المؤسسات الابتعاد عن الأدوات القديمة الفظة للإشراف على المحتوى إلى شيء أكثر دقة، وأكثر وعيًا بالسياق، وأكثر توافقًا مع الطريقة التي تفكر بها المؤسسات بالفعل في التحكم في الوصول.
بمعنى آخر، سيبدو مستقبل حوكمة الذكاء الاصطناعي أقل شبهاً بالضوابط الأبوية، وأكثر شبهاً بالأمن السيبراني.
خلاصة القول
مع تحول الذكاء الاصطناعي إلى جزء لا يتجزأ من سير عمل الأعمال، لم تعد حواجز الحماية المخصصة للمستهلك كافية. وتعمل الضوابط المفرطة في التقييد والتي تناسب الجميع على خنق الإبداع وأحبط العمل المشروع، في حين تؤدي الضمانات الفضفاضة أو غير الموجودة إلى مخاطر تنظيمية ومخاطر تتعلق بالسمعة.
تحتاج المؤسسات إلى نهج يفهم من هم المستخدمون، وما يُسمح لهم برؤيته، وما هي العواقب التي قد تحدث إذا ساءت الأمور.
تعد عناصر التحكم في الوصول المستندة إلى الشخصية هي الخطوة التالية. إنها توفر الفارق الدقيق والسياق الذي يتطلبه الذكاء الاصطناعي للمؤسسات، مما يضمن بقاء هذه الأدوات القوية آمنة ومفيدة ومتوافقة مع أهداف العمل.
إن تحديد وتوثيق هذا التوافق هو الحدود الرئيسية التالية لحوكمة الذكاء الاصطناعي، حيث يتم توجيه السلامة من خلال سياسة منظمة ومحددة جيدًا للحاجة إلى المعرفة، وليس الرقابة التعسفية.
لقد قمنا بتقييم أفضل حلول إدارة الهوية.
تم إنتاج هذه المقالة كجزء من قناة Expert Insights التابعة لـ TechRadarPro حيث نعرض أفضل وألمع العقول في صناعة التكنولوجيا اليوم. الآراء الواردة هنا هي آراء المؤلف وليست بالضرورة آراء TechRadarPro أو Future plc. إذا كنت مهتمًا بالمساهمة، اكتشف المزيد هنا: https://www.techradar.com/news/submit-your-story-to-techradar-pro

التعليقات