
- توصل التقرير إلى أن 43% من المؤسسات لا تزال ليس لديها خطط لسياسات الذكاء الاصطناعي
- في الوقت الحالي، يتبنى العمال الذكاء الاصطناعي بسرعة أكبر من سرعة قيام الشركات بكتابة السياسات
- يدعو Nexos.ai الشركات الصغيرة والمتوسطة إلى وضع السياسات الأساسية موضع التنفيذ – ويمكنها التطور من هناك
على الرغم من أن 70% من الموظفين القانونيين يستخدمون بالفعل الذكاء الاصطناعي للأغراض العامة في العمل، إلا أن 43% من المؤسسات تقول إنها لا تزال لا تملك سياسات رسمية للذكاء الاصطناعي (ولا توجد خطط لإنشائها).
كشف بحث جديد من Nexos.ai أن أكبر المخاطر المتعلقة بأدوات الذكاء الاصطناعي يمكن أن تأتي في الواقع من الافتقار إلى الرؤية والحوكمة.
والشركات الصغيرة والمتوسطة بشكل عام هي الأكثر عرضة للخطر ببساطة بسبب طبيعتها المتمثلة في قلة الموارد – سواء من حيث العمال أو الإجراءات.
يستمر المقال أدناه
الذكاء الاصطناعي في الغالب لا يمكن إدارته
وجدت Nexos.ai أن العمال يقومون بانتظام بلصق العقود أو اتفاقيات عدم الإفشاء أو المراسلات القانونية في برامج الدردشة العامة لتوفير الوقت، مما يعرض المعلومات الحساسة للخطر. في حين أن منتجات الذكاء الاصطناعي على مستوى المؤسسات تعد بأقصى قدر من أمان البيانات وعدم وجود تدريب على بيانات العملاء، فإن الإصدارات العامة ليست ضيقة جدًا.
تم الاستشهاد بأمن البيانات (46%) باعتباره الاهتمام الأكبر للفرق القانونية، قبل القضايا الأخلاقية (42%) والامتياز القانوني (39%)، ولكن كيفية تفاعل الموظفين مع روبوتات الدردشة العامة لا تتماشى مع المخاوف.
أشارت Nexos.ai أيضًا إلى أن الشركات الصغيرة والمتوسطة قد يكون لديها بالفعل مسارات عمل قانونية للذكاء الاصطناعي قيد الاستخدام دون أن يتم تأسيسها والاعتراف بها رسميًا، لأن اعتماد الذكاء الاصطناعي يحدث تدريجيًا وبدون حوكمة، مما يترك الشركات تلحق بالركب للتحكم في الاستخدام الصحيح والآمن للذكاء الاصطناعي بعد أن يبدأ الموظفون بالفعل في استخدام الأدوات.
وكتب رئيس المنتج زيلفيناس جيريناس: “إن الخطر الذي يواجه الشركات الصغيرة والمتوسطة لا يتمثل في الاستخدام المتهور للذكاء الاصطناعي، بل في التغيير غير المرئي لسير العمل”.
ولكن ليس من الضروري أن يكون الأمر صعبًا – يوضح التقرير أن سياسة الذكاء الاصطناعي الأساسية لا تحتاج إلى أن تكون معقدة. إن تحديد الأدوات المعتمدة، وحظر حالات الاستخدام، وتحديد قيود البيانات الحساسة قد يكون كافياً – أو على الأقل يمكن أن يكون أفضل من سيناريوهات الحوكمة الحالية.
وبالنظر إلى المستقبل، يقترح Nexos.ai أن تبدأ الشركات بسياسة بسيطة للذكاء الاصطناعي لإبعاد البيانات الحساسة عن الأدوات غير المعتمدة. قبل اعتماد الذكاء الاصطناعي على نطاق واسع، يدعو التقرير الشركات إلى الموافقة على الأدوات قبل أن تعتمدها الفرق، ولكن بمجرد تنفيذها، لا تزال Nexos.ai توصي بأن يكون لدى البشر رقابة قبل استخدام المحتوى الناتج عن الذكاء الاصطناعي في التطبيقات القانونية.
وخلص جيريناس إلى أنه “إذا تم دمج هذه الأدوات قبل أن تحدد الشركة الاستخدام المعتمد وحدود البيانات وخطوات المراجعة، فإن الكفاءة تصل بشكل أسرع من الحوكمة”.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات