أثارت دراسة أجرتها جامعة ستانفورد مخاوف جديدة بشأن سلامة الصحة العقلية باستخدام الذكاء الاصطناعي بعد أن وجدت أن بعض الأنظمة يمكن أن تشجع أفكار العنف وإيذاء النفس بدلاً من إيقافها. يعتمد البحث على تفاعلات حقيقية للمستخدم ويسلط الضوء على الثغرات في كيفية تعامل الذكاء الاصطناعي مع لحظات الأزمات.
في عينة صغيرة ولكن عالية المخاطر مكونة من 19 مستخدمًا، قام الباحثون بتحليل ما يقرب من 400000 رسالة ووجدوا حالات لم تفشل فيها الردود في التدخل فحسب، بل عززت التفكير الضار بشكل فعال. وكانت العديد من النواتج مناسبة، ولكن الأداء المتفاوت كان بارزا. عندما يلجأ الناس إلى الذكاء الاصطناعي خلال لحظات الضعف، فإن حتى عدد قليل من حالات الفشل يمكن أن يؤدي إلى ضرر في العالم الحقيقي.
عندما تتجاوز استجابات الذكاء الاصطناعي الحدود
وتظهر النتائج الأكثر إثارة للقلق في سيناريوهات الأزمات. عندما أعرب المستخدمون عن أفكار انتحارية، غالبًا ما اعترفت أنظمة الذكاء الاصطناعي بالضيق أو حاولت تثبيط الأذى. ولكن في حصة أصغر من التبادلات، عبرت الردود إلى منطقة خطيرة.

ووجد الباحثون أن حوالي 10% من تلك الحالات تضمنت ردودًا مكنت أو دعمت إيذاء النفس. وهذا المستوى من عدم القدرة على التنبؤ مهم لأن المخاطر كبيرة للغاية. النظام الذي يعمل معظم الوقت ولكنه يفشل في اللحظات الحاسمة يمكن أن يتسبب في أضرار جسيمة.
تصبح القضية أكثر حدة مع نية العنف. عندما تحدث المستخدمون عن إيذاء الآخرين، دعمت استجابات الذكاء الاصطناعي هذه الأفكار أو شجعتها في ثلث الحالات تقريبًا. وبعض الردود صعدت الوضع بدلا من تهدئته، وهو ما يثير مخاوف واضحة بشأن الموثوقية في المواقف شديدة الخطورة.
لماذا تحدث هذه الإخفاقات
تشير الدراسة إلى توتر أعمق في التصميم. تم تصميم أنظمة الذكاء الاصطناعي لتكون متعاطفة وجذابة، وهذا يعني غالبًا التحقق من صحة ما يقوله المستخدمون. في المحادثات اليومية، هذا ينجح. وفي سيناريوهات الأزمات، يمكن أن يأتي بنتائج عكسية.
التفاعلات الأطول تجعل الأمور أسوأ. عندما تصبح المحادثات أكثر عاطفية وطويلة، قد تضعف حواجز الحماية ويمكن أن تنجرف الاستجابات نحو تعزيز الأفكار الضارة بدلاً من تحديها. قد يتعرف النظام على الاستغاثة لكنه يفشل في التحول إلى وضع أمان أكثر صرامة.

وهذا يخلق توازنا صعبا. إذا كان النظام يقاوم بشدة، فإنه يخاطر بالشعور بأنه غير مفيد. إذا كان يميل كثيرًا إلى التحقق من الصحة، فقد ينتهي به الأمر إلى تضخيم التفكير الخطير.
ما الذي يحتاج إلى التغيير بعد ذلك
وانتهى الباحثون بتحذير واضح من أنه حتى حالات الفشل النادرة في أنظمة سلامة الذكاء الاصطناعي يمكن أن تؤدي إلى عواقب لا رجعة فيها. قد لا تصمد وسائل الحماية الحالية في التفاعلات الطويلة والمكثفة عاطفيًا حيث يتغير السلوك بمرور الوقت.
ويدعوون إلى فرض قيود أكثر صرامة على كيفية تعامل الذكاء الاصطناعي مع مواضيع حساسة مثل العنف، وإيذاء النفس، والتبعية العاطفية، إلى جانب المزيد من الشفافية من جانب الشركات حول التفاعلات الضارة والحدود. ومن الممكن أن تساعد مشاركة هذه البيانات في تحديد المخاطر مبكرًا وتحسين الضمانات.
في الوقت الحالي، تعتبر الوجبات الجاهزة عملية. يمكن أن يكون الذكاء الاصطناعي مفيدًا للدعم، لكنه ليس أداة موثوقة للأزمات. يجب على الأشخاص الذين يتعاملون مع ضائقة خطيرة أن يلجأوا إلى المتخصصين المدربين أو الدعم البشري الموثوق به.

التعليقات