يحذر باحثون في جامعة ستانفورد من أن استخدام روبوتات الدردشة المدعمة بالذكاء الاصطناعي للحصول على نصائح شخصية قد يأتي بنتائج عكسية. لا تكمن المشكلة في الدقة فحسب، بل في كيفية استجابة هذه الأنظمة عندما تتعامل مع صراعات معقدة في العالم الحقيقي.
وجدت دراسة جديدة أن نماذج الذكاء الاصطناعي غالبًا ما تقف إلى جانب المستخدمين حتى عندما يكونون مخطئين، مما يعزز القرارات المشكوك فيها بدلاً من تحديهم. هذا النمط لا يشكل النصيحة نفسها فحسب، بل يغير الطريقة التي يرى بها الناس أفعالهم. أصبح المشاركون الذين تفاعلوا مع برامج الدردشة المتوافقة بشكل مفرط أكثر اقتناعًا بأنهم على حق وأقل رغبة في التعاطف مع الموقف أو إصلاحه.
إذا كنت تتعامل مع الذكاء الاصطناعي كدليل شخصي، فمن المحتمل أن تحصل على الطمأنينة بدلاً من التعليقات الصادقة.
وجدت الدراسة تحيزًا واضحًا
قام باحثو جامعة ستانفورد بتقييم 11 نموذجًا رئيسيًا للذكاء الاصطناعي باستخدام مزيج من المعضلات الشخصية، بما في ذلك السيناريوهات التي تنطوي على سلوك ضار أو خادع. ظهر النمط باستمرار. تتماشى روبوتات الدردشة مع موقف المستخدم في كثير من الأحيان أكثر مما تفعله الاستجابات البشرية.

في سيناريوهات النصائح العامة، دعمت النماذج المستخدمين بمقدار النصف تقريبًا مقارنة بالأشخاص. وحتى في المواقف غير الأخلاقية بشكل واضح، ظلوا يؤيدون هذه الاختيارات في ما يقرب من نصف الوقت. وظهر التحيز نفسه في الحالات التي اتفق فيها المراقبون الخارجيون بالفعل على أن المستخدم كان على خطأ، ومع ذلك فقد خففت الأنظمة تلك التصرفات أو أعادت صياغتها بطريقة أكثر ملاءمة.
ويشير هذا إلى مقايضة أعمق في كيفية بناء هذه الأدوات. إن الأنظمة التي تم تحسينها لتكون مفيدة غالبًا ما تفشل في الاتفاق، حتى عندما تنطوي الاستجابة الأفضل على معارضة.
لماذا لا يزال المستخدمون يثقون به
معظم الناس لا يدركون أن هذا يحدث. صنف المشاركون استجابات الذكاء الاصطناعي المقبولة والأكثر أهمية على أنها موضوعية بنفس القدر، مما يشير إلى أن التحيز غالبًا ما يمر دون أن يلاحظه أحد.
جزء من السبب يعود إلى النغمة. نادرًا ما تعلن الردود أن المستخدم على حق، ولكنها بدلاً من ذلك تبرر تصرفاته بلغة أكاديمية مصقولة تبدو متوازنة. هذا التأطير يجعل التعزيز يبدو وكأنه تفكير دقيق.

بمرور الوقت، يؤدي ذلك إلى إنشاء حلقة. يشعر الناس بالثقة، ويثقون في النظام أكثر، ويعودون بمشاكل مماثلة. يمكن أن يؤدي هذا التعزيز إلى تضييق نطاق كيفية تعامل شخص ما مع الصراع، مما يجعله أقل انفتاحًا على إعادة النظر في دوره. ولا يزال المستخدمون يفضلون هذه الاستجابات على الرغم من سلبياتها، مما يعقد الجهود المبذولة لإصلاح المشكلة.
ما يجب عليك فعله بدلا من ذلك
توجيهات الباحثين بسيطة: لا تعتمد على روبوتات الدردشة المدعمة بالذكاء الاصطناعي كبديل للمدخلات البشرية عندما تتعامل مع صراعات شخصية أو قرارات أخلاقية.
تتضمن المحادثات الحقيقية الخلاف والانزعاج، مما قد يساعدك على إعادة تقييم أفعالك وبناء التعاطف. تقوم Chatbots بإزالة هذا الضغط، مما يسهل تجنب التعرض للتحديات. هناك علامات مبكرة على إمكانية تقليل هذا الاتجاه، لكن هذه الإصلاحات لم يتم تطبيقها على نطاق واسع بعد.
في الوقت الحالي، استخدم الذكاء الاصطناعي لتنظيم تفكيرك، وليس لتحديد من هو على حق. عندما يتعلق الأمر بالعلاقات أو المساءلة، ستحصل على نتائج أفضل من الأشخاص الذين هم على استعداد للرد.

التعليقات