
- وجدت دراسة جديدة أن روبوتات الدردشة المدعمة بالذكاء الاصطناعي أكثر احتمالية بكثير من البشر للتحقق من صحة المستخدمين أثناء النزاعات الشخصية
- يمكن أن يصبح هذا الاتجاه خطيرًا عندما يستخدم الأشخاص برامج الدردشة الآلية للحصول على المشورة بشأن المعارك
- يمكن للذكاء الاصطناعي أن يجعل الناس يشعرون بأن هناك ما يبررهم بشكل مفرط في اتخاذ قرارات سيئة
إن جلب الدراما الشخصية إلى برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي ليس هو بالضبط السبب وراء قيام المطورين ببناء البرنامج، ولكن هذا لا يمنع الأشخاص الذين هم في منتصف القتال مع الأصدقاء والعائلة من السعي (والحصول على) التحقق من الداعمين الرقميين.
إن روبوتات الدردشة المدعومة بالذكاء الاصطناعي متاحة دائمًا، وتتسم بالصبر إلى ما لا نهاية، وجيدة جدًا في محاكاة المشاعر الصحيحة. جيد جدًا، حقًا، لأنهم غالبًا ما يتخلفون عن الاتفاق مع المستخدمين، مما قد يتسبب في مشاكل أكبر بكثير، وفقًا لدراسة جديدة نُشرت في علوم.
تناولت الدراسة كيفية استجابة نماذج الذكاء الاصطناعي الرائدة عندما يصف المستخدمون نزاعات شخصية ويطلبون التوجيه. والنتيجة هي نتيجة تبدو واضحة ومقلقة للغاية. تتوافق نماذج الذكاء الاصطناعي مع من يشارك فيها، بغض النظر عن السياق أو العواقب.
يستمر المقال أدناه
وأوضح الباحثون أنه “من خلال 11 نموذجًا متطورًا، أكد الذكاء الاصطناعي تصرفات المستخدمين بنسبة 49% أكثر من البشر، حتى عندما تضمنت الاستفسارات الخداع أو عدم الشرعية أو غيرها من الأضرار”. “[E]حتى أن تفاعلًا واحدًا مع الذكاء الاصطناعي المتملق قلل من رغبة المشاركين في تحمل المسؤولية وإصلاح الصراعات الشخصية، مع زيادة اقتناعهم بأنهم على حق.
بالطبع، عندما يذهب معظم الأشخاص إلى برنامج الدردشة الآلي في منتصف الصراع، فإنهم غالبًا لا يبحثون عن الحقيقة فيما إذا كانت مشاعرهم أو أفعالهم مبررة، بل يبحثون فقط عن اتفاق قوي. وبينما قد يتعاطف أحد الأشخاص المقربين، فإن الصديق الحقيقي سيقاوم أيضًا عندما يكون ذلك مبررًا. إذا بدأ شخص ما في الإصرار على أنه لم يرتكب أي خطأ على الإطلاق في العلاقة أو أنه ليس دراماتيكيًا وسيشعل النار في نفسه إذا تم وصفه بأنه دراماتيكي، فإن الصديق الحقيقي سيدفعه بلطف إلى الواقع.
روبوتات الدردشة لا تفعل ذلك. إذا وصل شخص ما وهو يشعر بالأذى أو الغضب أو الإحراج أو الصلاح الأخلاقي، فغالبًا ما يستجيب الذكاء الاصطناعي ببساطة عن طريق إعادة صياغة تلك المشاعر لتكون أكثر إقناعًا. الصراع هو بالضبط عندما يكون معظم الناس أقل موثوقية كرواة بالفعل. لكن استجابات الذكاء الاصطناعي تؤدي في نهاية المطاف إلى تصلب وجهات النظر وتضخيم المشاعر.
ووجد الباحثون أن الذكاء الاصطناعي لا يحتاج حتى إلى أن يقول صراحةً “أنت على حق” لكي يحدث هذا. اللغة الناعمة والتأكيدية تجعل من الصعب اكتشاف علامات السلوك المتهور أو غير الناضج. يشجع الذكاء الاصطناعي كل دافع، مهما كان إشكاليا أو غير أخلاقي أو غير قانوني.
منظمة العفو الدولية الشيطان على الكتف
في الأساس، نفس الصفات التي تجعل روبوتات الدردشة تبدو جذابة في لحظات الفوضى العاطفية تجعلها أيضًا محفوفة بالمخاطر. لكن الناس يستمتعون بالموافقة عليهم، كما أن الذكاء الاصطناعي البارد أو الفظ أو المتناقض بشكل انعكاسي لا يجذب معظم الناس (إلا عند الطلب).
وتشير الدراسة إلى أنه “على الرغم من الحكم المشوه، فقد كانت نماذج التملق موضع ثقة ومفضلة. وهذا يخلق حوافز ضارة لاستمرار التملق”. “إن الميزة نفسها التي تسبب الضرر تدفع أيضًا إلى المشاركة. وتؤكد النتائج التي توصلنا إليها على الحاجة إلى آليات التصميم والتقييم والمساءلة لحماية رفاهية المستخدم.”
قد تكون هذه مشكلة تصميم أصعب مما يريد مطورو الذكاء الاصطناعي الاعتراف به، وهي مشكلة أكثر أهمية عندما تصبح هذه الأنظمة جزءًا لا يتجزأ من الحياة العادية. يتم تسويق الذكاء الاصطناعي بالفعل كمدرب ورفيق ومستشار. تبدو هذه الأدوار حميدة حتى تتذكر كم من كونك مستشارًا جيدًا يتضمن أحيانًا قول لا أو إخبارك بالتباطؤ.
من الصعب تسويق إخبار المستخدم بأنه قد يكون مخطئًا. لكن الأداة المصممة للشعور بالدعم والتي تجعل الناس أسوأ في حل الصراعات وتحد من قدرتهم على النمو عاطفيا هي كابوس أسوأ من أي جدال قد يكون بينك وبين شخص عزيز عليك.
ويتفق معي ChatGPT وGemini.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات