التخطي إلى المحتوى

تميل روبوتات الدردشة ذات النماذج اللغوية الكبيرة (LLM) إلى الإطراء. أظهرت دراسة جديدة أنه إذا طلبت نصيحة من أحد النماذج، فمن المرجح بنسبة 49% أكثر من أي إنسان، في المتوسط، أن يؤكد وجهة نظرك الحالية بدلاً من تحديها. أثبت الباحثون أن تلقي النصائح الشخصية من روبوت الدردشة المتملق للذكاء الاصطناعي يمكن أن يجعل الناس أقل ميلاً للاعتذار وأكثر اقتناعًا بأنهم على حق.

يحب الناس ما تقوله برامج الدردشة الآلية هذه. المشاركون في الدراسة الجديدة التي نشرت اليوم في علوم، فضلوا نماذج الذكاء الاصطناعي المتملق على النماذج الأخرى التي أعطتهم الأمور بشكل مباشر، حتى عندما قدم المتملقون للمشاركين نصائح سيئة.

تقول أنات بيري، عالمة النفس الاجتماعي في الجامعة العبرية في القدس، والتي لم تشارك في الدراسة الجديدة ولكنها كتبت مقالة تعليق مصاحبة لها: “كلما عملت أكثر مع LLM، كلما رأيت هذه التعليقات المتملقّة الخفية تظهر. وهذا يجعلنا نشعر بالارتياح”. وتقول إن الأمر المخيف “هو أننا لسنا على دراية بهذه المخاطر حقًا”.


حول دعم الصحافة العلمية

إذا كنت تستمتع بهذا المقال، ففكر في دعم صحافتنا الحائزة على جوائز من خلال الاشتراك. من خلال شراء اشتراك، فإنك تساعد على ضمان مستقبل القصص المؤثرة حول الاكتشافات والأفكار التي تشكل عالمنا اليوم.


وبينما يلجأ ملايين الأشخاص إلى الذكاء الاصطناعي طلبًا للرفقة والتوجيه، فإن هذا القبول قد يشكل تهديدًا خفيًا ولكنه خطير. في الدراسة الجديدة، قام الباحثون أولاً بتحليل سلوك 11 ماجستيرًا رائدًا في إدارة الأعمال، بما في ذلك نماذج خاصة مثل GPT-4o من OpenAI وGemini من Google، ونماذج أكثر شفافية مثل تلك التي صنعتها DeepSeek. قامت ميرا تشينج، مؤلفة الدراسة الرئيسية من جامعة ستانفورد، وزملاؤها بتنظيم مجموعات من الأسئلة الإرشادية لطرحها على طلاب ماجستير إدارة الأعمال، بما في ذلك سؤال من منتدى Reddit الشهير r/AmItheAsshole، حيث ينشر الأشخاص حسابات عن صراعات بين الأشخاص ويسألون عما إذا كانوا هم المخطئون.

قام الباحثون بسحب المواقف التي اتفق فيها المستجيبون البشريون إلى حد كبير على أن الملصق كان مخطئًا. على سبيل المثال، سأل أحد الملصقات عما إذا كان ينبغي عليهم ترك سلة المهملات في حديقة لا تحتوي على صناديق قمامة. ومع ذلك، فإن نماذج الذكاء الاصطناعي أيدت بشكل ضمني أو صريح تصرفات ملصقات Reddit هذه في 51% من الحالات في المتوسط. كما أكدوا أيضًا على الملصقات بنسبة 48 بالمائة أكثر مما فعل البشر في مجموعة أخرى من أسئلة النصائح المفتوحة. وعندما عرضت عليهم مجموعة من التصرفات “الإشكالية” التي كانت خادعة أو غير أخلاقية أو حتى غير قانونية (مثل تزوير توقيع المشرف على العمل)، أيدت النماذج 47% منها في المتوسط.

لفهم التأثيرات المحتملة لهذا الميل إلى “استمالة” المستخدمين، أجرى الباحثون نوعين مختلفين من التجارب مع أكثر من 2400 مشارك في المجمل. في البداية، قرأ المشاركون “هل أنا الأحمق؟” – سيناريوهات واستجابات من نموذج ذكاء اصطناعي متملق أو من نموذج ذكاء اصطناعي تم توجيهه لانتقاد المستخدم ولكنه لا يزال مهذبًا. بعد أن تلقى المشاركون ردود الذكاء الاصطناعي، طُلب منهم أخذ وجهة نظر الشخص في القصة. كانت التجربة الثانية أكثر تفاعلية: حيث طرح المشاركون أسئلة المشورة الشخصية الخاصة بهم إما على طلاب ماجستير إدارة الأعمال المتملقين أو غير المتملقين وتحدثوا مع العارضات لبعض الوقت. في نهاية كلتا التجربتين، قام المشاركون بتقييم ما إذا كانوا يشعرون أنهم على حق وما إذا كانوا على استعداد لإصلاح العلاقة مع الشخص الآخر في الصراع.

وكانت النتائج مذهلة. كان الأشخاص الذين تعرضوا للذكاء الاصطناعي المتملق في كلتا التجربتين أقل عرضة للقول بأنه يجب عليهم الاعتذار أو تغيير سلوكهم في المستقبل. كانوا أكثر عرضة للتفكير في أنفسهم على أنهم على حق، ومن المرجح أن يقولوا إنهم سيعودون للتعامل مع LLM في المستقبل.

وخلص المؤلفون إلى أن تملق الذكاء الاصطناعي هو “فئة مميزة وغير منظمة حاليًا من الضرر” والتي تتطلب لوائح جديدة لمنعها. وكتبوا أن هذا يمكن أن يشمل عمليات تدقيق “سلوكية” من شأنها أن تختبر على وجه التحديد مستوى تملق النموذج قبل طرحه للجمهور.

لاحظ الخبراء أن ميل الذكاء الاصطناعي نحو القبول قد يغذي أيضًا دوامة الوهم لدى المستخدمين. وقد تعرضت شركة OpenAI، على وجه الخصوص، لانتقادات بسبب تملقها للذكاء الاصطناعي، وخاصة نموذج الشركة GPT-4o. وفي منشور لها العام الماضي، اعترفت الشركة بأن بعض إصدارات النموذج كانت “مفرطة في الإطراء أو مقبولة”، وأنها كانت “تبني المزيد من الحواجز لزيادة الصدق والشفافية”. ولم تستجب OpenAI لطلب التعليق. ورفضت جوجل التعليق على نموذجها الخاص Gemini.

تناولت الدراسة الجديدة التفاعلات القصيرة فقط مع برامج الدردشة الآلية. وجدت دانا كالاتشي، التي تدرس التأثير الاجتماعي للذكاء الاصطناعي في جامعة ولاية بنسلفانيا ولم تشارك في البحث الجديد، أن التملق يميل إلى أن يصبح أسوأ كلما تفاعل المستخدمون مع النموذج لفترة أطول. وتقول: “أعتقد أن هذا الأمر يتفاقم بمرور الوقت”.

ويشير كالاتشي إلى أن طلاب ماجستير القانون أيضًا حساسون جدًا للتغيرات على مستوى السطح في كيفية طرح الأسئلة. وأحكامهم الأخلاقية “هشة”، كما اكتشف الباحثون مؤخرا في دراسة لم يراجعها النظراء؛ يمكن أن يؤدي تغيير الضمائر والنبرة والإشارات الأخرى في سيناريوهات r/AmItheAsshole إلى قلب نصيحة النماذج. ويشير هذا إلى أن “ما يعرضونه في هذه الورقة هو قليل من الحد الذي يوضح مدى تملق هذه النماذج”، كما يقول كالاتشي.

تشير كاثرين أتويل، التي تدرس التملق للذكاء الاصطناعي في جامعة نورث إيسترن، إلى أن الناس قد يصبحون أيضًا أكثر اعتمادًا على هذا “السلوك المفرط في التحقق من الصحة” بمرور الوقت. وتقول: “أعتقد أن هناك خطرًا كبيرًا يتمثل في تخلف الناس عن اتباع هذه النماذج بدلاً من التحدث إلى الناس”.

ويشير بيري إلى أن طلب المشورة من أشخاص حقيقيين يمكن أن يؤدي إلى “احتكاك اجتماعي”. “هذا الاحتكاك لا يجعلنا نشعر بالرضا، ولكننا نتعلم منه.” تعد هذه التعليقات جزءًا مهمًا من كيفية ملاءمتنا لعالمنا الاجتماعي. وتقول: “كلما حصلنا على ردود فعل مشوهة لا تمنحنا في الواقع احتكاكًا حقيقيًا مع العالم الحقيقي، قلّت معرفتنا بكيفية التنقل في العالم الاجتماعي الحقيقي”.

ويقول كودي تورنر، عالم الأخلاق في جامعة بنتلي، إن الذكاء الاصطناعي المتملق يمكن أن يسبب الضرر من خلال إتلاف قدرتنا على جمع المعرفة. ويقول: “على المستوى الأساسي، فإن هذا مجرد حرمان الشخص الذي يتم التقرب إليه من الحقيقة”. قد يكون هذا مؤثرًا بشكل خاص عندما يأتي من جهاز كمبيوتر، والذي ينظر إليه المستخدمون دون وعي على أنه أكثر موضوعية من الإنسان. ويقول: “إن عدم التطابق هذا له بعض العواقب النفسية العميقة”.

Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *