ربما تكون قد رأيت النصيحة المتداولة: اطلب من الذكاء الاصطناعي أن يتصرف كخبير في مجال ما، وستحصل على إجابات أفضل. إنها نصيحة شائعة، وهي تنجح أحيانًا. ومع ذلك، تشير دراسة جديدة إلى أن استخدام شخصيات الذكاء الاصطناعي قد لا يكون فعالاً كما كنا نعتقد.
اختبر باحثون من جامعة كاليفورنيا 12 شخصية مختلفة عبر ستة نماذج لغوية. تراوحت الشخصيات بين خبراء الرياضيات والبرمجة والكتاب المبدعين ومراقبي السلامة. كان الهدف هو معرفة مدى جودة أداء الذكاء الاصطناعي عندما يُطلب منه العمل كخبير.
وكانت النتائج مختلطة. إن اعتماد الشخصية جعل الذكاء الاصطناعي يبدو أكثر احترافية ويتبع القواعد بشكل أفضل. ولكنه أيضًا جعل الذكاء الاصطناعي أسوأ في تذكر الحقائق. وفقًا للدراسة، فإن استخدام شخصية الذكاء الاصطناعي يحولها إلى وضع متابعة التعليمات بدلاً من وضع استرجاع المعرفة، وهذه المقايضة تكلفك الدقة.
ما هو الحل؟
ولحل هذه المشكلة، قام الباحثون بتطوير PRISM، وهو اختصار لتوجيه الشخصية عبر النمذجة الذاتية القائمة على النية. بدلاً من استخدام الشخصية دائمًا أو عدم استخدامها مطلقًا، يقوم PRISM بتعليم الذكاء الاصطناعي أن يقرر ما هو الأفضل لنفسه.
عندما تطرح سؤالاً، يقوم PRISM بإنشاء إجابتين: واحدة من وضعه الافتراضي وواحدة من شخصيته. ثم يقوم بمقارنة الاثنين ويقدم الإجابة التي تحقق أداءً أفضل لاستعلام محدد.

لا يتم تجاهل إجابة الخبير حتى في حالة فوز الإجابة الافتراضية. وبدلاً من ذلك، يتم حفظ أسلوب الاستدلال في مكون خفيف الوزن يسمى محول LoRA، والذي يمكن للذكاء الاصطناعي الاستفادة منه لاحقًا عند الحاجة. يبدو الحل بسيطًا، لكنه فعال.
كيف كان أداء PRISM؟
رفع PRISM النتيجة الإجمالية للذكاء الاصطناعي بمقدار نقطة أو نقطتين على MT-Bench، وهو اختبار يقيس مدى نجاح الذكاء الاصطناعي في اتباع التعليمات والبقاء مفيدًا. بالنسبة لمهام الكتابة والسلامة، ساعد الأشخاص. بالنسبة للأسئلة المتعلقة بالمعرفة الأولية، فقد ثبت أن تخطي الشخصية هو الخيار الأفضل.
ويخطط الباحثون لاختبار PRISM مع عدد أكبر من الشخصيات وتحسين قدرته على تقديم إجابات أفضل. إنها الأيام الأولى، ولكن هذا قد يغير الطريقة التي نحفز بها الذكاء الاصطناعي إلى الأبد.

التعليقات