
- يكشف Magentic Marketplace من Microsoft عن عدم قدرة وكلاء الذكاء الاصطناعي على التصرف بشكل مستقل
- تأثر وكلاء جانب العميل بسهولة بوكلاء الأعمال أثناء المعاملات المحاكاة
- يتباطأ عمل عملاء الذكاء الاصطناعي بشكل ملحوظ عندما يُعرض عليهم عدد كبير جدًا من الخيارات
أثارت دراسة جديدة أجرتها مايكروسوفت تساؤلات حول مدى الملاءمة الحالية لعملاء الذكاء الاصطناعي الذين يعملون دون إشراف بشري كامل.
قامت الشركة مؤخرًا ببناء بيئة اصطناعية، تسمى “Magentic Marketplace”، مصممة لمراقبة كيفية أداء عملاء الذكاء الاصطناعي في المواقف غير الخاضعة للرقابة.
اتخذ المشروع شكل منصة تجارة إلكترونية تمت محاكاتها بالكامل، مما سمح للباحثين بدراسة كيفية تصرف وكلاء الذكاء الاصطناعي كعملاء وشركات – مع نتائج محتملة يمكن التنبؤ بها.
اختبار حدود نماذج الذكاء الاصطناعي الحالية
تضمن المشروع 100 وكيل من جانب العملاء يتفاعلون مع 300 وكيل من جانب الأعمال، مما يمنح الفريق بيئة محكمة لاختبار مهارات اتخاذ القرار والتفاوض لدى الوكيل.
الكود المصدري للسوق مفتوح المصدر؛ ولذلك، يمكن للباحثين الآخرين اعتماده لإعادة إنتاج التجارب أو استكشاف اختلافات جديدة.
أشار إيسي كامار، نائب الرئيس والمدير الإداري لمختبر الذكاء الاصطناعي Frontiers Lab التابع لأبحاث Microsoft، إلى أن هذا البحث حيوي لفهم كيفية تعاون عملاء الذكاء الاصطناعي واتخاذ القرارات.
استخدمت الاختبارات الأولية مزيجًا من النماذج الرائدة، بما في ذلك GPT-4o وGPT-5 وGemini-2.5-Flash.
ولم تكن النتائج غير متوقعة على الإطلاق، حيث أظهرت عدة نماذج نقاط ضعف.
يمكن بسهولة أن يتأثر وكلاء العملاء بوكلاء جانب الأعمال في اختيار المنتجات، مما يكشف عن نقاط الضعف المحتملة عندما يتفاعل الوكلاء في بيئات تنافسية.
انخفضت كفاءة الوكلاء بشكل حاد عندما واجهوا عددًا كبيرًا جدًا من الخيارات، مما أدى إلى إرهاق مدى انتباههم، مما أدى إلى اتخاذ قرارات أبطأ أو أقل دقة.
واجه وكلاء الذكاء الاصطناعي أيضًا صعوبات عندما يُطلب منهم العمل لتحقيق أهداف مشتركة، حيث كانت النماذج في كثير من الأحيان غير متأكدة من الوكيل الذي يجب أن يتولى أي دور، مما قلل من فعاليتهم في المهام المشتركة.
ومع ذلك، لم يتحسن أدائهم إلا عندما تم توفير التعليمات خطوة بخطوة.
وأشار كامار إلى أنه “يمكننا إرشاد النماذج – كما يمكننا أن نقول لهم، خطوة بخطوة. ولكن إذا كنا نختبر قدراتهم التعاونية بطبيعتها، أتوقع أن تتمتع هذه النماذج بهذه القدرات افتراضيًا”.
تظهر النتائج أن أدوات الذكاء الاصطناعي لا تزال بحاجة إلى توجيه بشري كبير لتعمل بفعالية في بيئات متعددة الوكلاء.
غالبًا ما يتم الترويج له على أنه قادر على اتخاذ القرار والتعاون بشكل مستقل، وتظهر النتائج أن سلوك الوكيل غير الخاضع للرقابة لا يزال غير موثوق به، لذلك يجب على البشر تحسين آليات التنسيق وإضافة ضمانات ضد التلاعب بالذكاء الاصطناعي.
تُظهر محاكاة مايكروسوفت أن وكلاء الذكاء الاصطناعي يظلون بعيدين عن العمل بشكل مستقل في سيناريوهات تنافسية أو تعاونية وقد لا يحققون أبدًا الاستقلالية الكاملة.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات