يبدو أن شركة مايكروسوفت تحاول توضيح التناقض الغريب حول برنامج Copilot AI الخاص بها. بعد أن جعلت إحدى الوثائق الخاصة بها الذكاء الاصطناعي يبدو أقل فائدة بكثير مما قد يوحي به تسويق الشركة.
لاحظ المستخدمون مؤخرًا أن شروط استخدام برنامج Copilot من Microsoft تتضمن تحذيرًا بأن الخدمة مخصصة “لأغراض الترفيه فقط”، مضيفين أنها يمكن أن ترتكب أخطاء، وقد لا تعمل على النحو المنشود، ولا ينبغي الاعتماد عليها للحصول على نصائح مهمة. أضاف نفس القسم أيضًا أنه يجب على المستخدمين استخدام Copilot على مسؤوليتهم الخاصة، الأمر الذي أثار الكثير من الدهشة، نظرًا لمدى قوة Microsoft في الترويج لـ Copilot كأداة إنتاجية عبر Windows وMicrosoft 365 وبرامج المؤسسات.
كيف تدافع مايكروسوفت عن هذا؟
وفقًا لمايكروسوفت، فإن الصياغة المستخدمة في الوثيقة تحتوي على لغة قديمة يعود تاريخها إلى حياة Copilot السابقة كرفيق بحث يعتمد على Bing. في تصريح ل أحدث ويندوزقالت الشركة إن عبارة “أغراض الترفيه” لم تعد تعكس كيفية استخدام Copilot اليوم وسيتم تحديثها في المراجعة التالية للشروط.
لقد تغير برنامج Copilot كثيرًا منذ عصر Bing Chat، وتقوم Microsoft الآن بوضعه على أنه أكثر من مجرد برنامج دردشة آلي غير رسمي. لكن هذه ليست القصة بأكملها.
لماذا لا يزال من الصعب تجاهل هذا التناقض؟
إن إخلاء المسؤولية القانونية الذي يقول “لا تعتمد على Copilot للحصول على نصائح مهمة” ليس أمرًا غير معتاد في عالم الذكاء الاصطناعي، ولكن إقران ذلك بعبارة “لأغراض الترفيه فقط” كان مختلفًا عند إرفاقه بمنتج تريد Microsoft أن يستخدمه الأشخاص في المستندات والعروض التقديمية وسير العمل في مكان العمل ومهام Windows.
لا تعتقد Microsoft فجأة أن برنامج Copilot عديم الفائدة. ولكن مع رد الفعل العنيف من جانب المستخدمين وانخفاض معدلات الاعتماد، فمن الواضح أن برنامج Copilot ينتقل من “الذكاء الاصطناعي في كل مكان” إلى نهج أكثر تركيزًا. لذا فإن الشركة لا تريد أن يعتقد المستخدمون أن برنامج Copilot مخصص للترفيه فقط بعد الآن. ولكنه تذكير جيد بأن حتى هذه العلامات التجارية التي تبيع الذكاء الاصطناعي لا تزال تشعر بالحاجة إلى إخبار المستخدمين بعدم الثقة به كثيرًا.

التعليقات