التخطي إلى المحتوى

قامت الشركة الأم لـ Grammarly، Superhuman، بإيقاف ميزة مراجعة الخبراء الخاصة بها بعد أن اكتشف الكتّاب أن الذكاء الاصطناعي كان يولد اقتراحات يفترض أنها “مستوحاة” من أعمالهم المنشورة، دون علمهم أو موافقتهم.

استخدمت هذه الميزة، التي تم إطلاقها في أغسطس، شهادات LLM تابعة لجهات خارجية لعرض اقتراحات الكتابة على غرار الكتاب والخبراء المؤثرين. المشكلة؟ ولم يكن لدى هؤلاء الخبراء أي فكرة عن أن عملهم يُستخدم بهذه الطريقة.

هل سأل Grammarly أي شخص بالفعل؟

لا، لم تحصل Grammarly على إذن من الأشخاص الذين تم استخدام صورهم كمراجع خبراء. في حين أن شركات الذكاء الاصطناعي الأخرى تقوم أيضًا باستخلاص البيانات من المكتبات والمواقع الإلكترونية على الإنترنت دون طلب إذن صريح، إلا أنها على الأقل لم تستخدم شكل أي شخص بهذه الصراحة. هذا هو المكان الذي خرج فيه Grammarly عن القضبان.

بدأ رد الفعل العنيف بعد أن اكتشف رئيس تحرير The Verge والعديد من الموظفين أن أسمائهم تُستخدم كمراجع للأسلوب داخل الأداة. وكما هو متوقع، لم يكونوا سعداء. كان الرد الأولي لشركة Superhuman هو إطلاق صندوق بريد إلكتروني لإلغاء الاشتراك للكتاب المتأثرين، ولكن حتى ذلك لم يكن كافيًا لتهدئة الأمور.

والآن قامت الشركة بتعطيل الميزة بالكامل. قال Ailian Gan، مدير إدارة المنتجات في شركة Superhuman: “استنادًا إلى التعليقات التي تلقيناها، فمن الواضح أننا أخطأنا الهدف. نحن آسفون وسنفعل الأشياء بشكل مختلف في المستقبل”.

ماذا يأتي بعد ذلك؟

توجه شيشير مهروترا، الرئيس التنفيذي لشركة Superhuman، إلى LinkedIn للاعتذار وتوضيح رؤية أكثر تفضيلاً للمستقبل: رؤية يمكن للخبراء اختيار المشاركة فيها وحتى بناء نموذج عمل حولها.

وقال: “بالنسبة للخبراء، هذه فرصة لبناء نفس الرابطة الشاملة مع المستخدمين، مثلما فعلت Grammarly. ولكن في هذا العالم، يختار الخبراء المشاركة، وتشكيل كيفية تمثيل معرفتهم، والتحكم في نموذج أعمالهم.”

إنها فكرة مثيرة للاهتمام، لكن الضرر قد حدث بالفعل. طلب العفو بدلاً من الإذن نادراً ما يكون مظهراً جيداً، خاصة عندما يكون الأشخاص الذين تنتحل شخصيتهم صحفيين.

Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *