التخطي إلى المحتوى

اعتادت شركة مايكروسوفت على دفع خدمات الذكاء الاصطناعي الخاصة بها نحو قاعدة مستخدميها، خاصة مع إطلاق جهاز Copilot+ PC، لكن يبدو أنه حتى الشركة نفسها لا تثق بإنشائه. وفقًا لشروط استخدام Microsoft Copilot، والتي تم تحديثها في أكتوبر من العام الماضي، تم تصميم نموذج اللغة الكبير AI (LLM) للاستخدام الترفيهي فقط، ويجب ألا يستخدمه المستخدمون للحصول على نصائح مهمة. على الرغم من أن هذا قد يكون إخلاء مسؤولية نموذجيًا، إلا أنه أمر مثير للسخرية نظرًا لمدى صعوبة رغبة الشركة في استخدام الأشخاص لبرنامج Copilot للاستخدامات التجارية ودمجه في Windows 11.

وجاء في الوثيقة أن “مساعد الطيار لأغراض الترفيه فقط. ويمكن أن يرتكب أخطاء، وقد لا يعمل على النحو المنشود”. “لا تعتمد على Copilot للحصول على نصائح مهمة. استخدم Copilot على مسؤوليتك الخاصة.” لا يقتصر هذا على مساعد الطيار أيضًا. لدى AI LLMs الأخرى إخلاء مسؤولية مماثل. على سبيل المثال، تقول xAI أن “الذكاء الاصطناعي يتطور بسرعة وهو ذو طبيعة احتمالية؛ لذلك، قد يؤدي في بعض الأحيان إلى: أ) يؤدي إلى مخرجات تحتوي على “هلوسة”، ب) تكون مسيئة، ج) لا تعكس بدقة الأشخاص أو الأماكن أو الحقائق الحقيقية، أو د) تكون مرفوضة أو غير مناسبة أو غير مناسبة للغرض المقصود.”

Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *