اعتادت شركة مايكروسوفت على دفع خدمات الذكاء الاصطناعي الخاصة بها نحو قاعدة مستخدميها، خاصة مع إطلاق جهاز Copilot+ PC، لكن يبدو أنه حتى الشركة نفسها لا تثق بإنشائه. وفقًا لشروط استخدام Microsoft Copilot، والتي تم تحديثها في أكتوبر من العام الماضي، تم تصميم نموذج اللغة الكبير AI (LLM) للاستخدام الترفيهي فقط، ويجب ألا يستخدمه المستخدمون للحصول على نصائح مهمة. على الرغم من أن هذا قد يكون إخلاء مسؤولية نموذجيًا، إلا أنه أمر مثير للسخرية نظرًا لمدى صعوبة رغبة الشركة في استخدام الأشخاص لبرنامج Copilot للاستخدامات التجارية ودمجه في Windows 11.
وجاء في الوثيقة أن “مساعد الطيار لأغراض الترفيه فقط. ويمكن أن يرتكب أخطاء، وقد لا يعمل على النحو المنشود”. “لا تعتمد على Copilot للحصول على نصائح مهمة. استخدم Copilot على مسؤوليتك الخاصة.” لا يقتصر هذا على مساعد الطيار أيضًا. لدى AI LLMs الأخرى إخلاء مسؤولية مماثل. على سبيل المثال، تقول xAI أن “الذكاء الاصطناعي يتطور بسرعة وهو ذو طبيعة احتمالية؛ لذلك، قد يؤدي في بعض الأحيان إلى: أ) يؤدي إلى مخرجات تحتوي على “هلوسة”، ب) تكون مسيئة، ج) لا تعكس بدقة الأشخاص أو الأماكن أو الحقائق الحقيقية، أو د) تكون مرفوضة أو غير مناسبة أو غير مناسبة للغرض المقصود.”
يستمر المقال أدناه
في حين أن الذكاء الاصطناعي التوليدي يعد أداة مفيدة ويمكنه بالفعل زيادة الإنتاجية، إلا أنه لا يزال مجرد أداة لا توفر أي مساءلة عن أي أخطاء قد ترتكبها. ولهذا السبب، يجب على الأشخاص الذين يستخدمونه أن يحرصوا دائمًا على الشك في نتائجه والتحقق مرة أخرى من نتائجه. ولكن حتى لو كنت على دراية بالقيود المفروضة على تكنولوجيا الذكاء الاصطناعي الحالية، فإن البشر عرضة للتحيز للأتمتة، حيث نميل إلى تفضيل النتائج التي تنتجها الآلات ونتجاهل البيانات التي قد تتعارض مع ذلك. يمكن للذكاء الاصطناعي أن يجعل هذه الظاهرة أكثر خطورة، خاصة أنه يمكن أن يخلق نتائج تبدو معقولة أو حتى حقيقية بنظرة خاطفة.
يتبع أجهزة توم على أخبار جوجل، أو أضفنا كمصدر مفضل، للحصول على آخر الأخبار والتحليلات والمراجعات في خلاصاتك.

التعليقات