على مدار العامين الماضيين، كانت Microsoft تعمل بشكل كامل على برنامج Copilot. إنه موجود حرفيًا في كل مكان، سواء كان Windows أو Edge أو Office أو حتى مدمجًا في مهام سير العمل الأساسية حيث لا يمكنك تجاهله حقًا. لقد كانت الرسالة واضحة: هذا هو مستقبل الإنتاجية، مساعد الذكاء الاصطناعي الخاص بك لإنجاز عمل حقيقي.

والآن، فجأة، تقول مايكروسوفت… لا تأخذ الأمر على محمل الجد.
تتراجع Microsoft عن عرض “الاستخدام الجاد” لـ Copilot
كما ورد أولا من قبل أجهزة توم، ال شروط استخدام برنامج Microsoft Copilot تذكر أن برنامج Copilot مخصص “لأغراض الترفيه فقط” ولا ينبغي الاعتماد عليه في اتخاذ القرارات المهمة أو عالية المخاطر. يتضمن ذلك أشياء مثل المشورة المالية أو القانونية أو الطبية. في الأساس، هذا النوع من الأشياء التي يستخدم الناس الذكاء الاصطناعي بشكل متزايد من أجلها.
مساعد الطيار هو لأغراض الترفيه فقط. يمكن أن ترتكب أخطاء، وقد لا تعمل على النحو المنشود. لا تعتمد على Copilot للحصول على النصائح المهمة. استخدم مساعد الطيار على مسؤوليتك الخاصة.
على الورق، هذا منطقي. يمكن للذكاء الاصطناعي أن يهذي، ويخطئ في الأمور، ويبدو في بعض الأحيان أكثر ثقة مما ينبغي. من وجهة نظر قانونية، يعد إخلاء المسؤولية هذا أمرًا متوقعًا تقريبًا، لأنه يعمل كشبكة أمان لتجنب المسؤولية المحتملة مع توسع هذه الأدوات.
ولكن هنا يبدأ الشعور بالقليل من الراحة. هذا هو نفس برنامج Copilot الذي قامت Microsoft بدمجه بعمق في Word وExcel وOutlook وTeams. في الواقع، تم دمجها أيضًا في حلول المؤسسات الخاصة بشركة Microsoft، كما أشار المستخدمون. الأدوات التي يستخدمها الأشخاص في العمل الفعلي، وليس في التجارب غير الرسمية. عندما يقوم الذكاء الاصطناعي الخاص بك بتلخيص رسائل البريد الإلكتروني، أو صياغة التقارير، أو تحليل البيانات، فإن وصفه بأنه “ترفيه” يبدو غير متزامن بشكل غريب مع الواقع.
الإنترنت لا يشتريها بالضبط
مما لا يثير الدهشة أن الإنترنت لا يصفق تمامًا. كان رد الفعل في الغالب عبارة عن ارتباك ممزوج بالكثير من لفات العين. لأننا لنكن صادقين، إذا لم يكن برنامج Copilot مخصصًا للاستخدام الجاد، فلماذا يتواجد في المقدمة والوسط داخل الأدوات التي يعتمد عليها الأشخاص للقيام بعمل جاد؟
لقد بدأ الأمر يبدو أقل شبهاً بإعادة التعريف وأكثر شبهاً بشبكة الأمان. ادفع مساعد الطيار في كل مكان، واجعله أمرًا لا مفر منه، وقم ببيعه باعتباره المستقبل، ثم أضف بهدوء علامة “لا تعتمد عليه” عندما تتعقد الأمور. إنها طريقة رائعة للاستمتاع بالجانب الإيجابي للذكاء الاصطناعي مع تجنب المسؤولية التي تأتي معه.

الآن، بالتأكيد، مايكروسوفت ليست وحدها هنا. تأتي كل أداة من أدوات الذكاء الاصطناعي مصحوبة بنسخة ما من إخلاء المسؤولية هذا مدفونة في التفاصيل الدقيقة. لكن معظم هذه الأدوات اختيارية. تقوم بتثبيتها، وتجربتها، وتقرر مدى ثقتك بها. ولسوء الحظ، لم يتبع مساعد الطيار هذا الطريق. لقد ظهر عبر Windows وOffice وأصبح جزءًا من التجربة، سواء طلبت ذلك أم لا.
وهذا هو بالضبط سبب شعورك بالإحباط. بعد أشهر من الحديث عن أن برنامج Copilot هو مستقبل الإنتاجية، أصبح وصفه بأنه “مجرد ترفيه” بمثابة منعطف غريب. في هذه المرحلة، لا يشكك المستخدمون في الرسائل فحسب؛ إنهم يشككون في التكامل بأكمله. لأنه إذا كان هذا من أجل المتعة فقط، فربما لا يكون من الصعب إيقافه.

التعليقات