سرعان ما أصبحت حركة جديدة عبر الإنترنت تدعو المستخدمين إلى إلغاء اشتراكات ChatGPT سائدة، ويعود كل ذلك إلى شراكة جديدة مثيرة للجدل بين OpenAI ووزارة الدفاع الأمريكية. وتسمح الصفقة بنشر نماذج OpenAI داخل الشبكات الحكومية السرية، وهي خطوة أثارت ردود فعل عنيفة عبر وسائل التواصل الاجتماعي ومجتمعات التكنولوجيا.
واشتد الجدل عندما رفضت شركة الذكاء الاصطناعي المنافسة أنثروبيك قبول شروط مماثلة من البنتاغون، مشيرة إلى مخاوف بشأن المراقبة الجماعية والأسلحة المستقلة. وخاطرت الشركة بخسارة عقد حكومي كبير بدلاً من تخفيف ضماناتها، مما أثار إشادة منتقدي الذكاء الاصطناعي العسكري.

وسرعان ما غذى هذا التباين اتجاه “إلغاء ChatGPT”. يقول بعض المستخدمين إنهم ألغوا الاشتراكات احتجاجًا، متهمين شركة OpenAI بالمساس بالمبادئ الأخلاقية من خلال العمل مع الجيش.
إن النقاش الحقيقي يدور حول الذكاء الاصطناعي العسكري، وليس حول شركة واحدة فقط
رد الفعل العنيف لا يقتصر على عقد واحد فقط. إنه يعكس توتراً أوسع نطاقاً ومتزايداً حول كيفية استخدام الذكاء الاصطناعي في الدفاع والاستخبارات والمراقبة. وتقول شركة OpenAI إن صفقة البنتاغون تتضمن ضمانات تحظر المراقبة الجماعية المحلية، والأسلحة المستقلة، والقرارات الآلية عالية المخاطر، حيث يرى سام ألتمان أن العمل مع الحكومات يساعد في تشكيل الاستخدام المسؤول للذكاء الاصطناعي.

ومع ذلك، يظل المنتقدون حذرين، مشيرين إلى أن قوانين مثل قانون باتريوت يمكن أن تسمح لبرامج المراقبة بالتوسع بمرور الوقت. وانتشر النقاش أيضًا داخل صناعة التكنولوجيا نفسها. كما أفادت أكسيوس، وقع أكثر من 200 موظف من Google وOpenAI على رسالة مفتوحة تحث على فرض قيود أقوى على استخدام الذكاء الاصطناعي العسكري، مما يوضح مدى انقسام العاملين في مجال الذكاء الاصطناعي حول هذه القضية.
بالنسبة للمستخدمين العاديين، تمثل هذه اللحظة نقطة تحول في كيفية النظر إلى شركات الذكاء الاصطناعي، حيث تتحول المخاوف الأخلاقية من المناقشات المجردة إلى الشراكات الحكومية في العالم الحقيقي والأمن القومي. سواء استمرت حركة “إلغاء ChatGPT” أو تلاشت، فمن الواضح أن الحديث حول الذكاء الاصطناعي يتغير من ما يمكن أن تفعله هذه الأدوات إلى حيث يجب أن تكون حدودها.

التعليقات