- وقعت OpenAI عقدًا جديدًا مع البنتاغون
- تركت صياغة العقد مجالًا لاستخدام الذكاء الاصطناعي في المراقبة المحلية الجماعية
- يتعرض سام التمان لانتقادات بسبب موقفه من هذه المسألة
بعد تصنيف شركة Anthropic على أنها تمثل خطرًا على سلسلة التوريد من قبل وزير الدفاع بيت هيجسيث وفقدان عقدها مع البنتاغون بقيمة 200 مليون دولار، أصبحت OpenAI الآن في خط النار لاتفاقها الخاص مع البنتاغون.
على الرغم من أن OpenAI لديها بند في العقد يحظر استخدام نماذج الذكاء الاصطناعي الخاصة بها من قبل الجيش الأمريكي في عام 2023، فقد كشف العديد من موظفي OpenAI أن نماذجها كانت تستخدم سابقًا من قبل البنتاغون.
في ذلك الوقت، كان لدى البنتاغون عقد مع شركة مايكروسوفت، التي كان لديها ترخيص لاستخدام تقنية OpenAI، مما يسمح للبنتاغون بالوصول من خلال Azure OpenAI الذي لم يكن خاضعًا لنفس السياسات.
مع خروج شركة Anthropic من الصورة بسبب رفضها السماح للبنتاغون باستخدام نماذجها لأنظمة الأسلحة المستقلة والمراقبة المحلية الجماعية، يتم الآن استجواب الرئيس التنفيذي لشركة OpenAI، سام ألتمان، بشأن العقد الأخير للشركة مع الجيش الأمريكي.
وفي عام 2024، أزالت OpenAI الحظر الشامل على الاستخدام العسكري لنماذجها، ثم واصلت لاحقًا توقيع عقد مع Anduril للسماح بنشر نماذجها لأغراض الأمن القومي.
وقد أوضح ألتمان دعمه لموقف أنثروبيك بشأن منع استخدام كلود لأغراض شائنة، لكن الاتفاقية الجديدة للشركة مع الجيش الأمريكي تركت مجالًا لنفس الأغراض بالضبط، حسبما قالت مصادر مطلعة على الأمر لـ Wired.
لقد تخلفت الأنظمة الحالية عن التقدم الذي تم إحرازه في مجال الذكاء الاصطناعي، مما يوفر الفرص للوكالات الحكومية لشراء معلومات شخصية عن المواطنين الأمريكيين من وسطاء البيانات، ثم استخدام نماذج الذكاء الاصطناعي لتصنيف المعلومات وفرزها لإنشاء ملفات تعريف دقيقة للغاية ومفصلة للمواطنين.
وتعليقًا على الاتفاقية الأخيرة الموقعة بين OpenAI والجيش الأمريكي، قال نوام براون، الباحث في OpenAI: “خلال عطلة نهاية الأسبوع، أصبح من الواضح أن اللغة الأصلية في اتفاقية OpenAI/DoW تركت أسئلة مشروعة دون إجابة، خاصة حول بعض الطرق الجديدة التي يمكن للذكاء الاصطناعي من خلالها تمكين المراقبة القانونية.”
وتابع براون: “تم تحديث اللغة الآن لمعالجة هذا الأمر، ولكنني أعتقد أيضًا بقوة أنه لا ينبغي للعالم أن يعتمد على الثقة في مختبرات الذكاء الاصطناعي أو وكالات الاستخبارات من أجل سلامته وأمنه”.
وقالت سارة شوكر، الرئيسة السابقة لفريق الجغرافيا السياسية في OpenAI: “إن أكبر الخاسرين في كل هذا هم الأشخاص العاديون والمدنيون في مناطق الصراع. إن قدرتنا على فهم تأثيرات الذكاء الاصطناعي العسكري في الحرب ستتعرض لعرقلة شديدة بسبب طبقات من التعتيم الناجم عن التصميم الفني والسياسة. إنها الصناديق السوداء على طول الطريق”.

أفضل حماية من سرقة الهوية لجميع الميزانيات

التعليقات