- وقع ما يقرب من ألف موظف من Google وOpenAI على رسالة مفتوحة تدعو إلى وضع حدود واضحة للاستخدامات العسكرية للذكاء الاصطناعي
- وتحث الرسالة شركات التكنولوجيا على التراجع عن الخطط الحكومية لمراقبة الذكاء الاصطناعي والأسلحة المستقلة
- تعكس هذه الخطوة التوتر المتزايد داخل صناعة الذكاء الاصطناعي بشأن العقود الحكومية والشراكات الدفاعية
وقع ما يقرب من ألف موظف في شركتي Google وOpenAI على رسالة مفتوحة يحثون فيها شركاتهم على مقاومة الضغوط التي يمارسها الجيش الأمريكي لتخفيف القيود المفروضة على كيفية استخدام أنظمة الذكاء الاصطناعي. تعلن الرسالة “أننا لن ننقسم” حول هذا الموضوع، حتى بعد أن وصف البنتاغون الأنثروبيك بأنها “خطر على سلسلة التوريد بعد أن رفضت الشركة السماح باستخدام تكنولوجيتها في المراقبة الجماعية المحلية أو الأسلحة المستقلة بالكامل.
صدمت هذه الخطوة العديد من المراقبين في وادي السيليكون وأثارت موجة من القلق بين المهندسين الذين يبنون نماذج الذكاء الاصطناعي الرائدة اليوم. خاصة وأن OpenAI وGoogle يتفاوضان من أجل قبول الترتيب الذي رفضته Anthropic.
يصوغ الموقعون رسالتهم بلغة حادة على نحو غير معتاد بالنسبة لصناعة معروفة بالاتصالات المؤسسية الحذرة. وتزعم الرسالة أن المسؤولين الحكوميين يحاولون الضغط على شركات الذكاء الاصطناعي للتخلي عن بعض الحدود الأخلاقية.
وجاء في الرسالة: “إنهم يحاولون تقسيم كل شركة خوفًا من استسلام الأخرى. وهذه الإستراتيجية لا تنجح إلا إذا لم يكن أحد منا يعرف موقف الآخرين”. “تعمل هذه الرسالة على خلق تفاهم مشترك وتضامن في مواجهة هذا الضغط من وزارة الحرب.”
تعتبر الرسالة المفتوحة جديرة بالملاحظة لأنها تتضمن أشخاصًا من شركات منافسة تتنافس عادةً بشراسة. والحجة التي طرحوها هي أن الذكاء الاصطناعي أصبح الآن قويا بما يكفي بحيث لا يمكن التعامل مع القرارات المتعلقة باستخدامه باعتبارها اتفاقيات عمل روتينية.
هذه المخاوف ليست نظرية بحتة. تستكشف الحكومات في جميع أنحاء العالم كيفية دمج الذكاء الاصطناعي في التخطيط الدفاعي وتحليل الاستخبارات. استخدمت الوكالات العسكرية منذ فترة طويلة أدوات برمجية للمراقبة والاستهداف. ويمكن للنماذج التوليدية المتقدمة أن تعمل على تسريع هذه القدرات بشكل كبير. وعندما بدأت الدراسات تظهر كيف يفضل الذكاء الاصطناعي الخيار النووي في المناورات الحربية، فإن السماح له بالتحكم في الأسلحة وأنظمة المراقبة يبدو فكرة أسوأ.
حرب الذكاء الاصطناعي
يعد هذا بمثابة ارتداد إلى حد ما للعاملين في Google، حيث احتج الآلاف منهم على تورط الشركة في خطة البنتاغون Project Maven لاستخدام التعلم الآلي لتحليل لقطات الطائرات بدون طيار في عام 2018. وبعد رد فعل داخلي واسع النطاق، سمحت Google في النهاية بانتهاء هذا العقد ونشرت مجموعة من الإرشادات الأخلاقية المعروفة باسم مبادئ الذكاء الاصطناعي الخاصة بها.
كان الهدف من هذه المبادئ هو تحديد كيفية تعامل Google مع الاستخدامات الحساسة للذكاء الاصطناعي. وفي ذلك الوقت، قالت الشركة إنها لن تطور تقنيات مصممة للتسبب في ضرر أو تمكين المراقبة التي تنتهك المعايير الدولية. وتشير الرسالة المفتوحة الأخيرة إلى أن توترات مماثلة تعود إلى الظهور مع زيادة اهتمام الحكومات بنشر نماذج لغوية قوية.
قد تغير الرسالة قرارات الشركة وقد لا تغيرها، ولكن على الأقل يمكن للموظفين الإشارة إليها كرسالة لا يمكن إساءة فهمها.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

أفضل أجهزة الكمبيوتر المحمولة للأعمال لجميع الميزانيات

التعليقات