
“تهدد الأسلحة المستقلة الفتاكة بأن تصبح الثورة الثالثة في الحرب. وبمجرد تطويرها، فإنها ستسمح بخوض صراع مسلح على نطاق أكبر من أي وقت مضى، وعلى فترات زمنية أسرع مما يستطيع البشر فهمه.”
هذا ليس اقتباسًا من الرئيس التنفيذي لشركة Anthropic، داريو أمودي، الذي يرفض الانضمام إلى طلب وزارة الحرب الأمريكية بالسماح لنماذج Claude AI الخاصة بها بالمراقبة الجماعية وربما “الأسلحة المستقلة بالكامل” بشكل أكثر إشكالية. وبدلاً من ذلك، فهو يأتي من رسالة مفتوحة موجهة إلى الأمم المتحدة في عام 2017، شارك في التوقيع عليها، من بين العشرات من قادة الذكاء الاصطناعي والروبوتات الآخرين، إيلون ماسك، مطالباً المنظمة العالمية بحظر الأسلحة المستقلة.
مسلح وخطير
هذه ليست مفاهيم جديدة. لقد ظل الكثيرون في صناعة التكنولوجيا يفكرون في هذه القضايا منذ ما يقرب من عقد من الزمان (إن لم يكن أطول). أطلق ” ماسك ” ومجتمع الذكاء الاصطناعي والروبوتات ناقوس الخطر في عام 2017 لأننا شهدنا بالفعل استخدام أنظمة الروبوت المدعومة بالذكاء الاصطناعي بطرق مشكوك فيها.
وفي عام 2016، تم استخدام روبوت للتخلص من القنابل لقتل مشتبه به في إطلاق نار جماعي في تكساس. قامت شرطة دالاس بوضع عبوة ناسفة على ذراع الروبوت، وتوجيهها إلى المكان الذي كان يتحصن فيه المشتبه به، ثم فجروا العبوة الناسفة وقتلوا المشتبه به.
في ذلك الوقت، رأى البعض أنها نقطة انعطاف، ونقطة مثيرة للقلق في ذلك الوقت. ربما تكون مثل هذه الأحداث قد أثارت أو لم تكن سببًا في إرسال رسالة عام 2017 إلى الأمم المتحدة.
بمجرد فتح صندوق باندورا هذا، سيكون من الصعب إغلاقه.
شركات الذكاء الاصطناعي والروبوتات في عام 2017
ضع في اعتبارك أن هذا حدث قبل ثورة الذكاء الاصطناعي التوليدي والفاعلي الحالية.
يعرف أمودي أفضل من معظم القفزات الهائلة التي تحققها النماذج التأسيسية كل بضعة أشهر، وكما أوضح في رسالته، فإن قواعدنا واستراتيجياتنا لإدارة الذكاء الاصطناعي في هذه الظروف قد تخلفت بالفعل عن قدراتها.
وكتب: “إن المراقبة الجماعية التي تعتمد على الذكاء الاصطناعي تمثل مخاطر جدية وجديدة على حرياتنا الأساسية. وبقدر ما تكون هذه المراقبة قانونية حاليًا، فإن هذا فقط لأن القانون لم يلحق بعد بالقدرات المتنامية بسرعة للذكاء الاصطناعي”.
في الأساس، مع الذكاء الاصطناعي، لا نعرف ما لا نعرفه. إن استعداد هيجسيث لاستخدام نماذج الذكاء الاصطناعي القوية بشكل متهور في كل من المراقبة والحرب يشير إلى أنه ليس لديه أي معرفة أو اهتمام بالماضي وحتى فهم أقل لتعقيدات هذه الأنظمة.
فكرة سيئة للغاية
لم أتحدث بعد مع تقني، أو متخصص في الروبوتات، أو أي شخص داخل مجتمع الذكاء الاصطناعي يعتقد أن السماح للذكاء الاصطناعي (أو الروبوت الذي يعمل بالذكاء الاصطناعي) بالتحكم في السلاح أو حمله يعد فكرة جيدة.
لا يوضح هيجسيث بالضرورة هذا السيناريو، لكن مطلبه إزالة حواجز الحماية التي وضعتها الأنثروبيك بذكاء يشير لي إلى أنه لا يهتم حقًا بالتداعيات وضحايا الذكاء الاصطناعي. إنه يركز على النتائج، ربما بأي ثمن أو بأي ثمن، بما في ذلك السلامة والحرية.
لقد فعل أمودي الشيء الصحيح هنا، حيث كشف عن خدعة هيجسيث. وكما أوضح الرئيس التنفيذي لشركة Anthropic، فإن الذكاء الاصطناعي Claude يُستخدم بالفعل في العديد من أنظمة وزارة الحرب. قد لا يكون سحبها وتعديلها لمجموعة أخرى، ربما تكون أقل قوة وذكاءً من النماذج، أمرًا سهلاً وربما لن يكون لها النتيجة المرجوة لنظام جاهز لتنفيذ عطاءات هيجسيث.
يجب أن تسود العقول الأكثر وضوحًا هنا. وكما كتب قادة التكنولوجيا، وحتى إيلون ماسك، في عام 2017، “بمجرد فتح صندوق باندورا هذا، سيكون من الصعب إغلاقه”.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع، يمكنك أيضًا متابعة TechRadar على يوتيوب و تيك توك للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات