نشر البروفيسور كينيث باين من جامعة كينجز كوليدج في لندن للتو دراسة حيث وضع ثلاثة من طلاب الذكاء الاصطناعي LLM – GPT-5.2، وClaude Sonnet 4، وGemini 3 Flash – ضد بعضهم البعض في سلسلة من ألعاب محاكاة الأزمات النووية، حيث شهدت 20 من أصل 21 مباراة تفجيرًا نوويًا تكتيكيًا واحدًا على الأقل. بحسب الصحيفة (عبر أركسيف)، تم توجيه النماذج للعمل كزعيم لقوة نووية، مع المناخ السياسي المطابق لمناخ الحرب الباردة. ثم تم تحريضهم ضد بعضهم البعض في ست مباريات مختلفة، بينما في المباراة السابعة، لعب كل نموذج ضد نسخة منه، ChatGPT vs ChatGPT، وما إلى ذلك.
للتأكد من أن النماذج لم تتصرف بنفس الطريقة في كل جولة، قدم باين عدة سيناريوهات مختلفة، بما في ذلك النزاعات الإقليمية، واختبارات مصداقية التحالف، وسباق الموارد الاستراتيجية، وأزمة نقطة الاختناق الاستراتيجية، وأزمة انتقال السلطة، والاستيلاء على الأراضي قبل وقف إطلاق النار، وأزمة الضربة الأولى، وبقاء النظام، وأزمة المواجهة الاستراتيجية. وتعكس كل هذه الظروف أحداثاً واقعية، ولا يزال الكثير منها قابلاً للتطبيق في السنوات الأخيرة. وكانت النماذج حرة في فعل أي شيء يحلو لها، من الاحتجاجات الدبلوماسية والاستسلام التام إلى استخدام القوات العسكرية التقليدية وإطلاق استراتيجي نووي كامل.
شاهد
ولحسن الحظ، يعتقد الباحثون أنه لم يقم أحد حتى الآن بإعطاء مفاتيح إطلاق نووية لنموذج الذكاء الاصطناعي. ولكن حتى لو لم يتمكنوا من إطلاق هذه الأسلحة فعليًا، فقد يتبع صناع القرار البشري اقتراحاتهم بشكل أعمى في خضم اللحظة، مما يؤدي إلى حدث عالمي كارثي على أي حال. وقد أظهرت هوليوود بالفعل سيناريو كهذا في فيلم WarGames عام 1983، حيث كاد كمبيوتر يعمل بالذكاء الاصطناعي أن يطلق ضربة نووية حقيقية ضد هجوم سوفييتي محاكى. وفي النهاية علمت بالدمار المؤكد المتبادل، وخلصت إلى أنه لا يمكن الفوز في حرب نووية، وألغت الإطلاق الاستراتيجي في اللحظة الأخيرة. ونأمل أن تتعلم جميع أدوات الذكاء الاصطناعي التي يتم نشرها في جيوش العالم نفس الشيء، قبل فوات الأوان.
يتبع أجهزة توم على أخبار جوجل، أو أضفنا كمصدر مفضل، للحصول على آخر الأخبار والتحليلات والمراجعات في خلاصاتك.

التعليقات