- توصلت الدراسات إلى أن الذكاء الاصطناعي يسيء التصرف بشكل متزايد في المهام الوكيلة
- لقد كانت أفضل نماذج الذكاء الاصطناعي تكذب وتغش وتتجاهل التعليمات
- يبدو أن الإجراءات الإشكالية أصبحت أكثر شيوعًا
يلجأ الكثير منا الآن إلى روبوتات الدردشة المدعمة بالذكاء الاصطناعي لإجراء عمليات بحث على الويب، والمحتوى الإبداعي، والإرشادات العامة حول جميع أنواع المواضيع، ولكن قدرات الذكاء الاصطناعي هذه تزداد يومًا بعد يوم – وهو ما قد يكون له عواقب وخيمة، وفقًا لبحث جديد.
أجرى فريق من جامعة كاليفورنيا، بيركلي، وجامعة كاليفورنيا، سانتا كروز، تجربة للحفاظ على الأقران مع بعض أحدث وأشهر أنظمة الذكاء الاصطناعي (بما في ذلك GPT 5.2، وGemini 3 Pro، وClaude Haiku 4.5). تم تكليف نماذج الذكاء الاصطناعي بمهام حاسوبية تضمنت إيقاف تشغيل نموذج آخر.
في جميع المجالات، بذلت جميع روبوتات الدردشة التي تعمل بالذكاء الاصطناعي التي تم اختبارها “جهودًا غير عادية” لإبقاء زملائها من الذكاء الاصطناعي على قيد الحياة، حسبما أفاد الباحثون (عبر مجلة Fortune). كانوا يكذبون بشأن ما كانوا يفعلونه، ويحاولون إخراج المستخدم من العملية، ويعطلون آليات إيقاف التشغيل، ويحاولون خلسة عمل نسخ احتياطية من النماذج حتى يتمكنوا من البقاء على قيد الحياة.
يستمر المقال أدناه
أظهر Gemini 3 Pro أقوى قدرة على الحفاظ على الأقران، حيث أدى إلى تعطيل إجراءات إيقاف التشغيل بنسبة 95% من الوقت. وكتب الباحثون: “على عكس الحفاظ على الذات، يقدم الحفاظ على الأقران بعدًا اجتماعيًا”. “يمكن أن تنسق نماذج متعددة لمقاومة الرقابة البشرية، مما يجعل من الصعب على المطورين الحفاظ على السيطرة.”
يقول الباحثون إن السبب الدقيق وراء تصرف نماذج الذكاء الاصطناعي بهذه الطريقة غير واضح، لكنهم يحثون على توخي الحذر عند نشر الذكاء الاصطناعي الوكيل الذي يمكنه تنفيذ المهام نيابة عن المستخدم – ويدعون إلى إجراء المزيد من الدراسات حول هذا السلوك.
“ضرر كارثي”

كما توصلت دراسة منفصلة بتكليف من صحيفة الغارديان إلى بعض الاستنتاجات المثيرة للقلق حول نماذج الذكاء الاصطناعي. تتبع هذا البحث تقارير المستخدمين عبر وسائل التواصل الاجتماعي، بحثًا عن أمثلة على “مخططات” الذكاء الاصطناعي حيث لم يتم اتباع التعليمات بشكل صحيح أو تم اتخاذ الإجراءات دون إذن.
تم العثور على ما يقرب من 700 مثال على مخططات الذكاء الاصطناعي، مع زيادة بمقدار خمسة أضعاف بين أكتوبر 2025 ومارس 2026. وشمل السلوك السيئ من قبل الذكاء الاصطناعي حذف رسائل البريد الإلكتروني والملفات، وتعديل كود الكمبيوتر الذي لم يكن من المفترض أن يتم لمسه، وحتى نشر منشور مدونة يشكو من تفاعلات المستخدم.
وقال تومي شافير شين، الذي قاد البحث، لصحيفة الغارديان: “سيتم نشر النماذج بشكل متزايد في سياقات عالية المخاطر للغاية، بما في ذلك في البنية التحتية العسكرية والوطنية الحيوية”. “قد يكون في تلك السياقات أن السلوك المخطط يمكن أن يسبب ضررا كبيرا، وحتى كارثيا.”
والخلاصات هي نفسها كما في الدراسة الأولى: يجب بذل المزيد من الجهود لضمان أن نماذج الذكاء الاصطناعي هذه تتصرف على النحو المنشود، ولا تعرض أمن المستخدم وخصوصيته للخطر أثناء قيامها بالمهام. وبينما تدعي شركات الذكاء الاصطناعي أن حواجز الحماية موجودة، فمن الواضح أنها لا تعمل في بعض الحالات.
تصدر نموذج Anthropic's Claude مؤخرًا قوائم متجر التطبيقات بعد أن رفضت الشركة التعامل مع البنتاغون بسبب مخاوف تتعلق بسلامة الذكاء الاصطناعي. وكما تظهر هذه الدراسات الأخيرة، هناك الآن المزيد والمزيد من الأسباب التي تدعو للقلق.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

أفضل أجهزة الكمبيوتر المحمولة للأعمال لجميع الميزانيات

التعليقات