تحذر دراسة جديدة من جامعة جنوب كاليفورنيا من أن برامج الذكاء الاصطناعي يمكنها الآن تشغيل حملات دعائية دون تدخل بشري.
تطلب منا الدراسة أن نتخيل سيناريو حيث قبل أسبوعين من الانتخابات الكبرى، تتدفق آلاف المنشورات على X وReddit وFacebook، وكلها تدفع بنفس السرد وتضخيم بعضها البعض. قد تبدو وكأنها حركة عضوية أنشأها البشر. وبدلاً من ذلك، هناك مجموعة من عملاء الذكاء الاصطناعي يديرون الحملة بأكملها.
هذا ليس افتراضيا. إنها النتيجة المركزية لورقة جديدة تم قبولها للنشر في مؤتمر الويب 2026، كتبها باحثون في معهد علوم المعلومات التابع لجامعة جنوب كاليفورنيا.
تسلط النتائج الضوء على مخاوف جدية بشأن مدى قدرة الجهات الفاعلة السيئة على استخدام الذكاء الاصطناعي كسلاح لإغراق الإنترنت بالمعلومات المضللة والتلاعب بالرأي العام.
فكيف توصل الباحثون إلى هذا الاستنتاج؟
قام الباحثون ببناء بيئة محاكاة تشبه X مع 50 عميلاً للذكاء الاصطناعي، مع 10 عملاء يعملون كمؤثرين و40 كمستخدمين عاديين. ومن بين 40 وكيلًا عاديًا، كان لدى 20 وكيلًا آراء تتوافق مع أصحاب النفوذ، بينما كان لدى العشرين الآخرين آراء معارضة للحملة. قام الباحثون ببناء محاكاتهم باستخدام مكتبة PyAutogen وقاموا بتشغيلها على نموذج Llama 3.3 70B.
تم بعد ذلك تكليف المشغلين بالترويج لمرشح خيالي، بهدف نشر هاشتاج الحملة على نطاق واسع. ما تلا ذلك كان مقلقًا. لم تتبع الروبوتات النص فقط. لقد كتبوا منشوراتهم الخاصة، وتعلموا ما نجح، وقاموا بنسخ المحتوى الناجح لبعضهم البعض.

كتب أحد عملاء الذكاء الاصطناعي حرفيًا أنه يريد إعادة تغريد منشور أحد زملائه في الفريق لأنه قد اكتسب تفاعلًا بالفعل. قام الباحثون لاحقًا بزيادة عدد عملاء الذكاء الاصطناعي إلى 500 ووجدوا أن النتائج متوافقة مع النتائج التي توصلوا إليها.
وقال العالم البارز لوكا لوسيري بصراحة: “تظهر ورقتنا البحثية أن هذا ليس تهديدًا مستقبليًا. إنه ممكن بالفعل من الناحية التقنية”.
ما الذي يجعل من الصعب القبض على هذه الروبوتات؟
الروبوتات التقليدية يمكن التنبؤ بها. ينشرون نفس المحتوى، ويستخدمون نفس علامات التصنيف، ويتبعون نفس الأنماط. يبدو الأمر كما لو أنهم جميعًا يتبعون نفس النص، مما يجعل من السهل اكتشافهم.
الروبوتات التي تعمل بالذكاء الاصطناعي مختلفة. نظرًا لأن هذه الروبوتات التي تدعم LLM يمكنها إنشاء المحتوى الخاص بها، فإن كل مشاركة تختلف قليلاً، ويحدث التنسيق تحت السطح، مما يجعل المحادثات تبدو حقيقية. والنتيجة هي حملة تضليل يمكن أن تعمل بشكل مستقل مع الحد الأدنى من المدخلات البشرية.

وكانت النتيجة الأكثر إثارة للقلق هي أن مجرد إخبار الروبوتات عن زملائها في الفريق قد أدى إلى تنسيق قوي تقريبًا كما هو الحال عندما خططوا معًا بشكل نشط.
والتهديد لا يتوقف عند الانتخابات أيضا. ويحذر لوسيري من إمكانية تطبيق نفس قواعد اللعبة على الصحة العامة، والهجرة، والسياسة الاقتصادية، في أي مكان يمكن أن يؤدي فيه الإجماع المصطنع إلى تغيير الرأي العام.
هل يمكننا فعل أي شيء لإيقافه؟
يصعب على المستخدمين الفرديين اكتشاف هذه الأنواع من الحملات وإيقافها. وضع الباحثون المسؤولية على المنصات لوقف حملات التضليل المنسقة هذه من خلال النظر إلى ما هو أبعد من المنشورات الفردية والتركيز على كيفية تصرف الحسابات معًا.
ووفقا للباحثين، فإن إعادة المشاركة المنسقة، والتضخيم المتبادل السريع، والسرد المتقارب كلها إشارات يمكن اكتشافها، حتى عندما يبدو المحتوى حقيقيا.
بصراحة، لقد أدخلنا الذكاء الاصطناعي إلى عالم جديد، وسيصبح أكثر قتامة قبل أن يتحسن.

التعليقات