يستثمر عمالقة التكنولوجيا مثل Meta وGoogle وX بكثافة في أدوات الذكاء الاصطناعي المصممة لاكتشاف الأخبار المزيفة. يبدو الأمر مطمئنًا، ولكن وفقًا لدراسة جديدة أجرتها جامعة مونتريال، فإن هذه الأدوات لها بعض العيوب الخطيرة التي تختبئ وراء أرقام الدقة المثيرة للإعجاب.
قام باحث الدكتوراه دورصاف سلامي بفحص أنظمة الكشف عن الأخبار المزيفة التي تعمل بالذكاء الاصطناعي ووجد أنها لا تتحقق من صحة أي شيء. يقومون بحساب الاحتمالات بناءً على بيانات التدريب الخاصة بهم. لا تفكر في الأمر كصحفي يتحقق من قصة ما، بل أشبه بمرآة تعكس كل ما يتم عرضه، بما في ذلك نفس التحيزات والنقاط العمياء.
وفقاً لدورصاف سلامي، فإن النظام الذي يحقق دقة بنسبة 95% في بيئة معملية من الممكن أن يفشل في العالم الحقيقي، وهذه الفجوة تمثل مشكلة خطيرة.
مشكلة التحيز لا أحد يتحدث عنها
وبعيدًا عن الدقة، وجد سلامي أن العديد من هذه الأنظمة تحمل تحيزات متأصلة لا يتم ملاحظتها إلى حد كبير. من المرجح أن تشير بعض النماذج إلى النساء كمصادر للمعلومات الخاطئة. والبعض الآخر متحيز ضد مصادر غير غربية أو يعيد إنتاج التحيزات السياسية.
هناك أيضًا مشكلة أعمق تتعلق بكيفية تدريب هذه الأنظمة. إنهم يعتمدون على تسميات من منظمات التحقق من الحقائق، والتي يفتقر الكثير منها إلى الشفافية وبعضها شركات ربحية. النظام بأكمله مبني على أساس هش.
أضف إلى ذلك ظهور أدوات مثل ChatGPT التي تجعل إنتاج المحتوى المزيف أسهل من أي وقت مضى، وأنظمة الكشف التي تم تدريبها حتى قبل بضعة أشهر يمكن أن تصبح قديمة بسرعة.
نهج أفضل
الحل الذي يقدمه سلامي هو Aletheia، وهو امتداد للمتصفح يشرح سبب الشك في المحتوى بدلاً من الاكتفاء بالقول ما إذا كان صحيحًا أم خطأ. وفي الاختبارات، حقق موثوقية بنسبة 85%، متفوقًا على العديد من الأدوات الموجودة. ما يجعلها مختلفة هو فلسفتها. بدلاً من إصدار حكم عليك وتوقع ثقتك به، تعرض Aletheia عملها.

فهو يسحب الأدلة من المصادر المتاحة عبر الإنترنت، ويقدمها بلغة واضحة، ويتيح للمستخدمين اتخاذ القرار النهائي. كما أنه يشتمل على بث مباشر لعمليات التحقق من الحقائق الحديثة ومنتدى مجتمعي حيث يمكن للمستخدمين مشاركة النتائج ومناقشتها. الفكرة بسيطة: الذكاء الاصطناعي يجب أن يساعد في حكمك، وليس أن يحل محله.

التعليقات