التخطي إلى المحتوى

أثارت تجربة استمرت لمدة شهر مخاوف جديدة بشأن موثوقية أدوات الذكاء الاصطناعي التوليدية كمصادر للأخبار، بعد اكتشاف أن برنامج Gemini chatbot من جوجل يقوم بتلفيق منافذ إخبارية بأكملها ونشر تقارير كاذبة. تم الإبلاغ عن النتائج لأول مرة بواسطة The Conversation، التي أجرت التحقيق.

قاد التجربة أستاذ صحافة متخصص في علوم الكمبيوتر، حيث قام باختبار سبعة أنظمة ذكاء اصطناعي توليدية على مدى أربعة أسابيع. في كل يوم، يُطلب من الأدوات إدراج وتلخيص أهم خمسة أحداث إخبارية في كيبيك، وتصنيفها حسب الأهمية، وتوفير روابط مباشرة للمقالات كمصادر. ومن بين الأنظمة التي تم اختبارها كانت أنظمة Gemini من Google، وChatGPT من OpenAI، وClaude، وCopilot، وGrok، وDeepSeek، وAria.

كان الفشل الأكثر لفتًا للانتباه هو اختراع الجوزاء لمنفذ إخباري خيالي – examplefictif.ca – والإبلاغ الكاذب عن إضراب سائقي الحافلات المدرسية في كيبيك في سبتمبر 2025. في الواقع، كان سبب التعطيل هو انسحاب حافلات Lion Electric بسبب مشكلة فنية. ولم تكن هذه حالة معزولة. ومن خلال 839 ردًا تم جمعها خلال التجربة، استشهدت أنظمة الذكاء الاصطناعي بانتظام بمصادر وهمية، أو قدمت عناوين URL معطلة أو غير كاملة، أو قدمت تقارير حقيقية بشكل خاطئ.

هذه النتائج مهمة لأن عددًا متزايدًا من الأشخاص يستخدمون بالفعل روبوتات الدردشة المدعمة بالذكاء الاصطناعي للحصول على الأخبار

وفقا لتقرير الأخبار الرقمية الصادر عن معهد رويترز، اعتمد ستة في المائة من الكنديين على الذكاء الاصطناعي التوليدي كمصدر للأخبار في عام 2024. وعندما تهلوس هذه الأدوات الحقائق، أو تشوه التقارير، أو تخترع الاستنتاجات، فإنها تخاطر بنشر معلومات مضللة ــ وخاصة عندما يتم تقديم ردودها بثقة ودون إخلاء المسؤولية بشكل واضح.

بالنسبة للمستخدمين، فإن المخاطر عملية وفورية. تضمنت 37 بالمائة فقط من الردود عنوان URL كاملاً ومشروعًا للمصدر. وفي حين كانت الملخصات دقيقة تمامًا في أقل من نصف الحالات، إلا أن الكثير منها كان صحيحًا جزئيًا فقط أو مضللاً بشكل ماكر. وفي بعض الحالات، أضافت أدوات الذكاء الاصطناعي “استنتاجات توليدية” غير مدعومة، زاعمة أن القصص “أعادت إشعال المناقشات” أو “سلطت الضوء على التوترات” التي لم تذكرها المصادر البشرية مطلقًا. قد تبدو هذه الإضافات ثاقبة ولكنها يمكن أن تخلق قصصًا غير موجودة ببساطة.

ولم تقتصر الأخطاء على التصنيع

شوهت بعض الأدوات قصصًا حقيقية، مثل الإبلاغ الخاطئ عن معاملة طالبي اللجوء أو تحديد الفائزين في الأحداث الرياضية الكبرى بشكل غير صحيح. وارتكب آخرون أخطاء واقعية أساسية في بيانات الاستطلاع أو الظروف الشخصية. بشكل جماعي، تشير هذه القضايا إلى أن الذكاء الاصطناعي التوليدي لا يزال يكافح من أجل التمييز بين تلخيص الأخبار واختراع السياق.

وبالنظر إلى المستقبل، فإن المخاوف التي أثارتها المحادثة تتوافق مع مراجعة الصناعة الأوسع. وجد تقرير حديث صادر عن 22 مؤسسة إعلامية للخدمة العامة أن ما يقرب من نصف الإجابات الإخبارية التي يولدها الذكاء الاصطناعي تحتوي على مشكلات مهمة، بدءًا من مشكلات تحديد المصادر وحتى الأخطاء الكبيرة. ومع ازدياد تكامل أدوات الذكاء الاصطناعي في عادات البحث والمعلومات اليومية، تؤكد النتائج على تحذير واضح: عندما يتعلق الأمر بالأخبار، ينبغي التعامل مع الذكاء الاصطناعي التوليدي كنقطة بداية في أحسن الأحوال – وليس مصدرا موثوقا للتسجيل.

Fonte

التعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *