أصبحت الصور ومقاطع الفيديو التي تعمل بتقنية الذكاء الاصطناعي أكثر صعوبة في اكتشافها، وسيزداد الأمر سوءًا. معظم الناس إما لا يدركون مدى الإقناع الذي أصبح به المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، أو أنهم واثقون من قدرتهم على التعرف عليه إذا رأوه. لكن الأبحاث تشير إلى أن كلا من هذه الافتراضات خاطئة.
في الدراسة، تم الكشف عن أن المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي أصبح الآن جيدًا جدًا لدرجة أن الأشخاص لا يستطيعون التمييز بينه وبين المحتوى الذي كتبه الإنسان إلا بنسبة 51٪ من الوقت.
لقد رأينا بالفعل ما هو ممكن. على سبيل المثال، طلبت مكالمة آلية مزيفة تحاكي صوت جو بايدن الناخبين من البقاء في منازلهم في بعض مناطق الولايات المتحدة في عام 2024. وقد تم استخدام الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي لشخصيات عامة لنشر معلومات سياسية مضللة وتنفيذ عمليات احتيال مالية.
يستمر المقال أدناه
تركز معظم أفضل الحلول المتوفرة لدينا الآن على التكنولوجيا نفسها. فكر بشكل أفضل في أدوات الكشف والعلامات المائية والتنظيم. كل هذا مهم، وسوف يتقدم جنبًا إلى جنب مع الذكاء الاصطناعي. لكن مجموعة متزايدة من الأبحاث تطرح سؤالاً مختلفاً: ماذا لو ركزنا على الناس بدلاً من ذلك؟ ماذا لو تمكنا، بدلاً من بناء دفاعات أفضل، من “تطعيم” الأشخاص قبل أن يواجهوا أي محتوى ينتجه الذكاء الاصطناعي على الإطلاق؟
التطعيم النفسي
نعلم جميعًا أن اللقاحات تقدم نسخة ضعيفة من العامل الممرض لتحفيز جهاز المناعة. حسنًا، يعمل التطعيم النفسي بنفس الطريقة تقريبًا. إنه يعرض الأشخاص لمعلومات حول كيفية عمل المعلومات الخاطئة قبل أن يواجهوا الشيء الحقيقي. بهذه الطريقة، يصبحون مستعدين للتشكيك في الأمر عندما يفعلون ذلك.
لقد أذهلتني دراسة أجرتها جامعة أيوا، والتي وضعت فكرة التطعيم النفسي على المحك من خلال التزييف السياسي العميق. قام الباحثون بتقسيم المشاركين إلى ثلاث مجموعات. تلقى أحدهم تحذيرًا نصيًا بسيطًا يشرح كيفية عمل التزييف العميق وما الذي يجب البحث عنه. ولعبت مجموعة أخرى لعبة تفاعلية تحدتهم في اكتشاف التزييف العميق. أما المجموعة الثالثة، وهي المجموعة الضابطة، فلم تتلق أي شيء. ثم شاهدت المجموعات الثلاث مقاطع فيديو مزيفة تظهر إما جو بايدن أو دونالد ترامب وهو يدلي بتصريحات ملفقة.
أظهرت النتائج أن كلاً من التحذير النصي واللعبة جعلا المشاركين أقل احتمالاً لتصديق ما رأوه وأكثر احتمالاً لرغبتهم في إجراء مزيد من التحقيق للعثور على الحقيقة. ومن المثير للاهتمام أن هذين النهجين نجحا أيضًا. لذلك، كان الشرح المكتوب الموجز مسبقًا بنفس فعالية اللعبة التفاعلية.
إن بساطة هذه النتيجة مثيرة للاهتمام حقًا ومشجعة. ويشير ذلك إلى أن العائق أمام مساعدة الناس هنا قد يكون أقل بكثير مما قد نفترض.
قوة الأساليب البسيطة
تعد دراسة جامعة أيوا جزءًا من بحث أوسع تم إعداده منذ فترة. على سبيل المثال، في عام 2022، أظهر الباحثون للناس مقاطع قصيرة متحركة لتعليمهم كيفية التعرف على تقنيات التلاعب، مثل اللغة العاطفية والثنائيات الزائفة. تم عرضها كإعلانات على YouTube لأكثر من 5 ملايين مستخدم في الولايات المتحدة. وبعد رؤيتهم، أصبح الناس قادرين على التعرف بشكل أفضل على تلك التقنيات، بغض النظر عن انتماءاتهم السياسية ومستوياتهم التعليمية.
وقد تم إجراء بحث مماثل على وسائل التواصل الاجتماعي. وفي المملكة المتحدة، تم استهداف أكثر من 300 ألف من مستخدمي إنستغرام بمقطع فيديو قصير مدته 19 ثانية حول محتوى يتلاعب بالعواطف. أولئك الذين شاهدوه كانوا أكثر عرضة للتعرف على التلاعب في العنوان الرئيسي وأكثر عرضة للنقر على الروابط لمعرفة المزيد.
وجدت دراسة أجريت عام 2025 أيضًا أن 5 دقائق فقط من التدريب، والتي تضمنت تعليم الأشخاص كيفية اكتشاف الوجوه التي ينشئها الذكاء الاصطناعي، زادت من دقة اكتشافهم بعد ذلك. ويجري أيضًا تطوير الألعاب، مما قد يجعل التدريب أكثر متعة. Cat Park هي أداة تلقيح مصممة خصيصًا لاكتشاف المعلومات الخاطئة القائمة على الصور. يتعلم اللاعبون كيفية تحديد بعض الأساليب الشائعة، وبعد اللعب، يجدون أن المحتوى المضلل أقل مصداقية.
الجانب الفني
وبعيدًا عن الكشف البشري، يجري تطوير الحلول التقنية. يقوم SynthID الخاص بـ Google DeepMind بتضمين العلامات المائية في الصور ومقاطع الفيديو التي يتم إنشاؤها بواسطة الذكاء الاصطناعي. وبالمثل، قامت Meta بإصدار أداة مفتوحة المصدر للفيديو تسمى Video Seal. هذه الحلول ليست مضمونة، ولكن من الجيد أن نعرف أن هذا النوع من البنية التحتية للتحقق من المصدر يتم بناؤه من قبل بعض أكبر شركات التكنولوجيا، على نطاق واسع.
ثم هناك معيار C2PA، الذي يربط البيانات الوصفية بالمحتوى، ويعمل مثل علامة المصدر. وهذا مدعوم حاليًا من قبل شركات التكنولوجيا مثل Adobe وMicrosoft وGoogle. بالنسبة لأي شخص يريد التحقق من المحتوى أثناء التصفح، هناك أدوات مجانية مثل Hive AI Detector وDeepFake-o-Meter.
سيكون من المثير للاهتمام أيضًا رؤية ما سيحدث مع قانون الذكاء الاصطناعي للاتحاد الأوروبي في أغسطس من هذا العام. يتطلب ذلك من الناحية القانونية تصنيف المحتوى الذي تم إنشاؤه بواسطة الذكاء الاصطناعي، وهي خطوة كبيرة ولكن قد يستغرق تنفيذها الكثير من الوقت.
كيفية اكتشاف التزييف العميق
تعد أبحاث التطعيم النفسي واعدة، لكنها لم يتم نشرها على نطاق واسع بعد. إذن ما الذي يجب أن تبحث عنه بالفعل؟
أصبحت الحكايات الكلاسيكية، مثل الأيدي الغريبة ذات الأصابع الكثيرة والنصوص غير المنطقية على اللافتات والملصقات، أقل موثوقية مع تحسن الذكاء الاصطناعي. ولكن هناك العديد من الأشياء الأخرى التي لا تزال تعطي المحتوى بعيدًا.
في الفيديو، انتبه جيدًا للشفاه. إن الفارق بين ما تراه وما تسمعه، أو الفم الذي لا يفتح ويغلق بشكل كامل، هو إشارة قوية إلى وجود خطأ ما. في الصور، ابحث عن الأشياء التي تتحدى الفيزياء، مثل النسيج الذي يتصرف بشكل غريب، وأشرطة الحقائب التي لا تؤدي إلى أي مكان، والوجوه التي تبدو ناعمة أو متناسقة بشكل غير طبيعي.
ولكن بدلا من اللعب أين والي؟ في كل مرة ترى فيها صورة أو مقطع فيديو، فإن أقوى أداة هي السياق. اسأل ما إذا كان ما تراه منطقيًا في العالم الحقيقي. من شارك هذا ولماذا؟ هل هذا الشخص سيقول هذا فعلا؟ هل يبدو أنه مصمم ليجعلك غاضبًا أو غاضبًا؟ يستغرق البحث العكسي السريع عن الصور أو التحقق من الحقائق ثوانٍ.
لا شيء من هذا يمثل حلاً كاملاً. تنخفض دقة أدوات الكشف مع تحسن المولدات، وتشير العديد من الدراسات المذكورة هنا إلى أن متانة تأثيرات التلقيح على المدى الطويل لا تزال غير واضحة.
وهذا هو السبب في أن أفضل نصيحة لا تتعلق حقًا باكتشاف أخبار محددة على الإطلاق. يتعلق الأمر ببناء عادة عامة من الشك. تمهل قبل أن تشارك. تحقق مرة أخرى من الأشياء. اسأل من يستفيد من تصديقك لشيء ما. كما تشير الأبحاث، في بعض الأحيان يكون مجرد التوقف للتفكير كافيًا.
اتبع TechRadar على أخبار جوجل و أضفنا كمصدر مفضل للحصول على أخبار الخبراء والمراجعات والآراء في خلاصاتك. تأكد من النقر على زر المتابعة!
وبالطبع يمكنك أيضًا اتبع TechRadar على TikTok للحصول على الأخبار والمراجعات وفتح الصناديق في شكل فيديو، والحصول على تحديثات منتظمة منا على واتساب أيضاً.

التعليقات