ميجا موهانمراسلة بي بي سي العالمية للنوع الاجتماعي والهوية
حصىألهمت جريمة قتل مروعة وقعت في عائلتها جنوب إفريقيا ليونورا تيما إنشاء منصة رقمية حيث يمكن للأشخاص، معظمهم من النساء، التحدث عن الانتهاكات وتتبعها.
وكانت قريبة ليونورا تبلغ من العمر 19 عامًا فقط، وحامل في شهرها التاسع، عندما قُتلت، وألقيت جثتها على جانب الطريق السريع بالقرب من كيب تاون في عام 2020.
تقول ليونورا: “أنا أعمل في قطاع التنمية، لذلك رأيت أعمال عنف”. “لكن ما لفت انتباهي هو أن الموت العنيف لأحد أفراد عائلتي كان يُنظر إليه على أنه أمر طبيعي جدًا في مجتمع جنوب إفريقيا.
“لم يتم نشر وفاتها في أي وسيلة إخبارية لأن الحجم الهائل لهذه الحالات في بلدنا لا يمكن اعتباره خبرًا.”
لم يتم القبض على القاتل مطلقًا، وما رأته ليونورا على أنه قبول صامت لموت امرأة عنيفًا أصبح حافزًا لتطبيقها، حقوق النوع الاجتماعي في التكنولوجيا (Grit)، والذي يتميز ببرنامج دردشة يسمى Zuzi.
هذه واحدة من أولى أدوات الذكاء الاصطناعي المجانية التي صنعها المبدعون الأفارقة لمعالجة العنف القائم على النوع الاجتماعي.
تقول ليونورا: “هذا حل أفريقي تم تصميمه بالاشتراك مع المجتمعات الأفريقية”.
الهدف هو تقديم الدعم والمساعدة في جمع الأدلة التي يمكن استخدامها لاحقًا في القضايا القانونية ضد المعتدين.
تكتسب هذه المبادرة اهتمامًا بين الناشطين الدوليين في مجال حقوق المرأة، على الرغم من تحذير البعض من عدم استخدام برامج الدردشة الآلية لتحل محل الدعم البشري، مع التأكيد على أن الناجين يحتاجون إلى التعاطف والتفاهم والاتصال العاطفي الذي لا يمكن توفيره إلا من قبل متخصصين مدربين.
قامت ليونورا وفريقها الصغير بزيارة المجتمعات المحلية في البلدات المحيطة بمنزلها في كيب تاون، وتحدثوا إلى السكان حول تجاربهم مع سوء المعاملة والطرق التي تتناسب بها التكنولوجيا مع حياتهم.
وسألوا أكثر من 800 شخص عن كيفية استخدامهم لهواتفهم ووسائل التواصل الاجتماعي للحديث عن العنف، وما الذي يمنعهم من طلب المساعدة.
وجدت ليونورا أن الناس يريدون التحدث عن إساءة معاملتهم، لكنهم “كانوا حذرين من الطرق التقليدية مثل الشرطة”.
وتقول: “بعض النساء ينشرن عن ذلك على فيسبوك، بل ويضعن علامة على المعتدي عليهن، ليتم تسليمهن أوراق التشهير”.
وأعربت عن شعورها بأن الأنظمة القائمة تخذل الضحايا مرتين، أولاً عندما فشلت في منع العنف نفسه، ومرة أخرى عندما حاول الضحايا رفع أصواتهم.
وبدعم مالي وفني من Mozilla ومؤسسة Gates ومؤسسة Patrick McGovern، بدأت ليونورا وفريقها في تطوير Grit، وهو تطبيق للهاتف المحمول يمكنه مساعدة الأشخاص على تسجيل حالات إساءة الاستخدام والإبلاغ عنها والحصول على رد عليها أثناء حدوثها.
التطبيق مجاني للاستخدام، على الرغم من أنه يتطلب بيانات الهاتف المحمول لتنزيله. ويقول فريق ليونورا إن لديه 13 ألف مستخدم، وتلقى حوالي 10 آلاف طلب للمساعدة في سبتمبر.
في جوهره، تم بناء Grit حول ثلاث ميزات رئيسية.
يوجد على الشاشة الرئيسية زر مساعدة دائري كبير. عند الضغط عليه، يبدأ تلقائيًا في تسجيل 20 ثانية من الصوت، ويلتقط ما يحدث حول المستخدم. وفي الوقت نفسه، فإنه يطلق تنبيهًا إلى مركز اتصال خاص للاستجابة السريعة – شركات الاستجابة المهنية شائعة في جنوب إفريقيا – حيث يقوم عامل مدرب بالاتصال بالمستخدم.
إذا كان المتصل يحتاج إلى مساعدة فورية، يقوم فريق الاستجابة إما بإرسال شخص ما إلى مكان الحادث بنفسه أو الاتصال بمنظمة محلية للضحية يمكنها الذهاب لمساعدتهم.
تقول ليونورا: “تم إنشاء التطبيق مع مراعاة احتياجات الناجين من الانتهاكات في جوهره: “نحن بحاجة إلى كسب ثقة الناس. غالبًا ما يتم تجاهل هذه المجتمعات. نحن نطلب الكثير من الناس عندما يتعلق الأمر بمشاركة البيانات”.
حصىوعندما سئلت عما إذا كان قد تم إساءة استخدام ميزة المساعدة، اعترفت بوجود عدد قليل من المطابع الغريبة – أشخاص يختبرون لمعرفة ما إذا كانت تعمل بالفعل – ولكن لا شيء يمكن أن تسميه إساءة استخدام النظام.
وتقول: “الناس حذرون. إنهم يختبروننا بقدر ما نختبر التكنولوجيا”.
العنصر الثاني في Grit هو “القبو”، الذي تقول ليونورا إنه مساحة رقمية آمنة حيث يمكن للمستخدمين تخزين أدلة إساءة الاستخدام، مؤرخة ومشفرة، لاستخدامها لاحقًا في الإجراءات القانونية.
يمكن تحميل الصور ولقطات الشاشة والتسجيلات الصوتية وحفظها بشكل خاص، مما يحمي الأدلة المهمة من الحذف أو التلاعب.
تقول ليونورا: “في بعض الأحيان تلتقط النساء صورًا للإصابات أو تحفظ رسائل تهديد، لكن هذه الرسائل يمكن أن تضيع أو تُحذف”. “القبو يعني أن الأدلة ليست مجرد موجودة على الهاتف الذي يمكن أخذه أو تدميره.”
هذا الشهر، سوف تتوسع Grit مرة أخرى مع إطلاق ميزتها الثالثة – Zuzi، وهو برنامج دردشة آلي يعمل بالذكاء الاصطناعي مصمم للاستماع وتقديم المشورة وتوجيه المستخدمين لدعم المجتمع المحلي.
“لقد سألنا الناس: هل يجب أن تكون امرأة؟ هل يجب أن يكون رجلاً؟ هل يجب أن يكون روبوتًا؟ هل يجب أن يبدو وكأنه محامٍ، أو عامل اجتماعي، أو صحفي، أو أي شخصية أخرى ذات سلطة؟”، تشرح ليونورا.
أخبرهم الناس أنهم يريدون أن تكون زوزي “شخصية عمة” – شخصًا دافئًا وجديرًا بالثقة، ويمكنهم الوثوق به دون خوف من الحكم.
حصىعلى الرغم من أنه تم تصميمه في المقام الأول للنساء اللاتي يعانين من سوء المعاملة، إلا أنه خلال مرحلة الاختبار، تم استخدام Zuzi أيضًا من قبل الرجال الذين يطلبون المساعدة.
توضح ليونورا: “بعض المحادثات تكون من الجناة، حيث يطلب الرجال من زوزي تعليمهم كيفية الحصول على المساعدة في حل مشاكل الغضب، والتي غالبًا ما يوجهونها إلى شركائهم”. “هناك أيضًا رجال وقعوا ضحايا للعنف واستخدموا زوزي للتحدث بشكل أكثر صراحة عن تجربتهم.
وتضيف: “يحب الناس التحدث إلى الذكاء الاصطناعي لأنهم لا يشعرون بأنه يحكم عليهم من خلاله”. “إنه ليس إنساناً.”
تشير تقارير هيئة الأمم المتحدة للمرأة إلى أن جنوب أفريقيا تشهد بعضًا من أعلى مستويات العنف القائم على النوع الاجتماعي في العالم، حيث يبلغ معدل قتل الإناث خمسة أضعاف المتوسط العالمي. بين عامي 2015 و2020، قُتل ما معدله سبع نساء يوميًا، وفقًا لشرطة جنوب إفريقيا.
ويتفق كثيرون، بما في ذلك ليزا فيتن، المتخصصة في العنف القائم على النوع الاجتماعي في جنوب أفريقيا، على أنه من المحتم أن تلعب التكنولوجيا دورا في معالجة هذه المشكلة.
لكنها تحذر أيضًا من الحذر بشأن استخدام الذكاء الاصطناعي في الرعاية التي تركز على الصدمات.
وتقول: “أسميها نماذج لغوية كبيرة، وليس الذكاء الاصطناعي لأنها تشارك في التحليل والتنبؤ اللغوي – لا أكثر”.
يمكنها أن ترى كيف يمكن لأنظمة الذكاء الاصطناعي أن تكون قادرة على المساعدة، ولكنها تعرف أمثلة حيث قدمت روبوتات الدردشة الأخرى العاملة بالذكاء الاصطناعي نصائح غير صحيحة للنساء.
وتقول: “أشعر بالقلق عندما يقدمون للنساء إجابات واثقة للغاية لمشاكلهن القانونية”. “يمكن لروبوتات الدردشة تقديم معلومات مفيدة ولكنها غير قادرة على التعامل مع الصعوبات المعقدة ومتعددة الأوجه. والأهم من ذلك، أنها ليست بديلاً عن الاستشارة البشرية. يحتاج الأشخاص الذين تعرضوا للأذى إلى المساعدة على الثقة والشعور بالأمان مع البشر الآخرين.”
@judith.Litvine/MEAEوقد اجتذب النهج الذي اتبعه جريت الاهتمام الدولي.
في أكتوبر/تشرين الأول، قدمت ليونورا وفريقها تطبيقهم في مؤتمر السياسة الخارجية النسوية الذي استضافته الحكومة الفرنسية في باريس، حيث التقى قادة العالم لمناقشة كيفية استخدام التكنولوجيا والسياسة لبناء عالم أكثر مساواة بين الجنسين. وفي المؤتمر، وقعت 31 دولة على تعهد بجعل معالجة العنف القائم على النوع الاجتماعي أولوية سياسية رئيسية.
تقول ليريك طومسون، مؤسسة ورئيسة التعاونية النسوية للسياسة الخارجية، إن المحادثات تعج حول استخدام الذكاء الاصطناعي، “ولكن في اللحظة التي تحاول فيها إدراج النوع الاجتماعي في المحادثة، لإثارة مخاطر التحيز العنصري والجنساني وكراهية الأجانب، فإن العيون تغمض وتتحول المحادثة – على الأرجح إلى ممر خلفي حيث لا توجد أي نساء مزعجات لإثارة الموضوع”.
وتوافق هيذر هيرلبورت – زميلة مشاركة في تشاتام هاوس، المتخصصة في الذكاء الاصطناعي واستخدامه في التكنولوجيا – على أن الذكاء الاصطناعي “لديه إمكانات هائلة إما للمساعدة في تحديد ومعالجة التمييز بين الجنسين والعنف القائم على النوع الاجتماعي، أو لترسيخ كراهية النساء وعدم المساواة”، لكنها تضيف أن الطريق الذي نسلكه “يعود إلينا كثيرًا”.
وتوضح ليونورا أن نجاح الذكاء الاصطناعي في معالجة العنف القائم على النوع الاجتماعي لا يعتمد فقط على الهندسة، بل على من يمكنه تصميم التكنولوجيا في المقام الأول.
وجد تقرير للمنتدى الاقتصادي العالمي لعام 2018 أن 22% فقط من المتخصصين في مجال الذكاء الاصطناعي على مستوى العالم هم من النساء، وهي إحصائية لا يزال يُستشهد بها كثيرًا.
يقول ليونورا: “لقد تم بناء الذكاء الاصطناعي كما نعرفه الآن باستخدام بيانات تاريخية تركز على أصوات الرجال، والرجال البيض على وجه الخصوص”.
“لا تقتصر الإجابة على وجود المزيد من المبدعات فحسب. بل نحتاج أيضًا إلى مبدعات من النساء ذوات البشرة الملونة، وأكثر من الجنوب العالمي، وأكثر من خلفيات اجتماعية واقتصادية أقل حظًا.”
وخلصت ليونورا تيما إلى أنه عندها فقط يمكن للتكنولوجيا أن تبدأ في تمثيل واقع أولئك الذين يستخدمونها.
قد تكون مهتمًا أيضًا بـ:
غيتي إميجز / بي بي سي

التعليقات