عندما طلب الباحثون من أكثر من 1000 أمريكي تعيين ألوان للروبوتات وفقًا لوظيفة الروبوت، وجدوا أن التحيزات المألوفة في مكان العمل البشري عادت إلى الظهور، وأن الأشخاص الذين يقومون بالاختيارات نادرًا ما يعترفون بها على أنها تحيزات. كانت الأنماط قوية بما فيه الكفاية للتنبؤ بالروبوت الذي سيتم اختياره لأي دور، ومع ذلك أوضح المشاركون أنفسهم بلغة عملية محايدة، وليس التحيز. مع انتقال الآلات الشبيهة بالبشر من مختبرات الأبحاث إلى أرضيات المصانع وإلى المستشفيات، فإن هذه الفجوة بين ما يختاره الناس وما يعتقد الناس أنهم يختارونه هي بالضبط ما يقلق الباحثين: يمكن أن ينتهي الأمر بتصنيف القوى العاملة من الروبوتات حسب نفس التسلسل الهرمي الذي يصنف الإنسان، مع عدم رغبة أحد في تسميتها كذلك.
تنضم الدراسة، التي نُشرت في وقائع مؤتمر في مارس 2026 من قبل الباحثين جيانجن هي، ووانكي تشانغ، وجيسيكا ك. بارفيلد، إلى مجموعة متنامية من أبحاث الروبوتات التي غالبًا ما تختلف حول ما إذا كان الناس ينظرون إلى الروبوتات على أنها تخوض سباقًا على الإطلاق. ويأتي أيضًا في وقت أصبحت فيه الأسئلة حول تصميم الروبوت البشري على وشك التوقف عن كونها أكاديمية. قال إيلون ماسك، الرئيس التنفيذي لشركة تسلا، إنه سيقوم بتحويل جزء من مصنع في فريمونت، كاليفورنيا، لإنتاج روبوتات أوبتيموس. وتقوم شركات صينية، مثل Unitree Robotics، بشحن الروبوتات التي تقلب إلى الخلف إلى المستهلكين، وتعمل الروبوتات البشرية الخاصة بشركة Figure AI على خطوط تجميع BMW. “إن تخصيص المظهر للروبوت الاجتماعي لا يعد أبدًا خيارًا جماليًا بحتًا”، كما كتب هو وتشانج وبارفيلد في ورقة بحثية منشورة على خادم ما قبل الطباعة arXiv.org والتي تتوسع في الدراسة. “إنه تدخل اجتماعي تقني عميق يتطلب تصميمًا أخلاقيًا متعمدًا.”
بالنسبة للدراسة، قام الباحثون بتجنيد المشاركين من خلال منصة الاستطلاع Prolific وأظهروا لكل منهم أربعة مشاهد لمكان العمل دون أي شخصيات بشرية: موقع بناء، ومستشفى، ومكان للتدريس المنزلي، وملعب رياضي. في كل مشهد، اختار المشاركون روبوتًا واحدًا من مجموعة مكونة من ستة روبوتات تختلف فقط في اللون، وكان هناك أربعة ألوان للبشرة تتراوح من الفاتح إلى الداكن، بالإضافة إلى خيار فضي ولون أزرق مخضر يُقصد به خطوط أساسية غير عنصرية. اختار ما يقرب من النصف اللون الفضي أو اللون الأزرق المخضر في السيناريوهات. ولكن عندما اختار المشاركون روبوتًا بلون البشرة، تتبعت النتائج الصور النمطية التي وثقها الباحثون بين اللاتينيين والعمل اليدوي، والآسيويين والكفاءة الأكاديمية، والسود والقدرة الرياضية، والأشخاص البيض والأدوار المهنية. وفي تجربة ثانية مع مجموعة مختلفة من المشاركين، أضاف الباحثون محترفين بشريين – عامل بناء لاتيني، وطبيب أبيض، ومدرس آسيوي، ورياضي أسود – إلى نفس المشاهد. وازداد التحيز حدة: كان هؤلاء المشاركون أكثر احتمالا بنحو ست مرات من المجموعة الأولى لاختيار روبوت يتطابق لون بشرته مع العامل الذي رأوه للتو.
حول دعم الصحافة العلمية
إذا كنت تستمتع بهذا المقال، ففكر في دعم صحافتنا الحائزة على جوائز من خلال الاشتراك. من خلال شراء اشتراك، فإنك تساعد على ضمان مستقبل القصص المؤثرة حول الاكتشافات والأفكار التي تشكل عالمنا اليوم.
كما طلب الفريق من المشاركين شرح خيارات الألوان الخاصة بالروبوت. يقول بارفيلد، الباحث في جامعة كنتاكي: “أردنا أن نتعمق أكثر في أسباب اختيار بعض الروبوتات لشغل وظائف معينة”. برر العديد من المشاركين استخدام الروبوتات البيضاء في أماكن الرعاية الصحية لأنها تبدو أكثر نظافة وروبوتات داكنة للبناء لأنها أقل عرضة لإظهار الأوساخ، حسبما أفاد الباحثون في طبعتهم الأولية على موقع arXiv.org. ظهر نمط مختلف عندما ركز الباحثون على اللحظات التي حدث فيها أن يختار المشاركون روبوتًا يتناسب لون بشرته مع لون بشرتهم للقيام بوظيفة ما. ويميل المشاركون البيض والآسيويون إلى استخدام المنطق النفسي والعاطفي، قائلين إن الروبوتات جعلتهم يشعرون بالهدوء أو أنهم أحبوا اللون شخصيًا. على النقيض من ذلك، قدم المشاركون السود الذين اختاروا الروبوتات ذات البشرة الداكنة مبررات وظيفية. يقول هي، الباحث في جامعة تينيسي، نوكسفيل: “سيقولون: “أوه، هذا الروبوت يبدو أقوى أو يبدو أكثر فائدة”، وهذا النوع من الأسباب الوظيفية أكثر”.
فيما يسمى بالانعكاس العنصري، يميل الناس إلى الشعور بالرنين العاطفي مع العوامل التي تشبههم، كما أوضح الباحثون في النسخة التمهيدية. وتشير النتائج إلى أن الانعكاس ليس تجربة عالمية. بالنسبة للمشاركين السود، يقول الباحثون، إن اختيار كيان ذو بشرة داكنة في مجتمع به تحيزات نظامية ضد السود يختلف هيكليًا عن اختيار كيان ذو بشرة فاتحة. ويميل المشاركون السود إلى الوصول بدلاً من ذلك إلى لغة الكفاءة أو التبرير الوظيفي. “إن الافتقار إلى الانعكاس العاطفي من المشاركين السود قد يعكس الحقائق التاريخية حيث تم تجريد البشرة الداكنة بشكل منهجي من” الدفء “في الروايات الثقافية، مما يفرض الاعتماد بشكل أكبر على” الكفاءة “، كما كتبوا.
في كل من الدراستين وكل سيناريوهات الوظائف، كانت الروبوتات ذات اللون الفضي والأزرق المخضر هي الاختيارات الأكثر شعبية – حيث تم اختيارها في كثير من الأحيان، في المتوسط، أكثر من أي لون بشرة فردي. وبما أن الروبوتات أصبحت أكثر شبهاً بالإنسان، فقد صاغت تفسيرات المشاركين بشكل متزايد تلك الألوان المحايدة على أنها صناعية أو عملية. ويقول: “عندما يصبح الروبوت أكثر شبهاً بالإنسان، يحاول الناس تجنب اتخاذ هذا النوع من الاختيار الحساس”.
هذه ليست الدراسات الأولى التي تشير إلى أن الناس يظهرون تحيزًا عنصريًا تجاه الروبوتات. في دراسة أجريت عام 2018، قام كريستوف بارتنيك، الباحث في التفاعل بين الإنسان والحاسوب في جامعة كانتربري في نيوزيلندا، وزملاؤه بتكييف أداة نفسية معروفة تسمى نموذج تحيز مطلق النار. في النسخة الكلاسيكية، يلعب المشاركون نوعًا من ألعاب الفيديو حيث تحمل شخصيات بشرية – بعضها من السود وبعضها من البيض – أسلحة أو أشياء غير ضارة. لديك جزء من الثانية لتقرر: أطلق النار أو لا تطلق النار.
في دراسة بارتنيك، كان المشاركون أسرع في إطلاق النار على أهداف سوداء مسلحة مقارنة بالبيض المسلحين، وأسرعوا في حجب النار عن الأهداف البيضاء غير المسلحة مقارنة بالأهداف السوداء غير المسلحة. ويقول بارتنيك وزملاؤه بعد ذلك، إنهم قاموا بتبادل الروبوتات “لمعرفة ما إذا كان هذا سينجح مع الروبوتات أيضًا”. استجاب المشاركون في الدراسة للروبوتات ذات البشرة الداكنة بنفس الطريقة التي استجابوا بها للبشر السود في سيناريو لعبة الفيديو.
وفي دراسة متابعة، قدم الباحثون روبوتًا ذو بشرة بنية إلى جانب الروبوتات ذات البشرة الداكنة والفاتحة، واختفى هذا التحيز. اتضح أن تصنيف العالم كان أصعب عندما لم يكن ثنائيًا.
يقول روبرت سبارو، الفيلسوف في جامعة موناش في أستراليا، والذي يعد من أوائل الذين كتبوا عن أخلاقيات الروبوتات، إن الروبوتات تحمل روايتين عنصريتين متنافستين. الأول رمزي. كلمة “روبوت” مأخوذة من مسرحية الكاتب التشيكي كاريل وكارونابيك RUR (روبوتات روسوم العالمية)نُشرت في عام 1920 وتم عرضها لأول مرة في يناير 1921، حيث كانت الروبوتات عبارة عن كائنات عضوية تم إنشاؤها كعمال قسريين – الكلمة التشيكية robota يعني العمل القسري يقول سبارو: “من الواضح جدًا أنهم كانوا بمثابة بديل للعمال”. إن المخاوف من انتفاضة الروبوتات، من وجهة نظره، هي في الأساس مخاوف من ثورة العبيد، ومن استيلاء الطبقة العاملة على وسائل الإنتاج. يقول سبارو إن روبوتات &Ccaronapek لم يتم تصويرها ببشرة داكنة، لكنها احتلت المكانة الثقافية للطبقة الدنيا المستعبدة – والتي تم ترميزها، في قراءاته، على أنها العمل العنصري في تلك الحقبة. ويقول: “لذا فإن الروبوتات، منذ البداية، تمثل ذلك النوع من الطبقة الدنيا المضطهدة من العمال العنصريين”.
أما الرواية الثانية، والتي جاءت لاحقًا – حيث أعاد الخيال العلمي اختراع الروبوت باعتباره لامعًا ومستقبليًا وطموحًا – فقد بنت مستقبلًا أبيض اللون، كما تخيله كتاب الخيال العلمي الأوروبيون والأمريكيون. يقول سبارو: “هذا النوع من الخيال العلمي الكلاسيكي في فترة أسيموف، حيث تخيل الناس للتو أن “الأجناس العليا” سوف تستعمر النجوم”. المهندسون الذين نشأوا على هذه القصص قاموا ببناء الآلات التي شاهدوها على الشاشة. يقول سبارو: “يجب أن يبدو الأمر وكأنه يأتي من المستقبل”. “كيف يبدو المستقبل؟ هذا ما يخبرنا به الخيال العلمي.” وأخبرنا الخيال العلمي، في معظم فترات القرن العشرين، أن المستقبل يبدو مثل الأشخاص البيض في بيئات أنيقة. إن قاعدة بيانات الروبوتات المجسمة – وهي عبارة عن كتالوج صور فوتوغرافية للروبوتات الشبيهة بالبشر من مختبرات حول العالم – هي، في وصف سبارو، “جدار أبيض”.
ومع ذلك، فإن سبارو صادق فيما يتعلق بحدود الأدلة. ويقول: “إن الأدبيات العلمية لا تتحدث بصوت واحد حول هذا الموضوع”. لقد بحث بعض الباحثين عن استجابات عنصرية للروبوتات ولم يعثروا على شيء. في عام 2022، نشر الباحثون جايمي بانكس وكيفن كوبان دراسة كان فيها لون البشرة الداكن أو الفاتح والسمات النمطية الذكورية أو الأنثوية ما أسموه “تأثيرًا ضئيلًا” على الصورة النمطية للروبوت البشري. يبدو أن المشاركين في الدراسة يقومون بتصوير الروبوتات على أنها روبوتات، مما يصنفها ضمن فئة “العوامل غير البشرية”.
يشكك ليونيل أوباديا، عالم الأنثروبولوجيا الثقافية بجامعة ليون 2 في فرنسا، والذي يدرس التفاعل بين الإنسان والروبوت في جميع أنحاء أوروبا وآسيا، في القوالب النمطية العنصرية المتعلقة بالروبوتات الشبيهة بالبشر. في عمله الميداني الإثنوغرافي – مراقبة البشر الحقيقيين الذين يتفاعلون مع الروبوتات الحقيقية في البيئات الطبيعية، بدلاً من تجارب الصور عبر الإنترنت – لم يظهر العرق كعامل مهم. يقول أوباديا: “إن العنصرية هي مشكلة إنسانية أكثر منها مشكلة آلية”، محذرًا من أنه “من المختبر إلى الحياة الواقعية، ومن الصور إلى الروبوتات المجسدة، ومن الاستبيانات عبر الإنترنت إلى الملاحظة التجريبية”، قد لا تنجو النتائج من الرحلة.
لكن اعتراض عوباديا الأعمق يتعلق بالعالمية. ويزعم أن المناقشة يتم تحديدها بشكل مفرط من خلال الأطر الأمريكية: فقد أجريت الدراسات التي أجراها هي وتشانج وبارفيلد مع مشاركين أمريكيين في سياق عنصري أمريكي على وجه التحديد، ولا يعتقد أوباديا أن النتائج التي توصلوا إليها يمكن تعميمها بشكل واضح على الروبوتات أو التفاعل بين الإنسان والروبوت في أماكن أخرى من العالم.
يكشف روبوت تسلا أوبتيموس الذي يشبه الإنسان أن العلماء قد يختلفون. أوبتيموس أبيض في الغالب ولكن له رأس أسود وألواح سوداء كبيرة. في عام 2021، عندما كشفت تسلا عن مفهومها لما سيصبح أوبتيموس، رأى بعض النقاد أن الترميز العنصري يمثل مشكلة. جادل خبير الأخلاقيات الرقمية ديفي أوتينهايمر بأن العرض أثار كلا من الوجه الأسود وخيال خادم أسود يمكن السيطرة عليه. كما أخبر إدوارد جونز-إيمحوتب، مؤرخ العلوم والتكنولوجيا، مجلة WIRED أنه يرى صلة بين الإنسان وتلك الظاهرة العنصرية.
يقول سبارو إنه يعتقد أنه يقرأ تصميم أوبتيموس باللون الأبيض. ويضيف: “لكنني أظن أنه كان هناك بالفعل خيار تصميمي واعٍ بعدم جعل كل شيء باللون الأبيض، حتى يكون من الممكن الدفاع عنه”.
يرى عوباديا أن سؤال أوبتيموس دليل على كيفية تشويه التأطير العنصري للإدراك. “أعتقد أن هذا مرتبط بالإفراط في التركيز على لون الروبوتات للعرق، وأخيرًا العنصرية: يمكن أن يؤدي إلى تشويه مفاجئ لتصور لون الروبوتات ورؤيتها جميعًا (على أنها) بيضاء”.
ويحذر بارتنيك أيضًا من المبالغة في هذه الحجة. يقول: “ما يجب أن نكون حذرين منه هو الإثارة”. “ليس كل شيء يتعلق بالعرق. لا أحد يهتم بلون غسالتك.”

التعليقات