تفضل الوجوه البيضاء على السوداء .. “تويتر” تعيد النظر في تكنولوجيا معاينة الصور
تبحث منصة “تويتر” في سبب تفضيل “الشبكة العصبية”، التي تستخدمها لتوليد معاينة الصور، إظهار وجوه الأشخاص البيض بشكل متكرر أكثر من الوجوه السوداء.
واستعرض عدد من مستخدمي “تويتر” المشكلة، نهاية الأسبوع الماضي، ونشروا أمثلة لمنشوراتٍ بها وجه شخص أبيض ووجه شخص أسود، وكانت النتيجة أن عرض الموقع الوجوه البيضاء أكثر من الوجوه السوداء.
وبدأ الاختبار غير الرسمي بعد أن حاول أحد مستخدمي “تويتر” النشر عن مشكلة لاحظها في ميزة التعرف على الوجه في (Zoom)، حيث لم تكن تُظهر وجه زميل أسود في المكالمات.
كما لاحظ أن خوارزمية “تويتر” تفضل الوجه الأبيض على الوجه الأسود عندما نشر المشكلة على “تويتر”، واكتشف المستخدمون أن خوارزمية المعاينة اختارت شخصيات كرتونية غير سوداء أيضًا.
وأوضح باحثو التعلم الآلي، في تغريدة، كيف بدأوا بالتعرف على الوجه لاقتصاص الصور، وذلك عندما بدأت المنصة لأول مرة في استخدام “الشبكة العصبية” لاقتصاص معاينات الصور تلقائيًا.
ولفتوا، في تغريدتهم، إلى أنهم استخدموا في السابق ميزة اكتشاف الوجه لتركيز الرؤية على أبرز وجه يمكن العثور عليه،مبينين أنه “بالرغم من أن هذا ليس استدلالًا غير منطقي، إلا أن النهج له حدود واضحة، نظرًا إلى عدم احتواء جميع الصور على وجوه”.
وأضافوا أنه “غالبًا ما يتجنب جهاز كشف الوجه لدينا الوجوه، وأحيانًا يكتشف الوجوه عن طريق الخطأ عندما لا يكون هناك أي وجوه، وفي حال لم يتم العثور على وجوه، فسنركز الرؤية على وسط الصورة، ومن الممكن أن يؤدي ذلك إلى اقتصاص صور المعاينة بشكل محرج”.
وغرد كبير مسؤولي التصميم في “تويتر”، دانتلي ديفيس ، بأن الشركة كانت تحقق في “الشبكة العصبية”، حيث أجرى بعض التجارب غير العلمية على الصور، فيما غردت ليز كيلي، من فريق التواصل في “تويتر” بأن الشركة اختبرت التحيز قبل إرسال النموذج، لكنها لم تجد دليلًا على التحيز العنصري أو الجنسي في اختبارها.
وكتبت كيلي عبر منصة “تويتر”: من الواضح من هذه الأمثلة أن لدينا المزيد من التحليل للقيام به، ونحن نبحث في هذا، ونواصل مشاركة ما نتعلمه والإجراءات التي نتخذها، وسنفتح مصدر عملنا حتى يتمكن الآخرون من المراجعة والتكرار.
يذكر انه، وبحسب دراسة أجراها المعهد الوطني للمعايير والتكنولوجيا في أميركاً، فإن أنظمة التعرف على الوجه المعتمدة من القوى الأمنية والمطارات والموانئ والجمارك وفي كل مؤسسة تعتمد تلك التقنية، مليئة بالأخطاء ذات الدلالات العنصرية.
تلفزيون الخبر