تمتلك شركة “ميتا” -المعروفة سابقا بفيسبوك- إمكانات غير محدودة في التحكم بخطابات الملايين، والقدرة على توجيه معلومات هائلة إلى مستخدمي منصاتها: “فيسبوك – إنستجرام”؛ اللتين أصبحتا من المنصات الأساسية في حياة الناس حول العالم في التجارة والتواصل والتعبير عن الرأي وغيرها من المجالات.
لدى “ميتا” قدر هائل من السلطة والقوة التي لم يقابلها القدر الكافي والمطلوب من الرقابة على آليات عملها والإلزام بتحقيق الشفافية بشأن خوارزمياتها، التي وضعت الأرباح أولوية في سياساتها، ما خلق أزمة رقمية هائلة، هددت العديد من الحقوق الاجتماعية والاقتصادية والمدنية والسياسية.
هذه الأزمة يناقشها الباحث ماريو ميخائيل في ورقة جديدة بعنوان “الخوارزميات تراقبك وتقرر بالنيابة عنك”، صادرة عن مركز التنمية والدعم والإعلام (دام)، تقدم رؤية حقوقية حول تزايد نفوذ خوارزميات فيسبوك.
يقول الباحث إن الخطورة الكبرى تكمن في الخوارزميات التي تدير عمليات الإشراف وتوجيه المعلومات على فيسبوك وإنستجرام. إذ يشوبها الكثير من المشكلات أهمها التحيز الخوارزمي. ذلك لأن الخلل في تصميم خوارزميات فيسبوك وإنستجرام يجعلها تتحيز لفئات أكثر حظا على حساب الفئات المهمشة والأقليات. هذا الأمر يظهر في الإعلانات المستهدفة، ويظهر أيضا في عدم قدرة فيسبوك على مواجهة خطاب الكراهية. كما أن حرية التعبير على منصات فيسبوك وإنستجرام قد تصبح عرضة للانتهاك في أي وقت بسبب الأخطاء التقنية في الخوارزميات التي تأتي على حساب الفئات المهمشة حول العالم.
للاطلاع على الورقة الحقوقية كاملة..
تصميم تمييزي
الخوارزميات هي مجموعة من التعليمات، ينفذها البرنامج بتسلسل محدد، يستهدف تنفيذ عملية ما. وبالرغم من أن الخوارزميات قد تبدو محايدة لأنها بلا تدخل بشري. لكنها قد تتحيز لصالح فئة على حساب الأخرى. هذا قد يرجع لتصميم الخوارزميات نفسها (لأن المصممين لم يضعوا بالاعتبار المستخدمين من الأقليات والفئات الأضعف) أو أن الخوارزميات تعلمت بيانات خلال عملها تؤدي للتمييز.
يظهر التحيز الخوارزمي في فيسبوك من خلال عدة أدوات أهمها الإعلانات الموجهة من جهة، وسياسات الإشراف والحظر وتطبيقها من جهة أخرى.
قد يختار المعلن جمهورا محددا لإعلانه ويقصي آخرين من رؤية الإعلان، أو قد تتخذ الخوارزميات قرارات من تلقاء نفسها، للوصول إلى فئة ديموجرافية “سكانية” محددة مرتبطة بالإعلان. ذلك بناء على بيانات تعلمتها الخوارزميات سابقًا. إذا تعلمت الخوارزميات مثلا أن موضوعا معينا يهم أشخاصا بصفات معينة بناء على تفاعل المستخدمين السابق فإنها تستهدف نفس الفئة في المستقبل لإيصال الإعلان للجمهور الذي حللته الخوارزميات بأنه الأكثر اهتمامًا بمحتوى الإعلان.
أما القسم الآخر المتعلق بسياسات الإشراف والحظر وتطبيقها عن طريق الخوارزميات. فهناك عدة أسباب تساهم في رقابة المحتوى على فيسبوك، ما قد يؤدي إلى نتائج تمييزية في عملية الإشراف.
مثلا، قد يتم حجب إحدى المنشورات بسبب كثرة البلاغات على المنشور مما سيجعل المنصة تحذفه، وقد تحجب فيسبوك إحدى المنشورات لاعتبارات سياسية أو بناء على طلب إحدى الحكومات (Lim & Alrasheed, 2021). أما السبب الأخير هو آليات الذكاء الاصطناعي التي تستخدمها المنصة التي تحجب المنشورات بناء على التعليمات والبيانات التي تم تزويد الخوارزميات بها أو البيانات التي تعلمتها الخوارزميات من العمليات السابقة (Lim & Alrasheed, 2021). يعد السبب الأخير هو الأكثر خطورة، حيث إن الخوارزميات تعمل بشكل دائم وآلي وبلا تدخل بشري.
تجعل عمليات الخوارزميات جميع المنشورات على فيسبوك عرضة للحظر أو الحذف. بالإضافة إلى أن المعلومات لن تصل للجميع بشكل متساو، بل سيتم التمييز ضد فئات أضعف على حساب أخرى.
للاطلاع على الورقة الحقوقية كاملة
الخوارزميات وترسيخ التمييز
يستعرض الباحث -في ورقته- كيف خلقت خوارزميات فيسبوك أزمة فيما يتعلق بحقوق الإنسان. فيتطرق إلى التمييز إما عن طريق السماح للمعلنين باستهداف وإقصاء فئات معينة أو تحيز خوارزمي يؤدي إلى نتائج تمييزية في عرض الإعلانات.
وقد أثبتت إحدى الدراسات التحيز الجندري “التحيز على أساس نوع الإنسان ذكر أم أنثى” في إعلانات الوظائف في مجالات العلوم والتكنولوجيا والهندسة والرياضيات على منصة فيسبوك، باختبار وضعت خلاله إعلانات لوظائف العلوم والتكنولوجيا والهندسة والرياضيات وجعلت الإعلان محايدا جندريا. ولكن على الرغم من الحياد الجندري للإعلان توصلت الدراسة إلى أن الإعلان وصل للرجال بنسبة 20% أكثر من النساء (Lambrecht & Tucker, 2019). إظهار الإعلان للرجال أكثر من النساء، برغم عدم نية المعلن القيام بهذا، يؤشر على وجود تحيز جندري بخوارزميات الفيسبوك (Lambrecht & Tucker, 2019).
باستخدام منهجية مماثلة أجريت دراسة على عرض الإعلانات الوظائف والجمهور الذي تصل إليه تلك الإعلانات. أظهرت الدراسة وجود تمييز بناء على الجندر والعرق حيث إن 90% من إعلانات وظائف مجال الأخشاب كانت النسبة الأكبر للذين وصلت لهم تلك الإعلانات من الرجال بنسبة 90%، و70% من الجمهور كانوا من البيض. بينما إعلانات وظيفة البواب كان الجمهور الذي وصل إليه الإعلان مكون من 65% نساء والنسبة العرقية 75% من السود (Ali et al., 2019). يوضح هذا أن خوارزميات الإعلانات الخاصة بفيسبوك تعزز الأنماط الجندرية والعرقية وعدم المساواة.
للاطلاع على الورقة الحقوقية كاملة
وفي العام 2016 ظهرت تقارير تنتقد القدرة التي منحتها فيسبوك للمعلنين بتوجيه الإعلانات بناء على العرق، مما كان يسمح للمعلنين باستهداف مجموعات عرقية محددة أو استبعادهم من رؤية الإعلانات (Parris & Angwin, 2016). بعد ظهور التقارير تحايلت إدارة فيسبوك بتغيير فئة “الانتماء العرقي” إلى “الانتماء متعدد الثقافات” وتم نقلها من القسم الديموجرافي “السكاني” إلى قسم السلوك ولكن ظلت النتيجة واحدة وهي استهداف أو إقصاء فئة بناء على العرق بتقسيمها إلى فئات مثل أمريكيون أفارقة – أمريكيون آسيويون -هسبان “نسبة لإسبانيا” أمريكيون (Angwin et al., 2017). ولكن لاحقًا خضعت فيسبوك للانتقادات وحذفت تلك الفئات.
هذا التمييز أدى إلى دعاوى قانونية ضد شركة فيسبوك. أشهرها كانت دعوى قضائية رفعتها وزارة الإسكان والتنمية الحضرية بالولايات المتحدة ضد شركة فيسبوك لسماحها للمعلنين بإقصاء الأقليات العرقية وغير الأمريكيين وغير المسيحيين من إعلانات السكن. كما سمحت فيسبوك بتحديد سكان الأحياء الذين تصل إليهم الإعلانات. لذلك اعتبرت وزارة الإسكان والتنمية الحضرية بالولايات المتحدة أن هذا يشكل تمييزا أمام الأقليات لأن هذا يحد اختياراتهم بالسكن ويقرر اختيارات سكنهم بالنيابة عنهم (Gabbatt, 2019). في النهاية صدر الحكم بتغريم شركة فيسبوك بسبب خرق قانون الإسكان العادل الذي يجرم التمييز في السكن بناء على العرق أو الجنس أو الأصل القومي.
الخوارزميات تسكت الأصوات
يقول الباحث إن التمييز الخوارزمي اتضح أيضًا في سياسات الإشراف والحظر على المنشورات ذات الطابع السياسي بالمنصة. فمؤخرا حجبت فيسبوك إعلانا لمجلة تربيون يحتوي على مقالة رأي لمحررها رونان بيرتينشو بدعوى أنها تدعو للتمييز.
انتقد الكاتب في المقال ارتفاع الإيجارات في المملكة المتحدة ويدافع في المقالة عن حقوق المستأجرين.
عقب انتشار تغريدة رونان واهتمام الصحف بالأمر أعادت فيسبوك الإعلان مجددا، وقالت إن الحجب كان نتيجة خطأ تقني (Hern, 2022). هذه الواقعة جزء من سلسلة الحجب الذي كانت تمارسه خوارزميات فيسبوك على منشورات النشطاء والكتاب.
نشطاء حركة “حياة السود مهمة” التي تناهض العنصرية بالولايات المتحدة هاجموا إدارة فيسبوك لقيامها بحذف حساباتهم على فيسبوك وإنستجرام بلا مبررات (Levy, 2020). كما حذفت منصة إنستجرام منشورات مهمة لصفحة MMIW المعنية بالدفاع عن حقوق الفتيات من السكان الأصليين بكندا الذين يتعرضون للعنف والقتل والخطف، وكانت تلك المنشورات المحذوفة توثق شهادات وقصص الفتيات من السكان الأصليين الذين تعرضوا للعنف والقتل (Monkman, 2021).
للاطلاع على الورقة الحقوقية كاملة
وبعد الهجوم على المنصة من قبل النشطاء اعتذرت إنستجرام وقالت بأن الحذف جاء نتيجة خطأ تقني وعام وليس مرتبطا بقضية بعينها. وقال مسئول بفيسبوك إنهم لم يهدفوا “لإسكات الأصوات” (Monkman, 2021). تم أيضا حجب حسابات صحفيين عاملين في منصات إعلامية فلسطينية من الضفة الغربية خلال قصف الـ 11 يوم الإسرائيلي على غزة العام الماضي. كما تم حجب حساب حركة فتح أيضا في وقت آخر. ولكن لاحقا في كلتا الواقعتين اعتذرت إدارة فيسبوك على حجب الحسابات الفلسطينية وأعادتها مرة أخرى.
وعندما احتلت روسيا القرم في 2014 وجد العديد من الأوكرانيين المناهضين للاحتلال الروسي أن حساباتهم يتم إزالتها، ولاحقا أعادت فيسبوك الحسابات مجددا. يوضح هذا بأن حرية التعبير الرقمية على فيسبوك ومنصاتها الأخرى عرضة للحجب بسبب الأخطاء التقنية والتحيزات في الخوارزميات.
تهاون الخوارزميات مع خطاب الكراهية
على الجانب الآخر، تحولت منصة فيسبوك إلى منصة ينتشر بها خطاب الكراهية على الرغم من سياسات الشركة التي تناهض خطاب الكراهية. انتقدت الأقليات المختلفة منصة فيسبوك لتهاونها مع الخطابات العنصرية وخطابات الكراهية أو عدم كفاءتها في مواجهة تلك الخطابات.
ومن النماذج لخطابات الكراهية التي تتواجد بكثرة على فيسبوك تلك المنشورات التي تشجع على سيادة العرق الأبيض، والتي تحرض على العنف ضد الأعراق الأخرى مثل السود، والمنشورات المعادية للسامية والتي تحرض على كراهية اليهود، والمنشورات التي تحرض على العنف ضد النساء، والمنشورات التي تحرض على كراهية الأقليات الجنسية، والمنشورات التي تحوي خطاب الكراهية ضد الأقليات المسلمة في ميانمار والهند (Levy, 2020; Blake, 2021; Bose, 2020; BBC, 2021; Debre & Akram, 2021).
الأقليات العرقية، والأقليات الدينية، والأقليات الجنسية والجندرية، والنساء جميعهم يواجهون خطابا إلكترونيا يحث على الكراهية والعنف على فيسبوك. والخوارزميات التي من المفترض أن تمنع خطاب الكراهية لا تقوم بعملها بمنع ذلك الخطاب بشكل فعال.
للاطلاع على الورقة الحقوقية كاملة
وقد أظهرت الوثائق التي سربت في 2017 كيفية عمل نظام الإشراف والحظر وأوضحت أسباب انتشار خطاب الكراهية ضد الفئات الأضعف مع التحيز للفئات الأكثر حظا. يحجب الفيسبوك خطاب الكراهية إذا كان موجها لإحدى “الفئات المحمية” وهي “العرق والجنس والهوية الجندرية والانتماء الديني والأصل القومي والإثنية والتوجه الجنسي والإعاقات أو الأمراض الخطيرة” (Angwin et al., 2017).
وتحمي سياسات فيسبوك جميع الفئات بلا تحديد أي جميع الأعراق أو الهويات الجندرية. ولكن تكمن المشكلة في كونها لا تحمي الفئات الأكثر ضعفا بعينها وتعطي للرجل الأبيض نفس مستوى الحماية للمرأة السوداء مثلا. وهذا ما يؤدي بالنهاية إلى التحيز للفئات الأكثر حظا مثل الرجال البيض (Angwin et al., 2017).
يختتم الباحث بأن الخلل في تصميم خوارزميات ميتا في فيسبوك وإنستجرام أدى إلى حجب أصوات الفئات المهمشة حول العالم. وساعد في ذلك ضعف قدرة الخوارزميات في مواجهة خطاب الكراهية الإلكتروني الموجه ضد الأقليات. خاصة في اللغات غير الإنجليزية. ومع غياب الشفافية، أدى هذا إلى التحيز الخوارزمي. هذا فضلًا عن أن “ميتا” منذ نشأتها وضعت الأرباح كأولوية، ما جاء على حساب الأقليات والمجموعات المهمشة حول العالم. وأنه بدون إلزام الشركة بتحقيق الشفافية فيما يتعلق بخوارزمياتها ورقابة آليات عملها بشكل جاد، سيستمر التحيز الخوارزمي بالاستمرار وربما قد يتفاقم أكثر يومًا ما.