ميتا تتراجع عن قواعد خطاب الكراهية، مستشهدة بـ "الانتخابات الأخيرة"

ميتا تتراجع عن قواعد خطاب الكراهية، مستشهدة بـ “الانتخابات الأخيرة”

[ad_1]

لم يكن الأمر مجرد التحقق من الحقائق هو ما ألغته Meta من منصاتها أثناء استعدادها لإدارة ترامب الثانية.

كما خفف عملاق وسائل التواصل الاجتماعي قواعده بشأن خطاب الكراهية والإساءة – متبعًا مرة أخرى خطى Elon Musk’s X – خاصة عندما يتعلق الأمر بالتوجه الجنسي والهوية الجنسية بالإضافة إلى حالة الهجرة.

تثير هذه التغييرات قلق المدافعين عن الفئات الضعيفة، الذين يقولون إن قرار Meta بتقليص الإشراف على المحتوى قد يؤدي إلى أضرار حقيقية.

قال مارك زوكربيرج، الرئيس التنفيذي لشركة ميتا، يوم الثلاثاء إن الشركة “ستزيل القيود المفروضة على موضوعات مثل الهجرة والجنس التي لا تمس الخطاب السائد”، مشيرًا إلى “الانتخابات الأخيرة” كحافز.

على سبيل المثال، أضافت Meta ما يلي إلى قواعدها – التي تسمى معايير المجتمع – والتي يُطلب من المستخدمين الالتزام بها:

“نحن نسمح بادعاءات المرض العقلي أو الشذوذ عندما تستند إلى الجنس أو التوجه الجنسي، بالنظر إلى الخطاب السياسي والديني حول التحول الجنسي والمثلية الجنسية والاستخدام الشائع غير الجاد لكلمات مثل “غريب”.”

بمعنى آخر، أصبح من المسموح الآن تسمية المثليين بمرض عقلي على فيسبوك وThreads وInstagram. ولا تزال الإهانات الأخرى وما يسميه ميتا “الصور النمطية الضارة المرتبطة تاريخيًا بالترهيب” – مثل الوجه الأسود وإنكار الهولوكوست – محظورة.

كما قامت الشركة التي يقع مقرها في مينلو بارك بولاية كاليفورنيا بإزالة جملة من “الأساس المنطقي للسياسة” توضح سبب حظرها لبعض السلوكيات التي تحض على الكراهية.

وجاء في الجملة المحذوفة الآن أن خطاب الكراهية “يخلق بيئة من الترهيب والإقصاء، وفي بعض الحالات قد يشجع على العنف خارج الإنترنت”.

وقال بن لاينر، المحاضر في كلية داردن للأعمال بجامعة فيرجينيا والذي يدرس الاتجاهات السياسية والتكنولوجية: “إن تغيير السياسة هو تكتيك لكسب تأييد الإدارة القادمة مع تقليل تكاليف الأعمال المتعلقة باعتدال المحتوى”.

“سيؤدي هذا القرار إلى ضرر حقيقي، ليس فقط في الولايات المتحدة حيث كان هناك ارتفاع في خطاب الكراهية والمعلومات المضللة على منصات وسائل التواصل الاجتماعي، ولكن أيضًا في الخارج حيث أدت المعلومات المضللة على فيسبوك إلى تسريع الصراع العرقي في أماكن مثل ميانمار”.

وفي الواقع، اعترفت ميتا في عام 2018 بأنها لم تفعل ما يكفي لمنع استخدام منصتها “للتحريض على العنف خارج الإنترنت” في ميانمار، مما أدى إلى تأجيج الكراهية الطائفية والعنف ضد أقلية الروهينجا المسلمة في البلاد.

قال أرتورو بيجار، المدير الهندسي السابق في ميتا المعروف بخبرته في الحد من التحرش عبر الإنترنت، إنه في حين أن معظم الاهتمام ذهب إلى إعلان التحقق من صحة الشركة يوم الثلاثاء، إلا أنه يشعر بقلق أكبر بشأن التغييرات في سياسات المحتوى الضار في ميتا.

وذلك لأنه بدلاً من فرض القواعد بشكل استباقي ضد أشياء مثل إيذاء النفس والتنمر والتحرش، ستعتمد Meta الآن على تقارير المستخدم قبل اتخاذ أي إجراء. وقالت الشركة إنها تخطط لتركيز أنظمتها الآلية على “معالجة الانتهاكات غير القانونية وعالية الخطورة، مثل الإرهاب والاستغلال الجنسي للأطفال والمخدرات والاحتيال والاحتيال”.

قال بيجار هذا على الرغم من أن “ميتا تعرف أنه بحلول الوقت الذي يتم فيه تقديم التقرير ومراجعة المحتوى سيكون قد أحدث معظم الضرر”.

“أرتعد عندما أفكر في ما ستعنيه هذه التغييرات بالنسبة لشبابنا، تتخلى ميتا عن مسؤوليتها تجاه السلامة، ولن نتأثر بتأثير هذه التغييرات لأن ميتا ترفض أن تكون شفافة بشأن الأضرار التي يتعرض لها المراهقون، ويذهبون إلى أبعد الحدود وقال “لتخفيف أو وقف التشريعات التي يمكن أن تساعد”.

[ad_2]

المصدر