يدعو مجلس الإشراف الوصفي على الشركة إلى التحقيق في كيفية تأثير تغييرات معتدلة المحتوى على حقوق الإنسان

يدعو مجلس الإشراف الوصفي على الشركة إلى التحقيق في كيفية تأثير تغييرات معتدلة المحتوى على حقوق الإنسان

[ad_1]

يدعو مجلس الإشراف في Meta الشركة إلى تقييم كيفية تأثير التغييرات الحديثة على سياسات معتدلة المحتوى على حقوق الإنسان لبعض المستخدمين ، بما في ذلك تلك الموجودة في مجتمع LGBTQ.

نشر مجلس الإشراف 11 قرارًا في القضية بين عشية وضحاها يوم الأربعاء ، مما يمثل الحالات الأولى التي تأخذ في الاعتبار السياسة والإنفاذ التغييرات التي أعلنتها شركة Facebook و Instagram في بداية العام.

وكتب مجلس الإدارة في بيان: “تشير قراراتنا إلى مخاوف تتعلق بالمواصفات في 7 يناير 2025 ، تم الإعلان عن تغييرات السياسة والإنفاذ على عجل ، في رحيل من الإجراءات العادية ، مع عدم وجود معلومات عامة حول ما هي العناية الواجبة في مجال حقوق الإنسان ، إن وجدت ، التي قامت بها الشركة التي أجرتها الشركة”.

يشير المجلس على وجه التحديد إلى قرار Meta بإسقاط بعض حماية LGBTQ من قواعد خطاب الكراهية وسط إصلاح أوسع لممارسات اعتدال المحتوى. في ظل التغييرات ، تتيح Meta الآن للمستخدمين اتهام أفراد LGBTQ بالمرض عقلياً على الرغم من حظر هذا المحتوى على خلاف ذلك.

“نحن نسمح بمزاعم المرض العقلي أو الشذوذ عندما تستند إلى الجنس أو التوجه الجنسي ، بالنظر إلى الخطاب السياسي والديني حول المتحولين جنسياً والمثلية الجنسية” ، تقول سياسة ميتا الآن.

وكتب المجلس: “نظرًا لأن التغييرات التي يتم طرحها على مستوى العالم ، يؤكد مجلس الإدارة أنه من الضروري الآن أن يحدد Meta ويعالج الآثار الضارة على حقوق الإنسان التي قد تنجم عنهم”.

ويشمل ذلك التحقيق في الآثار السلبية المحتملة على دول الأغلبية العالمية ومستخدمي LGBTQ والقاصرين والمهاجرين ، وفقًا للبيان. أوصى مجلس الإدارة بتحديثه على تقدمه كل ستة أشهر والإبلاغ عن النتائج التي توصل إليها علنًا “قريبًا جدًا”.

أشار الحالات الـ 11 التي تمت مراجعتها من قبل مجلس الإدارة المتعلقة بقضايا حرية التعبير ، وأشار مجلس الإدارة إلى أن لديه “عتبة عالية” لتقييد الكلام بموجب إطار حقوق الإنسان الدولي.

في حالتين تتعلقان بمقاطع فيديو نقاش الهوية الجنسية ، على سبيل المثال ، أيدت مجلس الإدارة قرار Meta بالسماح بوظتين حول وصول شعوب المتحولين جنسياً إلى الحمامات والمشاركة في الأحداث الرياضية في الولايات المتحدة

وكتب مجلس الإدارة: “على الرغم من الطبيعة الاستفزازية المتعمدة للوظائف ، التي يمكن أن يجدها خاطئون من العابر ، بطرق يمكن للكثيرين أن يجدوا هجومًا ، وجد أغلبية مجلس الإدارة أنها تتعلق بالمسائل ذات الاهتمام العام ولن تحرض على العنف أو التمييز الوشيك”.

كما أوصى المجلس Meta بتحسين تطبيقه ضد سياسات البلطجة والمضايقة ، بما في ذلك القواعد التي تتطلب من المستخدمين التقرير الذاتي.

وصف الرئيس التنفيذي لشركة Meta Mark Zuckerberg التغييرات في يناير بأنه محاولة “للعودة إلى جذورنا والتركيز على تقليل الأخطاء ، وتبسيط سياساتنا واستعادة تعبير حرة.”

في القيام بذلك ، أعلن أيضًا عن إلغاء ميتا لبرنامج فحص الحقائق. تم استبدال النظام بعملية مجتمعية تسمى Community يلاحظ المستخدمين على المستخدمين لتقديم الملاحظات أو التصحيحات إلى المنشورات التي قد تكون مضللة أو تفتقر إلى السياق.

انتهى برنامج فحص الحقائق رسميًا في الولايات المتحدة في وقت سابق من هذا الشهر وبدأ Meta في اختبار ميزة ملاحظات المجتمع الشهر الماضي. لقد استخدمت خوارزمية X مفتوحة المصدر لنظام التصنيف الذي يحدد ما إذا كانت الملاحظات يتم نشرها.

أوصى المجلس META “بتقييم باستمرار فعالية ملاحظات المجتمع مقارنة بتحقق من الحقائق الطرف الثالث ، وخاصة في الحالات التي يخلق فيها الانتشار السريع للمعلومات الخاطئة مخاطر على السلامة العامة.”

لسنوات ، استخدمت Meta أيضًا تكنولوجيا الذكاء الاصطناعي لاكتشاف المحتوى المخالف وإزالته بشكل استباقي قبل الإبلاغ عنه. وقال المجلس إنه ينبغي على META أيضًا تقييم ما إذا كان تقليل الاعتماد على التكنولوجيا التلقائية قد يكون له تأثيرات في جميع أنحاء العالم ، خاصة في البلدان التي تواجه الأزمة.

يتم تشغيل مجلس الإدارة بشكل مستقل عن META ويتم تمويله من خلال منحة قدمتها الشركة. يمكن أن تقدم توصيات السياسة غير الملزمة ، والتي إذا تم تبنيها ، يمكن أن يكون لها تأثيرات بعيدة المدى لمنصات التواصل الاجتماعي للشركة.

[ad_2]

المصدر