[ad_1]
نيويورك – ينتقد مجلس الرقابة سياسات ميتا، مالك فيسبوك، فيما يتعلق بالوسائط التي تم التلاعب بها، ووصفها بأنها “غير متماسكة” وغير كافية لمعالجة طوفان المعلومات المضللة عبر الإنترنت التي بدأت بالفعل في استهداف الانتخابات في جميع أنحاء العالم هذا العام.
وقال المجلس شبه المستقل يوم الاثنين إن مراجعته لمقطع فيديو معدل للرئيس جو بايدن انتشر على فيسبوك كشف عن ثغرات في السياسة. وقال مجلس الإدارة إن ميتا يجب أن توسع السياسة بحيث لا تركز فقط على مقاطع الفيديو التي تم إنشاؤها باستخدام الذكاء الاصطناعي، ولكن على الوسائط بغض النظر عن كيفية إنشائها. ويشمل ذلك التسجيلات الصوتية المزيفة، التي انتحلت بالفعل بشكل مقنع شخصيات المرشحين السياسيين في الولايات المتحدة وأماكن أخرى.
وقال مجلس مراقبة Meta إنه يتعين على الشركة أيضًا توضيح الأضرار التي تحاول منعها ويجب عليها تصنيف الصور ومقاطع الفيديو والمقاطع الصوتية على أنها تم التلاعب بها بدلاً من إزالة المنشورات تمامًا.
تعكس تعليقات مجلس الإدارة التدقيق المكثف الذي تواجهه العديد من شركات التكنولوجيا بسبب تعاملها مع الأكاذيب الانتخابية في عام يتوجه فيه الناخبون في أكثر من 50 دولة إلى صناديق الاقتراع. وبينما يهدد كل من التزييف العميق للذكاء الاصطناعي و”المزيفات الرخيصة” ذات الجودة المنخفضة على وسائل التواصل الاجتماعي بتضليل الناخبين، تحاول المنصات اللحاق بالمشاركات الكاذبة والرد عليها مع حماية حقوق المستخدمين في حرية التعبير.
وقال مايكل ماكونيل، الرئيس المشارك لمجلس الرقابة، عن سياسة ميتا في بيان يوم الاثنين: “في الوضع الحالي، فإن السياسة غير منطقية”. وقال إن الشركة يجب أن تسد الفجوات في السياسة مع ضمان أن الخطاب السياسي “محمي بشكل لا يتزعزع”.
وقالت ميتا إنها تراجع توجيهات مجلس الرقابة وسترد علنًا على التوصيات في غضون 60 يومًا.
وقال المتحدث الرسمي كوري تشامبليس إنه على الرغم من عدم ذكر التزييف العميق للصوت في سياسة الوسائط التي تم التلاعب بها للشركة، إلا أنها مؤهلة للتحقق من صحتها وسيتم تصنيفها أو تصنيفها في مرتبة أدنى إذا صنفها مدققو الحقائق على أنها كاذبة أو معدلة. وأضاف أن الشركة تتخذ أيضًا إجراءات ضد أي نوع من المحتوى إذا كان ينتهك معايير مجتمع فيسبوك.
ولا يزال فيسبوك، الذي أتم عامه العشرين هذا الأسبوع، موقع التواصل الاجتماعي الأكثر شعبية بالنسبة للأمريكيين للحصول على أخبارهم، وفقا لمركز بيو. لكن مواقع التواصل الاجتماعي الأخرى، من بينها Meta’s Instagram وWhatsApp وThreads، بالإضافة إلى X وYouTube وTikTok، تعد أيضًا مراكز محتملة حيث يمكن لوسائل الإعلام الخادعة أن تنتشر وتخدع الناخبين.
أنشأت Meta مجلس الرقابة الخاص بها في عام 2020 ليكون بمثابة حكم للمحتوى الموجود على منصاتها. وتأتي توصياتها الحالية بعد أن قامت بمراجعة مقطع معدل للرئيس بايدن وحفيدته البالغة والذي كان مضللاً ولكنه لم ينتهك سياسات الشركة المحددة.
وأظهرت اللقطات الأصلية بايدن وهو يضع ملصق “لقد صوتت” أعلى صدر حفيدته، بناء على تعليماتها، ثم يقبلها على خدها. تم تعديل النسخة التي ظهرت على فيسبوك لإزالة السياق المهم، مما جعل الأمر يبدو كما لو أنه لمسها بشكل غير لائق.
أيد حكم مجلس الإدارة يوم الاثنين قرار Meta لعام 2023 بترك المقطع الذي تبلغ مدته سبع ثوانٍ على فيسبوك، لأنه لا ينتهك سياسة الشركة الإعلامية الحالية التي تم التلاعب بها. تنص سياسة Meta الحالية على أنها ستزيل مقاطع الفيديو التي تم إنشاؤها باستخدام أدوات الذكاء الاصطناعي التي تحريف كلام شخص ما.
وجاء في الحكم: “نظرًا لأن الفيديو الموجود في هذا المنشور لم يتم تعديله باستخدام الذكاء الاصطناعي ويظهر الرئيس بايدن يفعل شيئًا لم يفعله (وليس شيئًا لم يقله)، فإنه لا ينتهك السياسة الحالية”.
نصح مجلس الإدارة الشركة بتحديث السياسة وتصنيف مقاطع الفيديو المماثلة على أنها تم التلاعب بها في المستقبل. وقالت إنه لحماية حقوق المستخدمين في حرية التعبير، يجب على Meta تصنيف المحتوى على أنه تم التلاعب به بدلاً من إزالته من النظام الأساسي إذا لم ينتهك أي سياسات أخرى.
وأشار المجلس أيضًا إلى أن بعض أشكال الوسائط التي تم التلاعب بها يتم إنشاؤها من أجل الفكاهة أو المحاكاة الساخرة أو السخرية ويجب حمايتها. وقال الحكم إنه بدلا من التركيز على كيفية إنشاء صورة أو مقطع فيديو أو مقطع صوتي مشوه، يجب أن تركز سياسة الشركة على الضرر الذي يمكن أن تسببه المنشورات التي تم التلاعب بها، مثل تعطيل العملية الانتخابية.
وقالت ميتا على موقعها على الإنترنت إنها ترحب بقرار مجلس الرقابة بشأن منشور بايدن وستقوم بتحديث المنشور بعد مراجعة توصيات المجلس.
يُطلب من Meta الالتزام بأحكام مجلس الرقابة بشأن قرارات محتوى محددة، على الرغم من أنها ليست ملزمة باتباع توصيات مجلس الإدارة الأوسع. ومع ذلك، طلب مجلس الإدارة من الشركة إجراء بعض التغييرات على مر السنين، بما في ذلك جعل الرسائل الموجهة إلى المستخدمين الذين ينتهكون سياساتها أكثر تحديدًا لتوضيح الأخطاء التي ارتكبوها.
وقال جين جولبيك، الأستاذ في كلية دراسات المعلومات بجامعة ميريلاند، إن Meta كبيرة بما يكفي لتكون رائدة في تصنيف المحتوى الذي تم التلاعب به، لكن المتابعة لا تقل أهمية عن تغيير السياسة.
“هل سينفذون تلك التغييرات ثم يفرضونها في مواجهة الضغوط السياسية من الأشخاص الذين يريدون القيام بأشياء سيئة؟ قالت: هذا هو السؤال الحقيقي. “إذا قاموا بإجراء هذه التغييرات ولم ينفذوها، فهذا يساهم بشكل أكبر في تدمير الثقة الذي يأتي مع المعلومات المضللة”.
___
ساهمت في هذا التقرير كاتبة التكنولوجيا في وكالة أسوشيتد برس باربرا أورتوتاي في سان فرانسيسكو.
___
تتلقى وكالة أسوشيتد برس الدعم من العديد من المؤسسات الخاصة لتعزيز تغطيتها التوضيحية للانتخابات والديمقراطية. تعرف على المزيد حول مبادرة الديمقراطية الخاصة بوكالة أسوشييتد برس هنا. AP هي المسؤولة الوحيدة عن جميع المحتويات.
[ad_2]
المصدر