[ad_1]
يكافح الممثلون المضربون وسط مفاوضات العقود مع استوديوهات الإنتاج من أجل الحماية من الذكاء الاصطناعي (AI)، لكن المخاوف التي يسلطون الضوء عليها تثير مخاطر تتجاوز نطاق الأفلام والتلفزيون.
إن التقدم في مجال الذكاء الاصطناعي الذي يمكنه تقليد أصوات فناني الأداء، ومظاهرهم، وحركاتهم يثير مخاوف بالغة الأهمية بشأن سيطرة الأفراد على ما يشبههم – وكيف يتم استخدام النسخ المتماثلة النابضة بالحياة لتحقيق الربح أو نشر المعلومات المضللة.
قال كلارك جريج، عضو اتحاد SAG-AFTRA المعروف بدوره كفيل كولسون في Marvel Cinematic Universe، أمام لجنة بمجلس النواب إنه تلقى مؤخرًا محتوى غير لائق يبدو أنه يظهر نفسه وهو يقوم “بمواد إباحية بهلوانية”.
مع التحذير من أن شبهه بالذكاء الاصطناعي لديه عضلات بطن، قال جريج إنه “سيقتل من أجله”، وقال إن المحتوى كان نابضًا بالحياة و”مرعبًا”.
“من المزعج أن تكون هناك ابنة متصلة بالإنترنت، لكنه مجرد مثال على ذلك. قال جريج خلال جلسة استماع لجنة الطاقة والتجارة بمجلس النواب حول الذكاء الاصطناعي وخصوصية البيانات الأسبوع الماضي: “هذا هو المكان الذي يتجاوز فيه عملي إلى عملك”.
“إذا تمكنوا من جعلي أبدو وكأنني أفعل شيئًا لن أفعله أبدًا، فمن الخطورة جدًا أن يجعلوك، رئيس مجلس النواب – إذا حصلنا على ذلك – الرئيس، تقول أشياء، خاصة في اللحظات المتوترة حقًا بينما نمر بشكل صحيح وأضاف: “الآن مع ما يحدث في الشرق الأوسط”.
كيف انخرط الممثلون في الذكاء الاصطناعي
SAG-AFTRA، وهي نقابة تمثل حوالي 160.000 ممثل ومتخصصين في وسائل الإعلام، كانت مضربة عن العمل منذ يوليو/تموز أثناء مفاوضات العقد مع تحالف منتجي الصور المتحركة والتلفزيون (AMPTP).
إلى جانب زيادات الأجور وزيادة التعويضات مقابل البث المباشر، تسعى النقابة للحصول على الحماية من الذكاء الاصطناعي وسط مخاطر تكرار نسخها واستخدامها مرة أخرى.
قال جريج إن “تقنية الكتاب الهزلي المستقبلية” التي تمكنت شخصيته في Marvel من الوصول إليها “أصبحت حقيقة بالفعل”.
وأضاف: “أصواتنا وصورنا وعروضنا متاحة حاليًا على الإنترنت، سواء بشكل قانوني أو غير قانوني، لأننا لا نملك حماية للبيانات والخصوصية والأمن في جميع أنحاء البلاد”.
“يمكن لنماذج الذكاء الاصطناعي استيعابها وإعادة إنتاجها وتعديلها حسب الرغبة دون مراعاة أو تعويض أو موافقة للفنان. وأضاف جريج: “إنه انتهاك لحقوق الخصوصية ولكنه أيضًا انتهاك لقدرتنا على المنافسة العادلة في السوق”.
أحد المخاطر التي أشار إليها هو تكرار فناني الأداء في الخلفية واستخدام صورهم مرة أخرى دون تعويضهم من قبل الاستوديوهات.
تواصلت The Hill مع AMPTP للتعليق.
نفى متحدث باسم AMPTP لـ The Verge في يوليو ادعاءات أن الاستوديوهات اقترحت تكرار فناني الأداء في الخلفية لاستخدام أشكالهم بشكل متكرر دون موافقة أو تعويض.
وقال المتحدث إن الاقتراح يهدف إلى السماح لشركة ما باستخدام نسخة رقمية طبق الأصل من ممثل الخلفية في الصورة المتحركة التي يعمل فيها الممثل، وأي استخدام آخر سيتطلب موافقة الممثل والمساومة على الاستخدام.
وبعيدًا عن كيفية استخدام الاستوديوهات للنسخ المقلدة، فقد تم بالفعل تداول أمثلة على التزييف العميق للمشاهير عبر الإنترنت.
في وقت سابق من هذا الشهر، حذر توم هانكس الجمهور في منشور على إنستغرام من نسخة الذكاء الاصطناعي منه التي تروج لخطة علاج الأسنان. وقال إنه “لا علاقة له بالأمر”.
حذرت مذيعة شبكة سي بي إس جايل كينغ أتباعها من ظهور نسخة تم التلاعب بها للإعلان عن “سر” فقدان الوزن. قالت في منشور على Instagram إنها “لا علاقة لها بهذه الشركة”.
وقال جريج إنه كجزء من مفاوضات العقود، يدفع الممثلون من أجل الحماية التي من شأنها أن تركز على منح فناني الأداء الاعتبار والتعويض وحقوق الموافقة على كيفية استخدام الذكاء الاصطناعي.
ظهرت معركة مماثلة عندما أضربت نقابة الكتاب الأمريكية (WGA). في أواخر سبتمبر، توصلت WGA وAMPTP إلى اتفاق يتضمن حماية الذكاء الاصطناعي بعد إضراب دام 148 يومًا.
قالت ميشيل ميلر، المؤسس المشارك والمدير التنفيذي المشارك السابق لموقع Coworker.org، وهي مجموعة لتنظيم العمال في المراحل المبكرة، إن النقاش الدائر بين الجهات الفاعلة حول الذكاء الاصطناعي يتردد صداها لدى الجمهور بسبب المخاوف المماثلة التي أثارها العمال عبر الصناعات في السنوات الأخيرة.
وقال ميلر: “لقد واجه العديد والعديد من العمال… اختراقات مختلفة لأجزاء وأجزاء من البرامج التي ظهرت في حياتهم العملية والتي لا يمكنهم السيطرة عليها”.
“إنهم لا يعرفون مقدار المعلومات التي تأخذها منهم. وأضاف ميلر: “لذا يكون الأمر مدويًا حقًا عندما تكون هناك مجموعة من العمال لديهم القوة الجماعية للوقوف والقول: “انتظر لحظة، نريد إجراء محادثة حول هذا الأمر”.
ومع ذلك، فإن الضغوط التي تقوم بها النقابات لن تحمي غالبية الأمريكيين العاملين الذين ليسوا جزءا من النقابات.
كان ما يقرب من 10% من العاملين بأجر ومرتبات أعضاء في النقابات في عام 2022، وهو ما يمثل أدنى مستوى عضوية نقابية على الإطلاق، وفقًا للبيانات السنوية الصادرة عن مكتب إحصاءات العمل في يناير.
ماذا يستطيع الكونجرس أن يفعل؟
ولحماية العمال غير النقابيين، يمكن للحكومة الفيدرالية اتخاذ إجراءات لوضع مبادئ توجيهية وطنية. يمكن أن تكون حواجز الحماية على الذكاء الاصطناعي، خاصة فيما يتعلق بالنسخ المتماثلة العميقة، حاسمة أيضًا في التخفيف من انتشار المعلومات المضللة.
ويدرس الكونجرس طرقًا لوضع حواجز حماية للذكاء الاصطناعي في عدد من المجالات، بالإضافة إلى إنشاء إطار شامل للتنظيم.
وبينما يدرس الكونجرس مقترحات محددة للتخفيف من مخاطر الذكاء الاصطناعي، حثهم شهود خبراء في جلسة الأربعاء على المضي قدمًا في مشروع قانون شامل لخصوصية البيانات. ومن خلال القيام بذلك، سيساعد في الحماية من بعض المخاطر المتعلقة بكيفية قيام أنظمة الذكاء الاصطناعي، وكذلك الكيانات التقنية الأخرى، بجمع واستخدام بيانات الأمريكيين.
قدمت لجنة مجلس النواب مشروع قانون الخصوصية، قانون خصوصية وحماية البيانات الأمريكية (ADPPA)، العام الماضي بدعم من الحزبين، لكنه فشل في طرحه للتصويت عليه أو رفعه للنظر فيه في مجلس الشيوخ.
في الأسبوع الماضي، تم تقديم مشروع قانون من الحزبين إلى مجلس الشيوخ يهدف إلى معالجة مخاوف الذكاء الاصطناعي بشأن الاسم والصورة والشكل. إن قانون Nurture Originals وFoster Art وKeep Entertainment Safe (NO FAKES) من شأنه أن يحمل الأفراد أو الشركات المسؤولية عن إنتاج أو استضافة نسخ طبق الأصل رقمية غير مصرح بها للأفراد في الأداء.
على الرغم من أن مشروع القانون يحتوي على بعض الاستثناءات من المسؤولية المتعلقة بحماية التعديل الأول، على سبيل المثال النسخ المتماثلة للأخبار أو الأفلام الوثائقية أو الساخرة، إلا أن الخبراء سلطوا الضوء على مخاوف حرية التعبير التي قد تنشأ عن مسودة الاقتراح.
قال ميلر إن هناك فرقًا بين “الأخطاء الفردية على الإنترنت” و”كيان مؤسسي كامل أو كيان غامض يخلق شيئًا ما لإنشاء نمط من المعلومات المضللة أو الاستفادة من الإبداع الخاص بشخص ما (الملكية الفكرية)”.
وقالت إن مشروع القانون لا يبدو أنه يفرق بين الاثنين.
قال ميلر: “أشعر بقلق شديد عندما نبدأ في مقاضاة السلوك الفردي على الإنترنت بهذه الطريقة”.
وقال كريس كاليسون بورش، أستاذ الهندسة في جامعة بنسلفانيا، إنه بالإضافة إلى المخاوف المتعلقة بحرية التعبير، فإن مشروع القانون يشكل تحديات لمطوري الذكاء الاصطناعي. وقال إن مشروع القانون لا يوفر إرشادات كافية لمطوري الذكاء الاصطناعي لتنفيذ طريقة لتجنب انتهاك القانون.
“لو كنت مطورًا لنظام الذكاء الاصطناعي، لا أستطيع أن أتخيل كيف يمكن أن يكون لدي نظام يتعين عليه التحقق من كل صورة ليقول: “هل هذا قريب بما فيه الكفاية من شخص يمكن أن يخالف هذا القانون”” كاليسون-بورش قال.
وقال: “لذا فإن هذا يقلقني لأنني أشعر أن لديها القدرة على الحد من الابتكار في هذا المجال”.
حقوق الطبع والنشر لعام 2023 لشركة Nexstar Media Inc. جميع الحقوق محفوظة. لا يجوز نشر هذه المادة أو بثها أو إعادة كتابتها أو إعادة توزيعها.
[ad_2]
المصدر