حصريًا: Meta لمنع المعلنين السياسيين من استخدام أدوات إعلانات الذكاء الاصطناعي المنتجة

حصريًا: يمنع Meta المعلنين السياسيين من استخدام أدوات إعلانات الذكاء الاصطناعي الإبداعية

[ad_1]

يظهر شعار Meta AI في هذا الرسم التوضيحي الذي تم التقاطه في 28 سبتمبر 2023. REUTERS/Dado Ruvic/Illustration/File Photo تحصل على حقوق الترخيص

نيويورك 6 نوفمبر (رويترز) – قال متحدث باسم شركة ميتا (META.O) المالكة لشركة فيسبوك يوم الاثنين إنها تمنع الحملات السياسية والمعلنين في الصناعات المنظمة الأخرى من استخدام منتجاتها الإعلانية الجديدة التي تعمل بالذكاء الاصطناعي، مما يمنع الوصول إلى الأدوات التي وضعها المشرعون. وحذر من أنه قد يؤدي إلى زيادة انتشار المعلومات المضللة عن الانتخابات.

كشفت ميتا علنًا عن القرار في التحديثات المنشورة على مركز المساعدة الخاص بها مساء الاثنين، بعد نشر هذه القصة. تحظر معاييرها الإعلانية الإعلانات ذات المحتوى الذي تم فضحه من قبل شركاء التحقق من الحقائق في الشركة، ولكن ليس لديهم أي قواعد خاصة بالذكاء الاصطناعي.

“بينما نواصل اختبار أدوات إنشاء إعلانات الذكاء الاصطناعي التوليدية الجديدة في مدير الإعلانات، فإن المعلنين الذين يديرون حملات مؤهلة كإعلانات للإسكان أو التوظيف أو الائتمان أو القضايا الاجتماعية أو الانتخابات أو السياسة أو المتعلقة بالصحة أو الأدوية أو الخدمات المالية لا يعتبرون كذلك. وقالت الشركة في مذكرة ملحقة بعدة صفحات تشرح كيفية عمل الأدوات: “يُسمح حاليًا باستخدام ميزات الذكاء الاصطناعي التوليدية هذه”.

وقالت: “نعتقد أن هذا النهج سيسمح لنا بفهم المخاطر المحتملة بشكل أفضل وبناء الضمانات الصحيحة لاستخدام الذكاء الاصطناعي التوليدي في الإعلانات التي تتعلق بموضوعات يحتمل أن تكون حساسة في الصناعات المنظمة”.

يأتي تحديث السياسة بعد شهر من إعلان Meta – ثاني أكبر منصة للإعلانات الرقمية في العالم – أنها بدأت في توسيع نطاق وصول المعلنين إلى أدوات الإعلان المدعومة بالذكاء الاصطناعي والتي يمكنها إنشاء خلفيات وتعديلات للصور وأشكال مختلفة من نسخة الإعلان على الفور استجابةً لـ مطالبات نصية بسيطة.

تم توفير الأدوات في البداية فقط لمجموعة صغيرة من المعلنين بدءًا من فصل الربيع. وقالت الشركة في ذلك الوقت إنها في طريقها للطرح لجميع المعلنين على مستوى العالم بحلول العام المقبل.

تسابقت شركة ميتا وشركات التكنولوجيا الأخرى لإطلاق منتجات إعلانية مبتكرة تعمل بالذكاء الاصطناعي ومساعدين افتراضيين في الأشهر الأخيرة ردًا على الهيجان الذي شهده ظهور برنامج الدردشة ChatGPT الخاص بشركة OpenAI في العام الماضي، والذي يمكنه تقديم ردود مكتوبة تشبه ردود الإنسان على الأسئلة والمطالبات الأخرى.

أصدرت الشركات القليل من المعلومات حتى الآن حول حواجز السلامة التي تخطط لفرضها على تلك الأنظمة، مما يجعل قرار ميتا بشأن الإعلانات السياسية أحد أهم خيارات سياسة الذكاء الاصطناعي في الصناعة التي ظهرت حتى الآن.

أعلنت شركة جوجل التابعة لشركة Alphabet (GOOGL.O)، وهي أكبر شركة إعلانية رقمية، عن إطلاق أدوات إعلانات الذكاء الاصطناعي المولدة لتخصيص الصور الأسبوع الماضي. وقال متحدث باسم جوجل لرويترز إن الشركة تخطط لإبعاد السياسة عن منتجاتها عن طريق منع استخدام قائمة “الكلمات الرئيسية السياسية” كمطالبات.

خططت Google أيضًا لتحديث السياسة في منتصف نوفمبر لتتطلب أن تتضمن الإعلانات المتعلقة بالانتخابات إفصاحًا إذا كانت تحتوي على “محتوى اصطناعي يصور بشكل غير صحيح أشخاصًا أو أحداثًا حقيقية أو واقعية المظهر”.

يحظر كل من TikTok وSnap (SNAP.N) مالك Snapchat الإعلانات السياسية، في حين أن X، المعروفة سابقًا باسم Twitter، لم تطرح أي أدوات إعلانية توليدية تعمل بالذكاء الاصطناعي.

وقال نيك كليج، كبير المسؤولين التنفيذيين للسياسة في ميتا، الشهر الماضي، إن استخدام الذكاء الاصطناعي التوليدي في الإعلانات السياسية “من الواضح أنه مجال نحتاج فيه إلى تحديث قواعدنا”.

وحذر قبل قمة سلامة الذكاء الاصطناعي الأخيرة في المملكة المتحدة من أن الحكومات وشركات التكنولوجيا على حد سواء يجب أن تستعد لاستخدام التكنولوجيا للتدخل في الانتخابات المقبلة في عام 2024، داعيا إلى التركيز بشكل خاص على المحتوى المتعلق بالانتخابات “الذي ينتقل من منصة إلى أخرى”. الأخرى.”

وفي وقت سابق، قال كليج لرويترز إن شركة Meta كانت تمنع مساعدها الافتراضي Meta AI الذي يواجه المستخدم من إنشاء صور واقعية لشخصيات عامة. التزمت Meta هذا الصيف بتطوير نظام “للعلامة المائية” على المحتوى الناتج عن الذكاء الاصطناعي.

يحظر Meta بشكل صارم مقاطع الفيديو المضللة التي تم إنشاؤها بواسطة الذكاء الاصطناعي في جميع المحتويات، بما في ذلك المشاركات العضوية غير المدفوعة، باستثناء المحاكاة الساخرة أو الهجاء.

وقال مجلس الرقابة المستقل التابع للشركة الشهر الماضي إنه سيدرس الحكمة من هذا النهج، حيث تناول قضية تتعلق بمقطع فيديو تم التلاعب به للرئيس الأمريكي جو بايدن، قالت شركة ميتا إنها تركته لأنه لم يتم إنشاؤه بواسطة الذكاء الاصطناعي.

تقرير كاتي بول في نيويورك، تحرير كينيث لي وماثيو لويس

معاييرنا: مبادئ الثقة في طومسون رويترز.

الحصول على حقوق الترخيص، يفتح علامة تبويب جديدة

[ad_2]

المصدر