[ad_1]
إنه ليس المدرب الهادئ والمتفكر غاريث ساوثجيت الذي اعتادت عليه الأمة، وفي عالم الإنترنت المليء بالفكاهة، ربما يكون هذا هو الهدف.
في غضون ساعات من مغادرة إنجلترا للملعب بعد الفوز في الدور نصف النهائي على هولندا، ظهرت لقطات مزيفة للمدير الفني للفريق على وسائل التواصل الاجتماعي، حيث قدمت تصريحات بعد المباراة مليئة بالشتائم وغير معتادة على الإطلاق من قبل المدير الفني لمنتخب إنجلترا.
“يبدو أنني وضعتهم في طبق كبير اليوم”، هكذا يقول أحد المقلدين لساوثجيت في مقطع فيديو نُشر على تيك توك بعد فوز إنجلترا المثير في نصف النهائي على هولندا. تستخدم مقاطع الفيديو أدوات الذكاء الاصطناعي لتقليد صوت ساوثجيت والتلاعب بالنصف السفلي من وجهه في محاولة غير احترافية لمزامنة الشفاه. لا شك أنه سيكون هناك المزيد بعد المباراة النهائية يوم الأحد، أياً كانت النتيجة.
ويعتبر مدرب إنجلترا على نطاق واسع رمزًا للأمة، ولكن في هذه الحالة فهو رمز لاتجاه على الإنترنت: الميم المزيف.
كما هو الحال مع تحرير الصور من قبل، أصبحت مقاطع الفيديو المزيفة التي تم إنشاؤها بواسطة الذكاء الاصطناعي – التزييف العميق – أداة رئيسية في صندوق أدوات المهرجين على الإنترنت.
تقول بهاره هرافي، أستاذة في معهد الذكاء الاصطناعي الموجه نحو الإنسان في جامعة سري: “أصبحت مقاطع الفيديو المزيفة بمثابة محتوى جديد تم تعديله باستخدام برنامج فوتوشوب. والآن أصبح بإمكان الناس استخدام أدوات مختلفة تعتمد على الذكاء الاصطناعي لإنشاء محتوى مماثل لما فعلوه باستخدام برامج مثل فوتوشوب وأدوات تحرير الفيديو من قبل. ولكن الآن تم تعزيز ذلك بقدرات أكبر بكثير لإنشاء مقاطع فيديو وصوت”.
في النهاية البسيطة، تتيح تطبيقات تبديل الوجوه لأي شخص استبدال وجه بآخر في مقطع فيديو، مما يجعل الإنجاز التقني الكبير في عام 2018 مجرد مسألة الضغط على زر. تشمل الأمثلة الأخيرة ريشي سوناك وكير ستارمر في دور ديل بوي ورودني تروتر ونويل غالاغر في دور مجموعة من الأيرلنديين بما في ذلك روي كين في إشارة ساخرة واضحة إلى إشارات نجم الروك إلى تراثه الأيرلندي في المقابلات.
باستخدام أدوات استنساخ الصوت مثل تلك التي تقدمها شركة ElevenLabs، من الممكن أن تخطو خطوة أبعد وتكتب نصًا كاملاً ليقرأه المشاهير المزيفون حديثًا. إذا شاهدت لقطات لسياسيين بريطانيين يلعبون دور لاعبي Minecraft على Twitch، فستعرف أن الإبداعات الناتجة يمكن أن تكون غنية بالنكات والإشارات، مع وجود لهجة روبوتية غريبة أو فم منحرف يسحبك من المزاح.
يقول خبراء في Faculty AI، وهي شركة مقرها المملكة المتحدة ولديها عقود تجارية وحكومية في المملكة المتحدة لرصد المقاطع المزيفة، إن مقطع ساوثجيت يحتوي على إشارات واضحة بما في ذلك حركات الفم التي لا تتوافق مع الكلمات والتوقفات غير الطبيعية ووتيرة الكلام. والعلامة الأكثر وضوحًا بالطبع هي أن مشجعي إنجلترا يعرفون أن ساوثجيت لن يتحدث أبدًا عن لاعبيه – هاري كين وفيل فودين وجاك جريليش من بين اللاعبين الذين تم استئصالهم من قبل رئيسهم المزيف – بهذه الطريقة.
وقال أعضاء هيئة التدريس إن مقاطع الفيديو المزيفة باستخدام الذكاء الاصطناعي ربما وصلت إلى نقطة تحول العام الماضي مع مقطع فيديو يعيد تصور منصة عرض أزياء Balenciaga مع نجوم هاري بوتر، مضيفين أن الاحتيال القائم على الذكاء الاصطناعي ربما يشكل “تهديدًا أكبر للمجتمع”. كما أظهر برنامج Deepfake Neighbour Wars على قناة ITV، والذي يضم محاكاة لنجوم بما في ذلك إدريس إلبا وكيم كارداشيان، دخول المفهوم إلى التيار الرئيسي.
ومع ذلك، قال أعضاء هيئة التدريس إن الذكاء الاصطناعي التوليدي – وهو المصطلح المستخدم لأنظمة مثل ChatGPT أو Midjourney التي تنتج نصوصًا ومقاطع صوتية وصورة مقنعة من خلال مطالبات بسيطة – يتحسن بمعدل كبير بحيث “لن يكون الاكتشاف اليدوي وحده كافياً لمنع انتشار المحتوى الضار حقًا”.
وقال الاتحاد الإنجليزي لكرة القدم: “كما نفعل مع كل المحتوى الضار، سنتخذ خطوات لإزالة مقاطع الفيديو المسيئة”.
تخطي الترويج للنشرة الإخبارية
محاضرة أسبوعية لأليكس هيرن حول كيفية تشكيل التكنولوجيا لحياتنا
إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول الجمعيات الخيرية والإعلانات عبر الإنترنت والمحتوى الممول من قبل أطراف خارجية. لمزيد من المعلومات، راجع سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا على الويب وتنطبق سياسة الخصوصية وشروط خدمة Google.
بعد الترويج للنشرة الإخبارية
نادرًا ما يكون هدف هؤلاء المهرجين تضليل الناس بشكل مباشر، لكن هذا لا يعني أن النكات لا يمكن أن تسبب الارتباك. على الإنترنت، لا توجد محاكاة ساخرة لا يمكن الخلط بينها في النهاية على أنها مثال على ما تسخر منه – وهو حدث شائع جدًا لدرجة أنه تم تسميته “قانون بو” منذ ما يقرب من عقدين من الزمان، على اسم المعلق الذي لاحظ صعوبة السخرية من الآراء المتطرفة. كما هو الحال مع المقالات من Onion، أو الصور المنتجة لموقع B3ta الفكاهي، من الشائع إلى حد ما رؤية مقاطع فيديو مزيفة فيروسية يتم إعادة مشاركتها مع تعليقات متزايدة الاستغراب تسأل عما إذا كان المقطع حقيقيًا أم لا. يتم تصنيف بعض مقاطع Southgate على أنها من صنع الذكاء الاصطناعي.
وقد حظيت مقاطع فيديو ساوثجيت بمشاهدات مكثفة على وسائل التواصل الاجتماعي. فعلى موقع يوتيوب، حيث توجد العديد من مقاطع ساوثجيت المزيفة، حظيت إحدى المقاطع المزيفة التي تم نشرها بعد مباراة سلوفاكيا بـ 390 ألف مشاهدة، بينما حظيت ثمانية مقاطع فيديو على حساب تيك توك مخصص لمقاطع ساوثجيت المزيفة بأكثر من مليون مشاهدة. ويرتبط حساب تيك توك بصفحة على موقع إيباي تبيع رسائل الذكاء الاصطناعي المخصصة من ساوثجيت، وتضيف: “إذا كنت تريد بعض الكلمات البذيئة، فيرجى إخبارنا”.
وتتطلب إرشادات تيك توك وضع علامات على المحتوى الذي يبدو واقعيًا باستخدام الذكاء الاصطناعي وتسمح بظهور شخصية عامة “في بعض الإعدادات الفنية أو الفكاهية”. وقد غير موقع يوتيوب سياساته الخاصة بالاعتدال للسماح للأشخاص بطلب إزالة المقاطع المزيفة، على الرغم من أنه قال إنه سينظر فيما إذا كان الفيديو محاكاة ساخرة أو ساخرة قبل أن يقرر سحبه.
وتقول هيرافي: “بالنسبة للشخصيات العامة، فإن الأمور خارجة عن سيطرتهم، حيث يمكن نسب أي شيء إليهم زوراً”، مضيفة أنها تشعر بقلق خاص بشأن الصوت لأنه لا توجد أدلة بصرية لتحديد الصوت المزيف. “ومع ذلك، يمكننا أن نتوقع تحسن الأمور مع انتظارنا لأدوات أفضل للكشف عن الصوت المزيف، والأهم من ذلك، مع زيادة وعي الجمهور وتثقيفه بشأن الصوت المزيف”.
لا يعد الفيديو المزيف هو المجال الوحيد الذي يعيد فيه الذكاء الاصطناعي تشكيل ميمات الإنتاج. فقد بدأت شركات إنشاء الميمات، بقيادة جليف، في أتمتة عملية إنشاء الفكاهة بالكامل تقريبًا. بالنسبة لميم بتنسيق محدد، مثل “تشاد/عذراء” أو “توقف عن ممارسة الرياضيات”، يمكن للمستخدمين إنشاء قوالب كاملة تقرن نموذجًا لغويًا كبيرًا يتم توجيهه بعناية (LLM) لتوليد النص، مع مولد صور للصور، وبنية موحدة لجمع كل ذلك معًا. والنتيجة هي أداة يمكن توجيهها لإنشاء ميم حول سبب وجوب “التوقف عن المشاركة في بطولات كرة القدم” وتلقي في ثوانٍ النصيحة بأن “ركل الكرة لم يكن المقصود منه تحديد الفخر الوطني”.
تم تغيير عنوان هذه المقالة بتاريخ 15 يوليو 2024 ليعكس محتوى المقالة بشكل أفضل.
[ad_2]
المصدر