تنتشر صور الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي. وتتسابق أجهزة إنفاذ القانون لوقفهم

تنتشر صور الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي. وتتسابق أجهزة إنفاذ القانون لوقفهم

[ad_1]

واشنطن – قام طبيب نفسي للأطفال بتغيير صورة اليوم الأول للمدرسة التي شاهدها على فيسبوك ليجعل مجموعة من الفتيات يظهرن عاريات. جندي في الجيش الأمريكي متهم بإنشاء صور تصور أطفالًا كان يعلم أنهم تعرضوا للاعتداء الجنسي. مهندس برمجيات مكلف بإنشاء صور جنسية صريحة للغاية للأطفال.

تتخذ وكالات إنفاذ القانون في جميع أنحاء الولايات المتحدة إجراءات صارمة ضد انتشار مثير للقلق لصور الاعتداء الجنسي على الأطفال التي تم إنشاؤها من خلال تكنولوجيا الذكاء الاصطناعي – من الصور التي تم التلاعب بها لأطفال حقيقيين إلى الصور الرسومية للأطفال التي تم إنشاؤها بواسطة الكمبيوتر. ويقول مسؤولو وزارة العدل إنهم يلاحقون بقوة المجرمين الذين يستغلون أدوات الذكاء الاصطناعي، في حين تتسابق الولايات لضمان محاكمة الأشخاص الذين ينتجون “صور مزيفة عميقة” وغيرها من الصور الضارة للأطفال بموجب قوانينها.

وقال ستيفن غروكي، الذي يقود قسم استغلال الأطفال والفحش بوزارة العدل، في مقابلة مع صحيفة The Guardian: “علينا أن نشير مبكراً، وفي كثير من الأحيان، إلى أنها جريمة، وأنه سيتم التحقيق فيها ومحاكمتها عندما تدعمها الأدلة”. وكالة انباء. “وإذا كنت تجلس هناك وتفكر بطريقة أخرى، فأنت مخطئ بشكل أساسي. وهي مسألة وقت فقط قبل أن يحاسبك شخص ما.

وتقول وزارة العدل إن القوانين الفيدرالية الحالية تنطبق بوضوح على مثل هذا المحتوى، وقد قدمت مؤخرًا ما يُعتقد أنها أول قضية فيدرالية تتضمن صورًا تم إنشاؤها بواسطة الذكاء الاصطناعي – مما يعني أن الأطفال المصورين ليسوا حقيقيين بل افتراضيين. وفي قضية أخرى، اعتقلت السلطات الفيدرالية في أغسطس/آب جنديًا أمريكيًا متمركزًا في ألاسكا متهمًا بنشر صور بريئة لأطفال حقيقيين كان يعرفهم من خلال برنامج الدردشة الآلي الذي يعمل بالذكاء الاصطناعي لجعل الصور جنسية صريحة.

وتأتي الملاحقات القضائية في الوقت الذي يعمل فيه المدافعون عن الأطفال بشكل عاجل للحد من إساءة استخدام التكنولوجيا لمنع تدفق الصور المزعجة التي يخشى المسؤولون أن تجعل من الصعب إنقاذ الضحايا الحقيقيين. يشعر المسؤولون عن إنفاذ القانون بالقلق من أن المحققين سيضيعون الوقت والموارد في محاولة تحديد وتعقب الأطفال المستغلين الذين لا وجود لهم بالفعل.

في هذه الأثناء، يقوم المشرعون بتمرير سلسلة من التشريعات لضمان قدرة المدعين المحليين على توجيه اتهامات بموجب قوانين الولاية بشأن “التزييف العميق” الناتج عن الذكاء الاصطناعي وغيرها من الصور الجنسية الصريحة للأطفال. وقع حكام أكثر من اثنتي عشرة ولاية هذا العام قوانين تتخذ إجراءات صارمة ضد صور الاعتداء الجنسي على الأطفال التي تم إنشاؤها أو تغييرها رقميًا، وفقًا لمراجعة أجراها المركز الوطني للأطفال المفقودين والمستغلين.

وقال إريك ناسارينكو، المدعي العام لمقاطعة كاليفورنيا: “نحن نلعب لعبة اللحاق بركب تطبيق القانون في مجال التكنولوجيا التي تتحرك بصراحة بشكل أسرع بكثير منا”.

ودفع ناسارينكو بالتشريع الذي وقعه الحاكم جافين نيوسوم الشهر الماضي والذي يوضح أن مواد الاعتداء الجنسي على الأطفال التي ينتجها الذكاء الاصطناعي غير قانونية بموجب قانون ولاية كاليفورنيا. وقال ناسارينكو إن مكتبه لا يمكنه مقاضاة ثماني قضايا تتعلق بمحتوى تم إنشاؤه بواسطة الذكاء الاصطناعي بين ديسمبر الماضي ومنتصف سبتمبر لأن قانون كاليفورنيا يلزم المدعين بإثبات أن الصور تصور طفلاً حقيقياً.

يقول مسؤولو إنفاذ القانون إن صور الاعتداء الجنسي على الأطفال التي أنشأها الذكاء الاصطناعي يمكن استخدامها لتهذيب الأطفال. وحتى لو لم يتعرضوا للإيذاء الجسدي، يمكن أن يتأثر الأطفال بشدة عندما يتم تحويل صورتهم لتظهر جنسيًا صريحًا.

“شعرت وكأن جزءًا مني قد أُخذ بعيدًا. قالت كايلين هايمان البالغة من العمر 17 عاماً، والتي لعبت دور البطولة في برنامج “Just Roll with It” على قناة ديزني، وساعدت في دفع مشروع قانون كاليفورنيا بعد أن أصبحت ضحية لصور “التزييف العميق”، “على الرغم من أنني لم أتعرض للانتهاك الجسدي”.

وأدلت هايمان بشهادتها العام الماضي في المحاكمة الفيدرالية للرجل الذي قام بتركيب وجهها ووجه الممثلين الأطفال الآخرين رقميًا على أجساد تمارس أفعالًا جنسية. وحُكم عليه، في مايو/أيار، بالسجن لأكثر من 14 عاماً.

يقول الخبراء إن نماذج الذكاء الاصطناعي مفتوحة المصدر التي يمكن للمستخدمين تنزيلها على أجهزة الكمبيوتر الخاصة بهم، من المعروف أنها مفضلة لدى المجرمين، حيث يمكنهم تدريب أو تعديل الأدوات لإنتاج صور صريحة للأطفال. يقول المسؤولون إن المسيئين يتبادلون النصائح في مجتمعات الويب المظلمة حول كيفية التعامل مع أدوات الذكاء الاصطناعي لإنشاء مثل هذا المحتوى.

وجد تقرير صدر العام الماضي عن مرصد ستانفورد للإنترنت أن مجموعة البيانات البحثية التي كانت مصدرًا لكبار صانعي صور الذكاء الاصطناعي مثل Stable Diffusion تحتوي على روابط لصور جنسية صريحة للأطفال، مما ساهم في السهولة التي تمكنت بها بعض الأدوات من إنتاجها. الصور الضارة. تمت إزالة مجموعة البيانات، وقال الباحثون لاحقًا إنهم حذفوا أكثر من 2000 رابط ويب لصور الاعتداء الجنسي على الأطفال المشتبه بها.

اتفقت شركات التكنولوجيا الكبرى، بما في ذلك Google وOpenAI وStability AI، على العمل مع منظمة Thorn المناهضة للاعتداء الجنسي على الأطفال لمكافحة انتشار صور الاعتداء الجنسي على الأطفال.

لكن الخبراء يقولون إنه كان ينبغي بذل المزيد من الجهود في البداية لمنع سوء الاستخدام قبل أن تصبح التكنولوجيا متاحة على نطاق واسع. وأشار المدعي العام بوزارة العدل في أوراق المحكمة الأخيرة إلى أن الخطوات التي تتخذها الشركات الآن لزيادة صعوبة إساءة استخدام الإصدارات المستقبلية من أدوات الذكاء الاصطناعي “لن تفعل الكثير لمنع” المجرمين من تشغيل الإصدارات القديمة من النماذج على أجهزة الكمبيوتر الخاصة بهم “دون اكتشافهم”.

وقال ديفيد ثيل، كبير خبراء التكنولوجيا في مرصد الإنترنت في ستانفورد: “لم يتم إنفاق الوقت على جعل المنتجات آمنة، بدلاً من جعلها فعالة، ومن الصعب جدًا القيام بذلك بعد حدوثها – كما رأينا”.

تلقى المركز الوطني للأطفال المفقودين والمستغلين CyberTipline العام الماضي حوالي 4700 تقرير عن محتوى يتضمن تكنولوجيا الذكاء الاصطناعي – وهو جزء صغير من إجمالي أكثر من 36 مليون تقرير عن الاستغلال الجنسي للأطفال المشتبه بهم. وقال يوتا سوراس، كبير المسؤولين القانونيين في المجموعة، إنه بحلول شهر أكتوبر من هذا العام، كانت المجموعة تقدم حوالي 450 تقريرًا شهريًا عن المحتوى المرتبط بالذكاء الاصطناعي.

ومع ذلك، يقول الخبراء إن هذه الأرقام قد تكون أقل من الواقع، لأن الصور واقعية للغاية، ومن الصعب في كثير من الأحيان معرفة ما إذا كانت تم إنشاؤها بواسطة الذكاء الاصطناعي.

قال ريكول كيلي، نائب المدعي العام لمقاطعة فينتورا، والذي ساعد في كتابة مشروع قانون كاليفورنيا: “يقضي المحققون ساعات في محاولة تحديد ما إذا كانت الصورة تصور بالفعل قاصرًا حقيقيًا أم أنها تم إنشاؤها بواسطة الذكاء الاصطناعي”. “كان من المعتاد أن تكون هناك بعض المؤشرات الواضحة حقًا… ومع التقدم في تكنولوجيا الذكاء الاصطناعي، لم يعد هذا هو الحال بعد الآن.”

ويقول مسؤولو وزارة العدل إن لديهم بالفعل الأدوات بموجب القانون الفيدرالي لملاحقة الجناة بسبب مثل هذه الصور.

ألغت المحكمة العليا في الولايات المتحدة في عام 2002 الحظر الفيدرالي على مواد الاعتداء الجنسي على الأطفال الافتراضية. لكن قانونًا اتحاديًا تم التوقيع عليه في العام التالي يحظر إنتاج صور مرئية، بما في ذلك الرسومات، للأطفال المنخرطين في سلوك جنسي صريح يعتبر “فاحشًا”. يشير هذا القانون، الذي تقول وزارة العدل إنه تم استخدامه في الماضي لفرض رسوم كاريكاتورية عن الاعتداء الجنسي على الأطفال، على وجه التحديد إلى أنه لا يوجد شرط “بوجود القاصر المصور بالفعل”.

ووجهت وزارة العدل هذه التهمة في مايو/أيار الماضي ضد مهندس برمجيات من ولاية ويسكونسن متهم باستخدام أداة الذكاء الاصطناعي “Stable Diffusion” لإنشاء صور واقعية لأطفال يشاركون في سلوك جنسي صريح، وتم القبض عليه بعد أن أرسل بعض الصور إلى صبي يبلغ من العمر 15 عامًا من خلال اتصال مباشر. وتقول السلطات إن الرسالة على إنستغرام. ورفض محامي الرجل، الذي يسعى لإسقاط التهم على أساس التعديل الأول للدستور، التعليق أكثر على هذه المزاعم في رسالة بالبريد الإلكتروني إلى وكالة الأسوشييتد برس.

وقال متحدث باسم Stability AI إن الرجل متهم باستخدام نسخة سابقة من الأداة التي أصدرتها شركة أخرى، Runway ML. تقول شركة Stability AI إنها “استثمرت في ميزات استباقية لمنع إساءة استخدام الذكاء الاصطناعي لإنتاج محتوى ضار” منذ توليها التطوير الحصري للنماذج. لم يستجب المتحدث باسم Runway ML على الفور لطلب التعليق من AP.

في القضايا التي تنطوي على “تزييف عميق”، عندما يتم تغيير صورة طفل حقيقية رقميا لجعلها جنسية صريحة، توجه وزارة العدل اتهامات بموجب قانون “استغلال الأطفال في المواد الإباحية” الفيدرالي. وفي إحدى الحالات، استخدم طبيب نفسي للأطفال في ولاية كارولينا الشمالية الذكاء الاصطناعي. تمت إدانة طلب “خلع ملابسه” رقميًا للفتيات اللاتي يظهرن في اليوم الأول من المدرسة في صورة عمرها عقود تم نشرها على فيسبوك بتهم فيدرالية العام الماضي.

“هذه القوانين موجودة. سيتم استخدامها. لدينا الإرادة. قال غروكي: “لدينا الموارد”. “لن تكون هذه أولوية منخفضة نتجاهلها لأنه لا يوجد طفل حقيقي معني”.

[ad_2]

المصدر