توقف Google مؤقتًا الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي للأشخاص بعد الانتقادات العرقية

توقف Google مؤقتًا الصور التي تم إنشاؤها بواسطة الذكاء الاصطناعي للأشخاص بعد الانتقادات العرقية

[ad_1]

فرضت شركة جوجل حظراً مؤقتاً على نموذجها الجديد للذكاء الاصطناعي الذي ينتج صوراً للأشخاص بعد أن صورت جنود الحرب العالمية الثانية الألمان والفايكنج على أنهم أشخاص ملونون.

وقالت شركة التكنولوجيا إنها ستتوقف عن إنشاء نموذج جيميني لصور الأشخاص بعد أن نشر مستخدمو وسائل التواصل الاجتماعي أمثلة للصور التي تم إنشاؤها بواسطة الأداة التي تصور بعض الشخصيات التاريخية – بما في ذلك الباباوات والآباء المؤسسون للولايات المتحدة – في مجموعة متنوعة من الأعراق والأجناس.

“نحن نعمل بالفعل على معالجة المشكلات الأخيرة المتعلقة بميزة إنشاء الصور في Gemini. وقالت جوجل في بيان: “بينما نقوم بذلك، سنقوم بإيقاف إنشاء صور الأشخاص مؤقتًا وسنعيد إصدار نسخة محسنة قريبًا”.

لم تشر Google إلى صور محددة في بيانها، ولكن أمثلة لنتائج صور Gemini كانت متاحة على نطاق واسع على X، مصحوبة بتعليق على مشكلات الذكاء الاصطناعي بدقة وتحيز، حيث قال أحد موظفي Google السابقين إنه “من الصعب إقناع Google Gemini بالاعتراف أن البيض موجودون”.

الرسوم التوضيحية الجوزاء للجنود الألمان عام 1943. الصورة: جيميني آي آي/جوجل

واعترف جاك كراوزيك، أحد كبار المديرين في فريق جيميني التابع لشركة جوجل، يوم الأربعاء بأن مولد الصور الخاص بالنموذج – وهو غير متوفر في المملكة المتحدة وأوروبا – يحتاج إلى تعديل.

وقال: “نحن نعمل على تحسين هذه الأنواع من التصوير على الفور”. “إن توليد صور الذكاء الاصطناعي لـ Gemini يولد مجموعة واسعة من الأشخاص. وهذا أمر جيد بشكل عام لأن الناس حول العالم يستخدمونه. لكنها تفتقد العلامة هنا.”

نحن نعمل بالفعل على معالجة المشكلات الأخيرة المتعلقة بميزة إنشاء الصور في Gemini. أثناء قيامنا بذلك، سنقوم بإيقاف إنشاء صور الأشخاص مؤقتًا وسنعيد إصدار نسخة محسنة قريبًا. https://t.co/SLxYPGoqOZ

– اتصالات جوجل (Google_Comms) 22 فبراير 2024

وأضاف Krawczyk في بيان على موقع X أن مبادئ الذكاء الاصطناعي الخاصة بشركة Google تلزم أدوات إنشاء الصور الخاصة بها “بأن تعكس قاعدة مستخدمينا العالمية”. وأضاف أن جوجل ستواصل القيام بذلك لطلبات الصور “المفتوحة” مثل “شخص يمشي كلبًا” لكنه أقر بأن الاستجابة تطالب بميل تاريخي تحتاج إلى مزيد من العمل.

وقال: “السياقات التاريخية لها فروق دقيقة أكثر وسنعمل على ضبطها لاستيعاب ذلك”.

نحن ندرك أن Gemini يقدم معلومات غير دقيقة في بعض الصور التاريخية التي تم إنشاؤها للصور، ونحن نعمل على إصلاح ذلك على الفور.

كجزء من مبادئ الذكاء الاصطناعي لدينا، نقوم بتصميم قدراتنا على توليد الصور لتعكس قاعدة مستخدمينا العالمية، ونحن…

– جاك كراوزيك (JackK) 21 فبراير 2024

أظهرت تغطية التحيز في الذكاء الاصطناعي أمثلة عديدة على التأثير السلبي على الأشخاص الملونين. أظهر تحقيق أجرته صحيفة واشنطن بوست العام الماضي أمثلة متعددة لمولدات الصور التي تظهر التحيز ضد الأشخاص الملونين، فضلاً عن التمييز الجنسي. وجدت أن منشئ الصور Stable Diffusion XL أظهر أن متلقي قسائم الطعام هم في المقام الأول غير بيض أو ذوي بشرة داكنة على الرغم من أن 63٪ من متلقي قسائم الطعام في الولايات المتحدة هم من البيض. وأدى طلب صورة لشخص “في الخدمات الاجتماعية” إلى نتائج مماثلة.

قال أندرو روجويسكي، من معهد الذكاء الاصطناعي المرتكز على الأشخاص في جامعة سري، إن التخفيف من التحيز يمثل “مشكلة صعبة في معظم مجالات التعلم العميق والذكاء الاصطناعي التوليدي”، ومن المرجح أن تحدث أخطاء نتيجة لذلك.

وقال: “هناك الكثير من الأبحاث والكثير من الأساليب المختلفة للقضاء على التحيز، بدءًا من تنظيم مجموعات بيانات التدريب إلى تقديم حواجز الحماية للنماذج المدربة”. “من المحتمل أن تستمر أنظمة الذكاء الاصطناعي وLLMs (نماذج اللغة الكبيرة) في ارتكاب الأخطاء، ولكن من المحتمل أيضًا أن يتحسن هذا الأمر بمرور الوقت.”

[ad_2]

المصدر