[ad_1]
أعلنت شركة جوجل يوم الخميس أنها ستعمل على تحسين وإعادة تجهيز ملخصاتها لنتائج البحث الناتجة عن الذكاء الاصطناعي، ونشرت مدونة تشرح سبب قيام الميزة بإرجاع إجابات غريبة وغير دقيقة تتضمن مطالبة الأشخاص بأكل الصخور أو إضافة الغراء إلى صلصة البيتزا. ستقوم الشركة بتقليل نطاق عمليات البحث التي ستعرض ملخصًا مكتوبًا بالذكاء الاصطناعي.
أضافت جوجل العديد من القيود على أنواع عمليات البحث التي من شأنها أن تولد نتائج نظرة عامة على الذكاء الاصطناعي، كما صرحت رئيسة البحث ليز ريد، بالإضافة إلى “تضمين محتوى ساخر وفكاهي بشكل محدود”. وتتخذ الشركة أيضًا إجراءات ضد ما وصفته بعدد صغير من نظرة عامة على الذكاء الاصطناعي التي تنتهك سياسات المحتوى الخاصة بها، والتي قالت إنها حدثت في أقل من 1 من كل 7 ملايين استعلام بحث فريد حيث ظهرت الميزة.
وسرعان ما أنتجت ميزة AI Overviews، التي أطلقتها جوجل في الولايات المتحدة هذا الشهر، أمثلة فيروسية للأداة التي تسيء تفسير المعلومات ويبدو أنها تستخدم مصادر ساخرة مثل Onion أو منشورات Reddit الدعابة لتوليد الإجابات. أصبحت إخفاقات جوجل في مجال الذكاء الاصطناعي مجرد ميم، مع لقطات شاشة مزيفة لإجابات سخيفة ومظلمة يتم تداولها على نطاق واسع على منصات التواصل الاجتماعي إلى جانب الإخفاقات الحقيقية للأداة.
روجت جوجل لميزة AI Overviews الخاصة بها باعتبارها واحدة من ركائز الدفع الأوسع للشركة لدمج الذكاء الاصطناعي التوليدي في خدماتها الأساسية، ولكن طرحها أدى إلى مواجهة الشركة مرة أخرى لإحراج عام بعد إصدار منتج جديد للذكاء الاصطناعي. وواجهت شركة جوجل رد فعل عنيفًا وسخرية عامة في وقت سابق من هذا العام بعد أن قامت أداة توليد الصور المدعومة بالذكاء الاصطناعي بإدراج أشخاص ملونين بشكل خاطئ في مواقف غير تاريخية، بما في ذلك إنشاء صور لأشخاص سود كجنود ألمان في الحرب العالمية الثانية.
قدمت مدونة Google ملخصًا موجزًا لما حدث من خطأ في AI Overviews ودافعت عنه، حيث ادعى ريد أن العديد من أكاذيب AI Overviews الأصلية كانت نتيجة فجوات في المعلومات بسبب عمليات بحث نادرة أو غير عادية. ادعى ريد أيضًا أنه كانت هناك محاولات متعمدة للتلاعب بالوظيفة بحيث تنتج إجابات غير دقيقة.
صرح ريد في المنشور: “لا يوجد شيء يضاهي استخدام الملايين من الأشخاص لهذه الميزة في العديد من عمليات البحث الجديدة”. “لقد شهدنا أيضًا عمليات بحث جديدة لا معنى لها، ويبدو أنها تهدف إلى الحصول على نتائج خاطئة.”
العديد من المنشورات واسعة الانتشار كانت بالفعل من عمليات بحث غريبة مثل “كم عدد الصخور التي يجب أن آكلها” – والتي أعادت نتيجة تستند إلى مقال عن البصل بعنوان “يوصي الجيولوجيون بتناول صخرة صغيرة واحدة على الأقل في اليوم” – ولكن يبدو أن البعض الآخر من أكثر منطقية الاستعلامات. شارك أحد خبراء الذكاء الاصطناعي صورة لمحة عامة عن الذكاء الاصطناعي تدعي أن باراك أوباما كان أول رئيس مسلم للولايات المتحدة، وهي نظرية مؤامرة يمينية شائعة.
وقال ريد: “من خلال النظر إلى الأمثلة من الأسبوعين الماضيين، تمكنا من تحديد الأنماط التي لم نقم فيها بالأمر بشكل صحيح، وقمنا بإجراء أكثر من عشرة تحسينات فنية على أنظمتنا”.
على الرغم من أن مدونة جوجل تضع المشكلات المتعلقة بنظرات عامة على الذكاء الاصطناعي على أنها في الغالب سلسلة من حالات الحافة، فقد علق العديد من خبراء الذكاء الاصطناعي بأن مشاكلها تشير إلى مشكلات أوسع حول قدرة الذكاء الاصطناعي على قياس الدقة الواقعية والمشكلة المتعلقة بأتمتة الوصول إلى المعلومات.
ادعت جوجل في منشورها أن “تعليقات المستخدمين تظهر” أن الأشخاص أكثر رضاً عن نتائج البحث الخاصة بهم بسبب نظرة عامة على الذكاء الاصطناعي، لكن الآثار الأوسع لأدوات الذكاء الاصطناعي والتغييرات في وظائف البحث الخاصة بها لا تزال غير واضحة. يشعر أصحاب مواقع الويب بالقلق من أن ملخصات الذكاء الاصطناعي ستكون كارثية على وسائل الإعلام عبر الإنترنت لأنها تستنزف إيرادات المرور والإعلانات بعيدًا عن المواقع، بينما يشعر بعض الباحثين بالقلق من قيام جوجل بتعزيز المزيد من السيطرة على ما يراه الجمهور على الإنترنت.
[ad_2]
المصدر