يحذر العاملون في OpenAI من أن الذكاء الاصطناعي قد يتسبب في "انقراض الإنسان"

يحذر العاملون في OpenAI من أن الذكاء الاصطناعي قد يتسبب في “انقراض الإنسان”

[ad_1]

يتم إرسال أحدث العناوين من مراسلينا في جميع أنحاء الولايات المتحدة مباشرة إلى بريدك الوارد كل يوم من أيام الأسبوع، وموجزك حول أحدث العناوين من جميع أنحاء الولايات المتحدة

حذرت مجموعة من الموظفين الحاليين والسابقين في كبرى شركات وادي السيليكون التي تعمل على تطوير الذكاء الاصطناعي في رسالة مفتوحة من أنه بدون ضمانات إضافية، يمكن للذكاء الاصطناعي أن يشكل تهديدًا “بانقراض البشرية”.

تقول الرسالة، التي وقعها 13 موظفًا سابقًا معظمهم في شركات مثل OpenAI وAnthropic وDeepMind من Google، إن كبار الباحثين في مجال الذكاء الاصطناعي يحتاجون إلى مزيد من الحماية لتوجيه انتقادات للتطورات الجديدة وطلب مدخلات من الجمهور وصانعي السياسات حول اتجاه ابتكارات الذكاء الاصطناعي.

وجاء في رسالة الثلاثاء: “نحن نؤمن بإمكانية تكنولوجيا الذكاء الاصطناعي في تقديم فوائد غير مسبوقة للبشرية”. “نحن نتفهم أيضًا المخاطر الجسيمة التي تشكلها هذه التقنيات. وتتراوح هذه المخاطر من زيادة ترسيخ عدم المساواة القائمة، إلى التلاعب والتضليل، إلى فقدان السيطرة على أنظمة الذكاء الاصطناعي المستقلة مما قد يؤدي إلى انقراض الإنسان.

تقول الرسالة إن الشركات التي تطور تقنيات الذكاء الاصطناعي القوية، بما في ذلك الذكاء الاصطناعي العام (AGI)، وهو نظام ذكاء اصطناعي نظري يكون ذكيًا أو أكثر ذكاءً من الذكاء البشري، “لديها حوافز مالية قوية لتجنب الرقابة الفعالة” من موظفيها والإدارة. الجمهور بوجه عام.

نيل ناندا من DeepMind هو الباحث الوحيد في مجال الذكاء الاصطناعي المنتسب حاليًا إلى إحدى الشركات التي وقعت الرسالة.

كتب على X: “لم يكن هذا بسبب أن لدي حاليًا أي شيء أريد التحذير منه لدى أصحاب العمل الحاليين أو السابقين، أو انتقادات محددة لمواقفهم تجاه المبلغين عن المخالفات”. “لكنني أعتقد أن الذكاء الاصطناعي العام سيكون ذا أهمية لا تصدق، وكما هو الحال مع جميع المختبرات الاعتراف، يمكن أن يشكل تهديدا وجوديا. يجب على أي مختبر يسعى إلى تطوير الذكاء الاصطناعي العام أن يثبت أنه يستحق ثقة الجمهور، ويعتبر حصول الموظفين على حق قوي ومحمي للإبلاغ عن المخالفات خطوة أولى أساسية.

اتهمت سكارليت جوهانسون، التي قامت بأداء صوت مساعد الذكاء الاصطناعي في فيلم Her، شركة OpenAI باستخدام صوتها كنموذج لأحد منتجاتها (أرشيف PA)

تدعو الرسالة الشركات إلى الامتناع عن معاقبة أو إسكات الموظفين الحاليين أو السابقين الذين يتحدثون علناً عن مخاطر الذكاء الاصطناعي، في إشارة محتملة إلى فضيحة هذا الشهر في OpenAI، حيث طُلب من الموظفين المغادرين الاختيار بين خسارة الأسهم المكتسبة أو التوقيع على اتفاق. اتفاقية عدم الذم بشأن الشركة التي لم تنتهي صلاحيتها. (قامت شركة OpenAI لاحقًا برفع هذا الشرط، قائلة: “إنه لا يعكس قيمنا أو الشركة التي نريد أن نكون عليها”.)

وقال متحدث باسم OpenAI لصحيفة The Independent: “نحن فخورون بسجلنا الحافل في توفير أنظمة الذكاء الاصطناعي الأكثر قدرة وأمانًا، ونؤمن بنهجنا العلمي في معالجة المخاطر”. “نحن نتفق على أن النقاش الدقيق أمر بالغ الأهمية نظرا لأهمية هذه التكنولوجيا وسنواصل التعامل مع الحكومات والمجتمع المدني والمجتمعات الأخرى في جميع أنحاء العالم.”

وأضافت الشركة أنها تتخذ عددًا من الخطوات لضمان الاستماع إلى موظفيها وتطوير منتجاتها بشكل مسؤول، بما في ذلك خط ساخن مجهول للعاملين ولجنة للسلامة والأمن تفحص تطورات الشركة. أشارت OpenAI أيضًا إلى دعمها لزيادة تنظيم الذكاء الاصطناعي والالتزامات الطوعية حول سلامة الذكاء الاصطناعي.

تتبع الرسالة المفتوحة موسمًا من الجدل بين شركات الذكاء الاصطناعي الكبرى، وخاصة OpenAI، في نفس الوقت الذي تقدم فيه مساعدين ومساعدات الذكاء الاصطناعي بقدرات جديدة قوية مثل القدرة على إجراء محادثات صوتية مباشرة مع البشر والتفاعل مع المعلومات المرئية. مثل بث فيديو أو مشكلة رياضية مكتوبة.

واتهمت الممثلة سكارليت جوهانسون، التي قامت بأداء صوت مساعد الذكاء الاصطناعي في فيلم Her، شركة OpenAI باستخدام صوتها كنموذج لأحد منتجاتها، على الرغم من رفضها الصريح لمثل هذا الاقتراح المزعوم. على الرغم من أن الرئيس التنفيذي لشركة OpenAI قام بتغريد كلمة “لها” عند إطلاق المساعد الصوتي، فقد أنكرت الشركة منذ ذلك الحين استخدام صوت جوهانسون كنموذج.

وفي شهر مايو أيضًا، قامت شركة OpenAI بحل فريق شكلته خصيصًا للبحث في المخاطر طويلة المدى للذكاء الاصطناعي، بعد أقل من عام من تشكيلها.

وقد غادر العديد من كبار الباحثين في الشركة في الأشهر الأخيرة، بما في ذلك المؤسس المشارك إيليا سوتسكيفر.

إنها أحدث عملية تغيير منذ أن عانت الشركة من معركة رفيعة المستوى على مستوى مجلس الإدارة العام الماضي، والتي تمت فيها إزالة ألتمان مؤقتًا ثم إعادته إلى منصبه بعد أقل من أسبوع.

وقد اتصلت صحيفة “إندبندنت” بشركة Anthropic وشركة Google للتعليق.

[ad_2]

المصدر