[ad_1]
حروف AI (الذكاء الاصطناعي) ومنمنمة يد الروبوت في هذا الرسم التوضيحي الملتقط في 23 يونيو 2023. رويترز/دادو روفيك/Illustration/File Photo تحصل على حقوق الترخيص
ستوكهولم (رويترز) – قال كبار باحثي الذكاء الاصطناعي في رسالة يوم الثلاثاء إنه يتعين على شركات الذكاء الاصطناعي والحكومات تخصيص ما لا يقل عن ثلث تمويلها لأبحاث وتطوير الذكاء الاصطناعي لضمان السلامة والاستخدام الأخلاقي للأنظمة.
تسرد الرسالة، التي صدرت قبل أسبوع من القمة الدولية لسلامة الذكاء الاصطناعي في لندن، التدابير التي يجب على الحكومات والشركات اتخاذها لمعالجة مخاطر الذكاء الاصطناعي.
وجاء في الرسالة التي وقعها ثلاثة فائزين بجائزة تورينج، وحائز على جائزة نوبل، وأكثر من اثني عشر من كبار الأكاديميين في مجال الذكاء الاصطناعي: “يجب على الحكومات أيضًا أن تلزم الشركات بالمسؤولية القانونية عن الأضرار الناجمة عن أنظمة الذكاء الاصطناعي الرائدة الخاصة بها والتي يمكن توقعها ومنعها بشكل معقول”. .
لا توجد حاليًا لوائح واسعة النطاق تركز على سلامة الذكاء الاصطناعي، ولم تصبح المجموعة الأولى من التشريعات الصادرة عن الاتحاد الأوروبي قانونًا بعد، حيث لم يتفق المشرعون بعد على العديد من القضايا.
قال يوشوا بينجيو، أحد الأشخاص الثلاثة المعروفين باسم الأب الروحي للذكاء الاصطناعي: “إن نماذج الذكاء الاصطناعي الحديثة قوية جدًا ومهمة جدًا، بحيث لا يمكن السماح لها بالتطور دون إشراف ديمقراطي”.
وقال “إن (الاستثمارات في سلامة الذكاء الاصطناعي) يجب أن تتم بسرعة، لأن الذكاء الاصطناعي يتقدم بشكل أسرع بكثير من الاحتياطات المتخذة”.
ومن بين الموقعين على الرسالة جيفري هينتون، وأندرو ياو، ودانييل كانيمان، ودون سونغ، ويوفال نوح هراري.
منذ إطلاق نماذج الذكاء الاصطناعي التوليدية من OpenAI، حذر كبار الأكاديميين والمديرين التنفيذيين البارزين مثل إيلون ماسك من المخاطر التي يتعرض لها الذكاء الاصطناعي، بما في ذلك الدعوة إلى التوقف لمدة ستة أشهر في تطوير أنظمة ذكاء اصطناعي قوية.
وعارضت بعض الشركات ذلك قائلة إنها ستواجه تكاليف امتثال عالية ومخاطر مسؤولية غير متناسبة.
وقال عالم الكمبيوتر البريطاني ستيوارت راسل: “سوف تشكو الشركات من صعوبة الالتزام باللوائح التنظيمية – وأن “اللوائح التنظيمية تخنق الابتكار” – وهذا أمر مثير للسخرية”.
“هناك لوائح بشأن محلات الساندويتشات أكثر من تلك المفروضة على شركات الذكاء الاصطناعي.”
(تغطية صحفية سوبانثا موخيرجي في ستوكهولم – إعداد محمد للنشرة العربية) تحرير ميرال فهمي
معاييرنا: مبادئ الثقة في طومسون رويترز.
الحصول على حقوق الترخيص، يفتح علامة تبويب جديدة
[ad_2]
المصدر