[ad_1]
تظهر كلمات الذكاء الاصطناعي في هذا الرسم التوضيحي الذي تم التقاطه في 4 مايو 2023. رويترز/دادو روفيك/توضيح/صورة ملف تحصل على حقوق الترخيص
لندن أول نوفمبر (رويترز) – ستعقد بريطانيا اجتماعا للحكومات والأوساط الأكاديمية والشركات العاملة في مجال أحدث الذكاء الاصطناعي يوم الأربعاء في قمة سلامة الذكاء الاصطناعي الافتتاحية لمناقشة كيفية احتواء مخاطر التكنولوجيا وحتى إمكانية احتوائها.
والاجتماع هو من بنات أفكار رئيس الوزراء ريشي سوناك، الذي يريد تشكيل دور لبريطانيا كوسيط بين الكتل الاقتصادية للولايات المتحدة والصين والاتحاد الأوروبي.
وتشمل قائمة الضيوف التي تضم 100 شخص قادة العالم والمديرين التنفيذيين في مجال التكنولوجيا مثل إيلون ماسك ورئيس ChatGPT سام ألتمان، والأكاديميين لهذا الحدث في بلتشلي بارك، موطن خبراء فك الشفرات البريطانيين في الحرب العالمية الثانية، يومي الأربعاء والخميس.
وتساءل المتشككون عن مدى النفوذ الذي يمكن أن تمارسه بريطانيا عندما تدفع الولايات المتحدة ومجموعة الدول الصناعية السبع والاتحاد الأوروبي مبادرات أخرى، بعضها متقدم.
لكن القمة، التي تركز على نماذج ذات قدرة عالية للأغراض العامة تسمى “الذكاء الاصطناعي الحدودي”، تمكنت من جذب نائبة الرئيس الأمريكي كامالا هاريس، ورئيسة المفوضية الأوروبية أورسولا فون دير لاين، ونائب وزير التكنولوجيا الصيني، والأمين العام للأمم المتحدة أنطونيو جوتيريش. .
وقالت وزيرة التكنولوجيا البريطانية ميشيل دونيلان إن “الأشخاص المناسبين الذين يتمتعون بالخبرة المناسبة” سيكونون حول الطاولة لمناقشة كيفية التخفيف من مخاطر الذكاء الاصطناعي.
وستكون الصين مشاركًا رئيسيًا، نظرًا لدور البلاد في تطوير تكنولوجيا الذكاء الاصطناعي، على الرغم من إثارة بعض التساؤلات من قبل بعض المشرعين في بريطانيا حول وجودها.
وقالت سفيرة الولايات المتحدة لدى بريطانيا، جين هارتلي، إن محادثة الذكاء الاصطناعي يجب أن تكون عالمية، لكنها أضافت أن الدعوة للصين جاءت من لندن.
وقالت لرويترز “هذه دعوة المملكة المتحدة وهذه ليست الولايات المتحدة.” “عندما كانت حكومة المملكة المتحدة تتحدث إلينا، قلنا إنها قمتكم. لذا، إذا كنتم تريدون دعوتهم، ادعوهم”.
وقال وزير الابتكار والعلوم والصناعة الكندي فرانسوا فيليب شامبين إن الذكاء الاصطناعي لن يكون مقيدًا بالحدود الوطنية، وبالتالي فإن قابلية التشغيل البيني بين اللوائح المختلفة التي يتم وضعها أمر مهم.
وقال لرويترز “الخطر هو أننا نفعل القليل جدا وليس الكثير في ضوء التطور والسرعة التي تسير بها الأمور.”
تتضمن جدول الأعمال موضوعات مثل كيفية استخدام الإرهابيين لأنظمة الذكاء الاصطناعي لبناء أسلحة بيولوجية وإمكانات التكنولوجيا في التفوق على البشر وإحداث الفوضى في العالم.
تقرير بول ساندل ومارتن كولتر، تحرير مارك بوتر
معاييرنا: مبادئ الثقة في طومسون رويترز.
الحصول على حقوق الترخيص، يفتح علامة تبويب جديدة
[ad_2]
المصدر