[ad_1]
حذر أحد المسؤولين التنفيذيين الذين تمت دعوتهم لحضور قمة سلامة الذكاء الاصطناعي الدولية التي يعقدها ريشي سوناك الشهر المقبل من أن المؤتمر يخاطر بتحقيق القليل للغاية، واتهم شركات التكنولوجيا القوية بمحاولة “الاستيلاء” على الاجتماع التاريخي.
قال كونور ليهي، الرئيس التنفيذي لشركة Conjecture لأبحاث سلامة الذكاء الاصطناعي، إنه يعتقد أن رؤساء الحكومات على استعداد للاتفاق على نمط من التنظيم من شأنه أن يسمح للشركات بمواصلة تطوير الذكاء الاصطناعي “الشبيه” دون رادع تقريبًا.
ليهي هو واحد من 100 شخص فقط، بما في ذلك وزراء حكومات أجنبية ومديرون تنفيذيون في مجال التكنولوجيا وشخصيات من المجتمع المدني، تمت دعوتهم لحضور قمة نوفمبر في بلتشلي بارك، والتي يأمل داونينج ستريت أن تمثل نقطة تحول في كيفية تطوير تكنولوجيا الذكاء الاصطناعي المتقدمة.
وقد نشر المسؤولون جدول أعمال القمة الذي يشير إلى أهمية “توسيع نطاق القدرات المسؤولة” ــ الفكرة القائلة بأن الشركات لابد أن تعمل على تطوير نماذجها المتطورة وفقاً لمجموعة من المبادئ التوجيهية.
ومع ذلك، يعتقد ليهي وآخرون أنه يجب أن يكون هناك وقف كامل لتطوير الذكاء العام الاصطناعي – نماذج الذكاء الاصطناعي التي يمكنها إنجاز المهام على مستوى الذكاء البشري أو ما فوق الإنسان.
وقال ليهي: “إن الهدف الأساسي من التوسع المسؤول هو توفير إطار يبدو وكأن شيئاً ما قد تم إنجازه، بحيث يتمكن الساسة من العودة إلى بيوتهم والقول: “لقد فعلنا شيئاً ما”. لكن السياسة الفعلية ليست شيئا”.
أطلق ليهي وآخرون حملة تسمى “التحكم في الذكاء الاصطناعي” لحث صناع السياسات على الذهاب إلى أبعد من ذلك واستخدام قمة بليتشلي بارك لتنفيذ وقفة مؤقتة لتطوير أشكال الذكاء الاصطناعي الأكثر تطورا.
مثل البعض الآخر في الصناعة، يعتقد ليهي أن الإنسانية معرضة للخطر إذا طور البشر نظام ذكاء اصطناعي يتعلم كيفية تجنب السيطرة البشرية.
وقال: “إذا قمت ببناء أنظمة أكثر قدرة من البشر على التلاعب والأعمال والسياسة والعلوم وكل شيء آخر، ولم نتحكم فيها، فإن المستقبل ملك لهم، وليس لنا”.
وأضاف: “تحاول شركات الذكاء الاصطناعي على وجه الخصوص والمنظمات الأخرى من حولها الاستيلاء على القمة، والحفاظ على الوضع الراهن المتمثل في سباق غير منظم نحو الكارثة”.
واستشهد ليهي بمقابلة أجريت مؤخرا مع الرئيس التنفيذي لشركة أنثروبيك للذكاء الاصطناعي، داريو أمودي، الذي قال إن فرص حدوث نظام ذكاء اصطناعي “خاطئ بشكل كارثي على نطاق الحضارة الإنسانية” تتراوح بين 10% و25%.
وقال ليهي: “إذا كنت تقوم ببناء آلة لديها مثل هذه الفرصة فإن اقتراحي هو: لا تفعل ذلك”.
وقال متحدث باسم الحكومة إن القمة كانت بداية “محادثة عالمية” حول الذكاء الاصطناعي وسترحب “بوجهات النظر المتنوعة”.
ومع ذلك، فإن تعليقات ليهي تعكس التحذيرات الأخيرة من آخرين في عالم الذكاء الاصطناعي.
تخطي ترويج النشرة الإخبارية السابقة
قم بالتسجيل في الأعمال اليوم
استعد ليوم العمل – سنوجهك إلى جميع أخبار الأعمال والتحليلات التي تحتاجها كل صباح
“”، “newsletterId”: “business-today”، “successDescription”: “استعد ليوم العمل – سنوجهك إلى جميع أخبار الأعمال والتحليلات التي تحتاجها كل صباح”}” config=”{“renderingTarget” :”Web”}”>إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول المؤسسات الخيرية، والإعلانات عبر الإنترنت، والمحتوى الممول من أطراف خارجية. لمزيد من المعلومات، انظر سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا الإلكتروني وتنطبق سياسة خصوصية Google وشروط الخدمة.
بعد الترويج للنشرة الإخبارية
حذر رائد الذكاء الاصطناعي جيفري هينتون من “الخطر الوجودي” الذي يشكله الذكاء الرقمي. تصوير: مارك بلينش – رويترز
جيفري هينتون، الرجل المعروف باسم “الأب الروحي للذكاء الاصطناعي”، ترك شركة جوجل مؤخراً ليطلق تحذيراً بشأن ما أسماه “الخطر الوجودي” الذي يشكله الذكاء الرقمي.
وبعد أسابيع، أصدرت مجموعة من كبار المسؤولين التنفيذيين من صناعة الذكاء الاصطناعي، بما في ذلك ليهي، بيانًا من جملة واحدة جاء فيه: “يجب أن يكون التخفيف من خطر الانقراض الناجم عن الذكاء الاصطناعي أولوية عالمية إلى جانب المخاطر الاجتماعية الأخرى، مثل الأوبئة والحرب النووية”.
ودفعت مثل هذه التحذيرات سوناك إلى الدعوة للقمة في الفترة من 1 إلى 2 نوفمبر. وقد تم تصميمه ليكون بمثابة منتدى لرؤساء الدول والمسؤولين التنفيذيين في مجال التكنولوجيا لمناقشة هذه القضايا شخصيًا لأول مرة.
ويقوم المسؤولون البريطانيون بجولة حول العالم لتشجيع رؤساء الدول على حضور المؤتمر، الذي يأملون أن يكون الأول في سلسلة من مؤتمرات القمة المماثلة.
دعا إريك شميدت، الرئيس التنفيذي السابق لشركة جوجل، ومصطفى سليمان، المؤسس المشارك لشركتي Inflection وDeepMind، هذا الأسبوع القادة الدوليين إلى إنشاء لجنة عالمية من الخبراء في مجال الذكاء الاصطناعي على غرار اللجنة الحكومية الدولية المعنية بتغير المناخ. يقول المسؤولون البريطانيون إنهم يدعمون مثل هذه الهيئة، لكن الاتفاق على النقاط الدقيقة حول كيفية عملها سيكون من الأفضل تركه للمناقشات في الأمم المتحدة.
وبدلاً من ذلك، تقول مصادر حكومة المملكة المتحدة إنها تأمل في رؤية أي علامة على أن صناعة الذكاء الاصطناعي تبطئ تطورها في الذكاء العام الاصطناعي، قائلة إن مثل هذه الخطوة ستكون غير مسبوقة في تاريخ التكنولوجيا.
ومع ذلك، يرى ليهي أن الوعود الغامضة بالمضي قدمًا في التطوير المسؤول للذكاء الاصطناعي المتقدم لن تكون كافية، مضيفًا أن القيام بذلك سيكون بمثابة انتصار لشركات التكنولوجيا على الهيئات التنظيمية.
وقال متحدث باسم الحكومة: “ستجمع قمة سلامة الذكاء الاصطناعي مجموعة واسعة من الحضور بما في ذلك الحكومات الدولية والأوساط الأكاديمية والصناعة والمجتمع المدني، كجزء من نهج تعاوني لدفع العمل الدولي المستهدف والسريع بشأن التطوير الآمن والمسؤول للذكاء الاصطناعي”. “.
“كما هو معتاد تمامًا في مؤتمرات القمة من هذا النوع، فإننا لا نؤكد حضور المشاركين في هذا الوقت مسبقًا. هذه هي بداية المحادثة العالمية حول مخاطر الذكاء الاصطناعي الحدودية، ونحن نرحب بوجهات النظر المتنوعة – وهذه هي نقطة قوة القمة.”
[ad_2]
المصدر