[ad_1]
تقول OpenAI إنها تقوم بإنشاء لجنة جديدة للسلامة والأمن وبدأت في تدريب نموذج جديد للذكاء الاصطناعي ليحل محل نظام GPT-4 الذي يدعم برنامج الدردشة ChatGPT الخاص بها.
قالت الشركة الناشئة في سان فرانسيسكو في تدوينة يوم الثلاثاء إن اللجنة ستقدم المشورة لمجلس الإدارة بالكامل بشأن “قرارات السلامة والأمن الحاسمة” لمشاريعها وعملياتها.
تصل لجنة السلامة في الوقت الذي يدور فيه الجدل حول سلامة الذكاء الاصطناعي في الشركة، والذي تم تسليط الضوء عليه بعد استقالة الباحث، جان ليك، ووجه انتقادات إلى OpenAI لترك السلامة “تأخذ المقعد الخلفي للمنتجات اللامعة”.
قالت شركة OpenAI إنها “بدأت مؤخرًا في تدريب نموذجها الحدودي التالي” وأن نماذج الذكاء الاصطناعي الخاصة بها تقود الصناعة من حيث القدرة والسلامة، على الرغم من أنها لم تشر إلى الجدل الدائر حول ذلك. وقالت الشركة: “إننا نرحب بالنقاش القوي في هذه اللحظة المهمة”.
نماذج الذكاء الاصطناعي هي أنظمة تنبؤ يتم تدريبها على مجموعات بيانات ضخمة لإنشاء نصوص وصور ومقاطع فيديو ومحادثات شبيهة بالإنسان حسب الطلب. تعد النماذج الحدودية أقوى وأحدث أنظمة الذكاء الاصطناعي.
يشمل أعضاء لجنة السلامة الرئيس التنفيذي لشركة OpenAI سام ألتمان ورئيس مجلس الإدارة بريت تايلور، إلى جانب عضوين آخرين في مجلس الإدارة، آدم دانجيلو، الرئيس التنفيذي لشركة Quora، ونيكول سيليجمان، المستشار العام السابق لشركة سوني. وقالت OpenAI إن أربعة خبراء تقنيين وسياسيين في الشركة هم أيضًا أعضاء.
ستكون المهمة الأولى للجنة هي تقييم ومواصلة تطوير عمليات OpenAI والضمانات وتقديم توصياتها إلى مجلس الإدارة في غضون 90 يومًا. وقالت الشركة إنها ستنشر بعد ذلك علنًا التوصيات التي تتبناها “بطريقة تتفق مع السلامة والأمن”.
[ad_2]
المصدر