لقد قامت OpenAI للتو بدمج "مفتاح القتل" الخاص بالشركة

لقد قامت OpenAI للتو بدمج “مفتاح القتل” الخاص بالشركة

[ad_1]

ابق على اطلاع بالتحديثات المجانية

الكاتب هو مؤسس موقع Sifted، وهو موقع تدعمه صحيفة FT حول الشركات الأوروبية الناشئة

لقد تم الكشف عن إخفاقات نظام حوكمة الشركات في OpenAI بشكل واضح في الأيام الأخيرة. في يوم الجمعة، قام الأعضاء الأربعة المستقلون في مجلس إدارة الشركة الناشئة الأكثر شهرة في العالم بطرد رئيسها التنفيذي، سام ألتمان، بتهمة تضليلهم. تم تعيين رئيس تنفيذي مؤقت جديد ثم تم الاستغناء عنه على الفور تقريبًا واستبداله برئيس تنفيذي آخر.

ولكن بحلول يوم الثلاثاء، في أعقاب احتجاجات موظفي ومستثمري OpenAI، خلص مجلس الإدارة إلى أن ألتمان كان في الواقع جديرًا بالثقة بما يكفي لإعادته إلى منصبه كرئيس تنفيذي، واستقال ثلاثة من أعضاء مجلس الإدارة بدلاً من ذلك. فقط المتزلج على الجليد بسرعة يمكنه ضغط المزيد من الدوران في مثل هذا الروتين القصير.

قد يكون من المغري أن نستنتج أن تجربة OpenAI المتمثلة في وجود مجلس إدارة غير هادف للربح، مسؤول عن ضمان التطوير الآمن للذكاء الاصطناعي، والإشراف على الأعمال التجارية الهادفة للربح، ينبغي إلغاءها. وقد دعت مايكروسوفت، التي استثمرت 13 مليار دولار في OpenAI، بالفعل إلى تغيير هيكل الإدارة. ويبدو أن مجلس إدارة OpenAI المؤلف من ثلاثة أعضاء، والذي أعيد تشكيله بسرعة، والذي يضم الآن رئيسًا تنفيذيًا سابقًا لشركة Salesforce ووزير خزانة الولايات المتحدة الأسبق، أكثر ملاءمة للاضطلاع بالمسؤوليات الائتمانية التقليدية.

ومع ذلك، سيكون من الخطأ المأساوي التخلي عن محاولات تحميل قيادات أهم شركات الذكاء الاصطناعي في العالم المسؤولية عن تأثير التكنولوجيا التي تنتجها. وحتى رؤساء تلك الشركات، بما في ذلك ألتمان، يقبلون أنه على الرغم من الوعود الهائلة التي يحملها الذكاء الاصطناعي، فإنه يشكل أيضًا مخاطر كارثية محتملة.

يقول أحد رواد الأعمال المقرب من شركة OpenAI إن مجلس الإدارة كان “مبدئيًا وشجاعًا بشكل لا يصدق” لمواجهة ألتمان، حتى لو فشل في شرح أفعاله علنًا. قال لي رجل الأعمال: “إن مجلس الإدارة يتعرض للهجوم بسبب عدم كفاءته”. “ولكن إذا كان مجلس الإدارة الجديد يتكون من أشخاص عاديين في مجال التكنولوجيا، فأنا أشك في أنهم سيأخذون قضايا السلامة على محمل الجد”.

ومن المؤكد أن مجلس الإدارة القديم أخذ هذه المسؤوليات على محمل الجد. ووفقا لعدة تقارير، قالت هيلين تونر، وهي عضوة سابقة في مجلس الإدارة، وهي أكاديمية في جامعة جورج تاون، للمسؤولين التنفيذيين في شركة OpenAI إن مهمة المجلس تتلخص في ضمان أن الذكاء الاصطناعي “يعود بالنفع على البشرية جمعاء” حتى لو كان ذلك يعني تدمير الشركة. يبدو الآن أن “مفتاح الإيقاف” التنظيمي الخاص بشركة OpenAI قد اندمج.

في قلب الاضطرابات الأخيرة يكمن التوتر بين الدافع التجاري لأي شركة لكسب المال والمخاوف بشأن الأضرار الجانبية التي يمكن أن تسببها التكنولوجيا.

تأسست OpenAI بشكل صريح في عام 2015 على وعد بإعطاء الأولوية للسلامة على الربح. لكن الشركة أدركت بسرعة أنها إذا أرادت جذب أفضل الباحثين وتطوير أكبر نماذج الذكاء الاصطناعي، فسوف تحتاج إلى الوصول إلى كميات هائلة من رأس المال والقدرة الحاسوبية. ولذلك أنشأت ذراعًا تجاريًا ذو ربح محدد جعل OpenAI قابلة للاستثمار من قبل شركات رأس المال الاستثماري ومايكروسوفت. يبدو أن الاستغلال التجاري المتزايد لـ OpenAI دفع بعض كبار الباحثين، بقيادة دانييلا وداريو أمودي، إلى ترك الشركة في عام 2020 لتأسيس شركة Anthropic كشركة ذات منفعة عامة.

ومع ذلك، رحب معظم موظفي ومستثمري OpenAI بعودة ألتمان. وباعتباره الرئيس السابق لشركة Y Combinator، التي احتضنت العديد من الشركات الناشئة الأكثر نجاحا في وادي السليكون، فإن ألتمان يتمتع بنادي معجبين مثير للإعجاب. مما لا شك فيه أن تصفيق موظفي شركة OpenAI تم تضخيمه من خلال إمكانية جني الأموال من مبيعات الأسهم الثانوية بالقرب من تقييم الشركة قبل الاضطرابات الذي بلغ 86 مليار دولار.

يتمتع ألتمان أيضًا بقدرة مغناطيسية على تحفيز الموظفين وتعبئة رأس المال وتكوين حلفاء أقوياء. وكما قال ذات مرة بول جراهام، المؤسس المشارك لشركة Y Combinator: “سام جيد للغاية في أن يصبح قوياً”.

ومع ذلك فإن تاريخ الشركات الأميركية أظهر مراراً وتكراراً المخاطر التي يفرضها الرؤساء التنفيذيون المفرطون في القوة ومجالس الإدارة المذعنة. وحتى رئيس الشركة الأكثر حسن النية قد يختصر الطريق لتحقيق مجد الفوز بالسباق لتطوير الذكاء الاصطناعي على المستوى البشري.

في العام المقبل، من المقرر أن تطلق OpenAI نموذجًا أكثر قوة للذكاء الاصطناعي التوليدي، وهو GPT-5. وفي يوم المطورين هذا الشهر، قال ألتمان: “ما نطلقه اليوم سيبدو غريبًا مقارنة بما نحن منشغلون بإنشائه من أجلك الآن”.

في مارس/آذار، حذر مئات الباحثين في رسالة مفتوحة من سباق التسلح “الخطير” الذي كان يتطور في مجال الذكاء الاصطناعي، ودعوا إلى التوقف مؤقتا في تطوير النماذج الحدودية إلى أن يصبح من الممكن وضع حوكمة أقوى. ومنذ ذلك الحين، تسارع السباق. ليس لدى مجلس إدارة Open AI المتجدد سوى القليل من الوقت لإظهار أنه على مستوى التحدي المتمثل في التوفيق بين الابتكار والربح والسلامة.

[ad_2]

المصدر