المؤسس المشارك لـ OpenAI يخصص شركة جديدة لـ "الذكاء الفائق الآمن"

المؤسس المشارك لـ OpenAI يخصص شركة جديدة لـ “الذكاء الفائق الآمن”

[ad_1]

أعلن إيليا سوتسكيفر، المؤسس المشارك لشركة OpenAI، هذا الأسبوع عن مشروع جديد للذكاء الاصطناعي يركز على تطوير “الذكاء الفائق” بأمان.

الشركة الجديدة، Safe Superintelligence Inc. – اختصارًا SSI – لها غرض وحيد هو إنشاء نموذج ذكاء اصطناعي آمن وأكثر ذكاءً من البشر.

أعلنت الشركة في منشور على وسائل التواصل الاجتماعي أن “بناء الذكاء الفائق الآمن (SSI) هو أهم مشكلة تقنية في عصرنا”. “لقد بدأنا أول مختبر SSI مباشر في العالم، بهدف واحد ومنتج واحد: الذكاء الفائق الآمن.”

غادر Sutskever OpenAI الشهر الماضي في أعقاب الإطاحة الفاشلة بالرئيس التنفيذي Sam Altman التي دعمها. أدت محاولة التحرك، التي قال سوتسكيفر لاحقًا إنه يأسف لها، إلى فترة من الاضطراب الداخلي تركزت حول ما إذا كان القادة في OpenAI يعطون الأولوية لفرص العمل على سلامة الذكاء الاصطناعي.

بالإضافة إلى Sutskever، شارك في تأسيس SSI كل من دانييل جروس، القائد السابق لشركة Apple AI، ومهندس OpenAI دانييل ليفي.

وقال الثلاثي في ​​بيان: “إننا نتعامل مع السلامة والقدرات جنبًا إلى جنب، حيث يتم حل المشكلات الفنية من خلال الهندسة الثورية والاكتشافات العلمية”. “نحن نخطط لتعزيز القدرات في أسرع وقت ممكن مع التأكد من أن سلامتنا تظل دائمًا في المقدمة. بهذه الطريقة، يمكننا أن نتوسع في سلام.”

وقالوا إن التركيز على السلامة وحدها يعني “عدم تشتيت الانتباه عن طريق الإدارة العامة أو دورات المنتج”، وأن أهدافهم “معزولة عن الضغوط التجارية قصيرة المدى”.

وقال سوتسكيفر لبلومبرج إن مباحث أمن الدولة لن تقوم بطرح أي منتج أو القيام بأي عمل آخر غير إنتاج الذكاء الفائق. ورفض الكشف عن الداعمين الماليين للشركة أو حجم الجهود التي تم جمعها.

[ad_2]

المصدر