[ad_1]
افتح ملخص المحرر مجانًا
رولا خلف، محررة الفايننشال تايمز، تختار قصصها المفضلة في هذه النشرة الأسبوعية.
في 1 يونيو 2009، اختفت رحلة الخطوط الجوية الفرنسية رقم 447 في رحلة روتينية عبر المحيط الأطلسي. كانت الظروف غامضة حتى تم انتشال مسجل رحلة الصندوق الأسود بعد عامين تقريبا، وأصبحت الحقيقة المروعة واضحة: ثلاثة طيارين مدربين تدريبا عاليا تحطمت طائرة تعمل بكامل طاقتها في المحيط، مما أسفر عن مقتل جميع الأشخاص البالغ عددهم 288 شخصا كانوا على متنها، لأنهم أصبحوا في حيرة من أمرهم. من خلال ما أخبرتهم به الأنظمة الآلية لطائرة إيرباص 330 الخاصة بهم.
لقد وجدت نفسي مؤخرًا أعود إلى اللحظات الأخيرة من الرحلة 447، والتي تم وصفها بوضوح في المقالات في Popular Mechanics وVanity Fair. لا أستطيع أن أتخلص من الشعور بأن الحادث لديه شيء مهم ليعلمنا إياه عن المخاطر والمكافآت الهائلة للذكاء الاصطناعي.
يمكن لأحدث تقنيات الذكاء الاصطناعي إنتاج الشعر والفن، في حين تتمتع أنظمة الذكاء الاصطناعي لاتخاذ القرار بالقدرة على العثور على أنماط مفيدة في فوضى البيانات المربكة. هذه التكنولوجيات الجديدة ليس لها سلائف واضحة، ولكن لها أوجه تشابه. ليس من قبيل الصدفة أن مجموعة أدوات الذكاء الاصطناعي من Microsoft تحمل الآن علامة “Copilot”. قد يكون “الطيار الآلي” أكثر دقة، ولكن في كلتا الحالتين، فهو تشبيه يستحق الدراسة.
العودة إلى الرحلة 447. تشتهر طائرة A330 بكونها سلسة وسهلة الطيران، وذلك بفضل نظام التشغيل الآلي المتطور للطيران الذي يسمى الطيران المساعد بالسلك. تقليديا، يتمتع الطيار بالتحكم المباشر في لوحات الطائرة، ولكن نظام الطيران المساعد يترجم حركات الطيار المتشنجة إلى تعليمات سلسة. وهذا يجعل من الصعب تحطم طائرة A330، وكانت الطائرة تتمتع بسجل سلامة رائع قبل مأساة الخطوط الجوية الفرنسية. ولكن من عجيب المفارقات أن بناء طائرة تحمي الطيارين من الأخطاء أمر ينطوي على مخاطر كبيرة. ويعني ذلك أنه عند حدوث تحدي، لن يكون لدى الطيارين سوى القليل من الخبرة للاستفادة منها أثناء محاولتهم مواجهة هذا التحدي.
في حالة الرحلة 447، كان التحدي يتمثل في حدوث عاصفة تحجب أدوات السرعة الجوية بالجليد. وخلص النظام بشكل صحيح إلى أن الطائرة كانت تحلق بناءً على بيانات غير موثوقة، وكما تمت برمجتها، فقد سلم السيطرة الكاملة للطيار. للأسف، لم يكن الطيار الشاب معتادًا على الطيران في هواء رقيق ومضطرب دون إشراف الكمبيوتر وبدأ في ارتكاب الأخطاء. وبينما كانت الطائرة تتأرجح بشكل مثير للقلق، خرج عن غريزته وأوقف الطائرة – وهو أمر كان من الممكن أن يكون مستحيلاً لو كان نظام الطيران المساعد يعمل بشكل طبيعي. أصبح الطيارون الآخرون في حيرة من أمرهم وعدم ثقتهم في أدوات الطائرة، لدرجة أنهم لم يتمكنوا من تشخيص المشكلة التي يمكن علاجها بسهولة إلا بعد فوات الأوان.
تسمى هذه المشكلة أحيانًا “مفارقة الأتمتة”. يمكن للنظام الآلي أن يساعد البشر أو حتى يحل محل الحكم البشري. لكن هذا يعني أن البشر قد ينسون مهاراتهم أو يتوقفون ببساطة عن الاهتمام. عندما يحتاج الكمبيوتر إلى تدخل بشري، فقد لا يكون البشر على مستوى المهمة. إن الأنظمة الآلية الأفضل تعني أن هذه الحالات تصبح نادرة وغريبة، كما أن البشر أقل عرضة للتعامل معها.
هناك الكثير من الأدلة المتناقلة على حدوث ذلك مع أحدث أنظمة الذكاء الاصطناعي. ولنتأمل هنا حالة المحامين التعساء الذين لجأوا إلى موقع ChatGPT طلبًا للمساعدة في صياغة القضية، ليكتشفوا أنها تحتوي على استشهادات ملفقة. تم تغريمهم بمبلغ 5000 دولار وأمروا بكتابة رسائل إلى العديد من القضاة لشرح الأمر.
النقطة المهمة ليست أن ChatGPT عديم الفائدة، مثلما أن الطيران السلكي المساعد عديم الفائدة. وكلاهما معجزات تكنولوجية. لكن لها حدود، وإذا لم يفهم مستخدموها من البشر هذه الحدود، فقد تقع كارثة.
ويأتي الدليل على هذا الخطر من فابريزيو ديل أكوا من كلية هارفارد للأعمال، الذي أجرى مؤخراً تجربة حيث حصل القائمون على التوظيف على المساعدة من خلال خوارزميات، بعضها ممتاز وبعضها أقل جودة، في جهودهم لتحديد المتقدمين الذين يجب دعوتهم لإجراء المقابلة. (هذا ليس ذكاءً اصطناعيًا توليديًا، ولكنه تطبيق رئيسي للذكاء الاصطناعي في العالم الحقيقي.)
اكتشف Dell’Acqua، على نحو مخالف للحدس، أن الخوارزميات المتواضعة التي تبلغ دقتها حوالي 75 في المائة قدمت نتائج أفضل من الخوارزميات الجيدة التي تبلغ دقتها حوالي 85 في المائة. السبب البسيط هو أنه عندما عُرض على القائمين على التوظيف التوجيه من خلال خوارزمية معروفة بأنها غير مكتملة، ظلوا يركزون وأضافوا أحكامهم وخبراتهم الخاصة. عندما عُرض على القائمين على التوظيف التوجيه من خلال خوارزمية يعرفون أنها ممتازة، جلسوا وتركوا الكمبيوتر يتخذ القرارات.
ربما قاموا بتوفير الكثير من الوقت لدرجة أن الأخطاء كانت تستحق العناء. ولكن بالتأكيد كانت هناك أخطاء. تتخذ خوارزمية منخفضة الجودة وإنسانًا نشطًا قرارات أفضل معًا من خوارزمية من الدرجة الأولى مع إنسان مقسم إلى مناطق. وعندما تكون الخوارزمية من الطراز الأول، يتبين أن الإنسان المنعزل هو ما تحصل عليه.
مُستَحسَن
سمعت عن بحث Dell’Acqua من إيثان موليك، مؤلف كتاب الذكاء المشترك المرتقب. ولكن عندما ذكرت لموليك فكرة أن الطيار الآلي هو تشبيه مفيد للذكاء الاصطناعي التوليدي، حذرني من البحث عن أوجه تشابه “ضيقة ومريحة إلى حد ما”. هذا عادل. لا توجد سابقة تكنولوجية واحدة تنصف التقدم السريع والنطاق المذهل لأنظمة الذكاء الاصطناعي التوليدية. ولكن بدلاً من استبعاد كل هذه السوابق، يجدر بنا أن نبحث عن تشبيهات مختلفة تسلط الضوء على أجزاء مختلفة مما قد ينتظرنا. لدي اثنين آخرين في الاعتبار للاستكشاف في المستقبل.
وهناك درس واحد من الطيار الآلي وأنا مقتنع بأنه ينطبق على الذكاء الاصطناعي التوليدي: بدلا من التفكير في الآلة كبديل للإنسان، فإن الأسئلة الأكثر إثارة للاهتمام تركز على التعاون المشحون في بعض الأحيان بين الاثنين. حتى أفضل الطيار الآلي يحتاج أحيانًا إلى الحكم البشري. هل سنكون جاهزين؟
غالبًا ما تكون أنظمة الذكاء الاصطناعي التوليدية الجديدة محيرة. لكن لدينا متسع من الوقت لتجربتها؛ أكثر من المسكين بيير سيدريك بونين، الطيار الشاب الذي طار بطائرة تعمل بكامل طاقتها إلى المحيط الأطلسي. كلماته الأخيرة: “ولكن ماذا يحدث؟”
كتاب تيم هارفورد الجديد للأطفال، “The Truth Detective” (Wren & Rook)، متوفر الآن
تابع @FTMag للتعرف على أحدث قصصنا أولاً
[ad_2]
المصدر