[ad_1]
قم بالتسجيل في النشرة الإخبارية الأسبوعية المجانية الخاصة بـ IndyTech والتي يتم تسليمها مباشرة إلى صندوق البريد الوارد الخاص بك قم بالتسجيل في النشرة الإخبارية المجانية لـ IndyTech
نجح برنامج حاسوبي مبكر تم إنشاؤه في ستينيات القرن الماضي في التغلب على برنامج Chatbot الفيروسي الذي يعمل بالذكاء الاصطناعي ChatGPT في اختبار تورينج، المصمم للتمييز بين البشر والذكاء الاصطناعي.
اختبر باحثون من جامعة كاليفورنيا في سان دييغو في الولايات المتحدة روبوت الدردشة المبكر ELIZA، الذي أنشأه عالم معهد ماساتشوستس للتكنولوجيا جوزيف وايزنباوم في منتصف الستينيات، ضد الإصدارات الحديثة من التكنولوجيا.
ووجدوا أن ELIZA تفوقت على GPT-3.5 AI من OpenAI، والذي يشغل النسخة المجانية للشركة من ChatGPT.
لقد كان اختبار تورينج هو المعيار لتحديد قدرة الآلة على تقليد المحادثة البشرية منذ أن ابتكره عالم الكمبيوتر البريطاني آلان تورينج لأول مرة في عام 1950.
تطلبت الدراسة الأخيرة من 652 مشاركًا بشريًا الحكم على ما إذا كانوا يتحدثون إلى إنسان آخر أو إلى روبوت محادثة يعمل بالذكاء الاصطناعي عبر الإنترنت.
تمكن برنامج الدردشة الآلي GPT-4 من OpenAI، والذي يعد أقوى من الإصدار المجاني للتكنولوجيا، من خداع المشاركين في الدراسة بشكل متكرر أكثر من ELIZA، بمعدل نجاح قدره 41 في المائة.
محادثة مع Chatbot إليزا
(ويكيميديا كومنز)
تمكنت إليزا من تقديم نفسها كإنسان بنسبة 27% من الحالات، في حين حقق GPT-3.5 معدل نجاح بلغ 14% فقط.
وصف خبير الذكاء الاصطناعي غاري ماركوس نجاح ELIZA بأنه “محرج” لشركات التكنولوجيا الحديثة التي تعمل على روبوتات الدردشة المدعمة بالذكاء الاصطناعي، إلا أن أكاديميين آخرين جادلوا بأن ChatGPT لم يكن مصممًا لأداء جيد في اختبار تورينج.
“أعتقد أن حقيقة خسارة GPT-3.5 أمام ELIZA ليست مفاجئة عندما تقرأ الورقة البحثية”، كما نشر إيثان موليك، أستاذ الذكاء الاصطناعي في كلية وارتون بالولايات المتحدة، على موقع X (تويتر سابقًا).
“لقد اعتبرت OpenAI أن خطر انتحال الشخصية هو مصدر قلق حقيقي، ولديها RLHF (التعلم المعزز من ردود الفعل البشرية) لضمان عدم محاولة ChatGPT الظهور كإنسان. تم تصميم ELIZA كثيرًا لتمرير استخدام علم النفس لدينا.
أحد الأسباب المذكورة في الدراسة التي جعلت المشاركين يخطئون في اعتبار ELIZA إنسانًا هو أنه كان “سيئًا للغاية” أن يكون نموذجًا حاليًا للذكاء الاصطناعي، وبالتالي “كان من الأرجح أن يكون الإنسان غير متعاون عن عمد”.
وقال آرفيند نارايانان، أستاذ علوم الكمبيوتر في جامعة برينستون والذي لم يشارك في البحث: “كما هو الحال دائمًا، لا يخبرنا سلوك الاختبار عن القدرة. تم ضبط ChatGPT بدقة ليكون له نبرة رسمية، وليس التعبير عن الآراء، وما إلى ذلك، مما يجعله أقل شبهاً بالإنسان.
الدراسة، التي تحمل عنوان “هل يجتاز GPT-4 اختبار تورينج”، لم تتم مراجعتها بعد من قبل النظراء.
[ad_2]
المصدر