[ad_1]
تلقت كيت أوسامور، عضو البرلمان العمالي عن إدمونتون، مؤخرًا رسالة بريد إلكتروني من مؤسسة خيرية حول أحد ناخبيها الذين تم تعليق مزاياها دون سبب على ما يبدو.
“منذ أكثر من عام حتى الآن، كانت تحاول الاتصال بـ DWP (وزارة العمل والمعاشات التقاعدية) ومعرفة المزيد عن سبب تعليق UC (الائتمان العالمي)، ولكن لم تتمكن هي أو فريق العمل لدينا من الوصول إلى أي مكان “، قال البريد الإلكتروني. “لا يزال من غير الواضح سبب قيام DWP بتعليق المطالبة، بغض النظر عما إذا كان لهذا أي مبرر… لم تتمكن من دفع الإيجار لمدة 18 شهرًا وبالتالي تواجه إجراءات الإخلاء”.
وقد تعامل أوسامور مع العشرات من هذه القضايا في السنوات الأخيرة، والتي غالبًا ما كانت تتعلق بمواطنين بلغاريين. وتعتقد أنهم كانوا ضحايا نظام شبه آلي يستخدم خوارزمية للإبلاغ عن الاحتيال المحتمل في الفوائد قبل إحالة تلك الحالات إلى البشر لاتخاذ قرار نهائي بشأن ما إذا كان سيتم تعليق مطالبات الأشخاص.
قال أوسامور: “لقد اتصل بي عشرات الناخبين في بداية عام 2022، وجميعهم مواطنون بلغاريون، وتم تعليق مزاياهم”. “لقد تم تحديد حالاتهم من قبل دائرة المخاطر والاستخبارات المتكاملة التابعة لبرنامج عمل الدوحة على أنها شديدة الخطورة بعد إجراء تحليلات البيانات الآلية.
لقد تركوا في حالة من الفقر المدقع لعدة أشهر، دون أي وسيلة للاستئناف. ومع ذلك، في جميع الحالات تقريبًا، لم يتم العثور على أي دليل على الاحتيال وتم استعادة فوائدها في النهاية. ولم تكن هناك مساءلة عن هذه العملية”.
يستخدم DWP الذكاء الاصطناعي للمساعدة في اكتشاف الاحتيال في المزايا منذ عام 2021. تكتشف الخوارزمية الحالات التي تستحق مزيدًا من التحقيق من قبل الإنسان وتمررها للمراجعة.
ردًا على طلب حرية المعلومات الذي تقدمت به صحيفة الغارديان، قالت DWP إنها لا تستطيع الكشف عن تفاصيل حول كيفية عمل الخوارزمية في حالة أنها تساعد الأشخاص على اللعب بالنظام.
وقالت الوزارة إن الخوارزمية لا تأخذ الجنسية في الاعتبار. ولكن نظرًا لأن هذه الخوارزميات ذاتية التعلم، فلا يمكن لأحد أن يعرف بالضبط كيف تقوم بموازنة البيانات التي تتلقاها.
قالت DWP في أحدث حساباتها السنوية إنها راقبت النظام بحثًا عن علامات التحيز، لكنها كانت محدودة في قدرتها على القيام بذلك حيث لم يكن لديها بيانات كافية عن المستخدم. وحثتها هيئة مراقبة الإنفاق العام على نشر ملخصات لأي تقييمات داخلية للمساواة.
وقال شميم أحمد، الرئيس التنفيذي لمشروع القانون العام: “استجابة لطلبات قانون حرية المعلومات العديدة، وعلى الرغم من المخاطر الواضحة، تواصل DWP رفض تقديم حتى المعلومات الأساسية حول كيفية عمل أدوات الذكاء الاصطناعي هذه، مثل ومن يتم اختبارهم عليه، أو ما إذا كانت الأنظمة تعمل بدقة.
إن برنامج عمل الدوحة ليس هو القسم الوحيد الذي يستخدم الذكاء الاصطناعي بطريقة يمكن أن يكون لها تأثيرات كبيرة على حياة الناس اليومية. وقد وجد تحقيق أجرته صحيفة الغارديان أن مثل هذه الأدوات مستخدمة في ما لا يقل عن ثمانية إدارات في وايتهول وعدد قليل من قوات الشرطة في جميع أنحاء المملكة المتحدة.
ولدى وزارة الداخلية أداة مماثلة للكشف عن الزيجات الصورية المحتملة. تقوم الخوارزمية بوضع علامة على طلبات ترخيص الزواج لمراجعتها إلى أخصائي الحالة الذي يمكنه بعد ذلك الموافقة على الطلب أو تأخيره أو رفضه.
وقد أتاحت هذه الأداة للقسم معالجة الطلبات بسرعة أكبر. لكن تقييمها الخاص لتأثير المساواة وجد أنها تشير إلى عدد كبير بشكل غير متناسب من الزيجات من أربع دول: اليونان وألبانيا وبلغاريا ورومانيا.
وخلص التقييم، الذي اطلعت عليه صحيفة الغارديان، إلى أنه “حيثما يكون هناك تمييز غير مباشر، يكون مبررًا من خلال الأهداف والنتائج الشاملة للعملية”.
وتستخدم العديد من قوات الشرطة أيضًا أدوات الذكاء الاصطناعي، خاصة لتحليل أنماط الجريمة والتعرف على الوجه. أدخلت شرطة العاصمة كاميرات حية للتعرف على الوجه في جميع أنحاء لندن لمساعدة الضباط على اكتشاف الأشخاص الموجودين في “قائمة المراقبة” الخاصة بها.
ولكن تمامًا مثل أدوات الذكاء الاصطناعي الأخرى، هناك أدلة على أن أنظمة التعرف على الوجه في Met يمكن أن تؤدي إلى التحيز. وجدت مراجعة أجراها المختبر الفيزيائي الوطني هذا العام أنه في معظم الظروف، كانت معدلات الخطأ في الكاميرات منخفضة للغاية، وكانت الأخطاء موزعة بالتساوي على مختلف التركيبة السكانية.
ومع ذلك، عندما تم تخفيض إعدادات الحساسية، لأنها قد تكون في محاولة للقبض على عدد أكبر من الأشخاص، اكتشفوا خطأً ما لا يقل عن خمسة أضعاف عدد الأشخاص السود مقارنة بالأشخاص البيض.
ولم يستجب Met لطلب التعليق.
وفي الوقت نفسه، تستخدم شرطة ويست ميدلاندز الذكاء الاصطناعي للتنبؤ بالنقاط الساخنة المحتملة لجرائم السكاكين وسرقة السيارات، وتقوم بتطوير أداة منفصلة للتنبؤ بالمجرمين الذين قد يصبحون “مرتكبي جرائم خطيرة”.
وهذه الأمثلة هي التي تمكنت صحيفة الغارديان من معرفة معظم المعلومات عنها.
في كثير من الحالات، استخدمت الإدارات وقوات الشرطة مجموعة من الاستثناءات لقواعد حرية المعلومات لتجنب نشر تفاصيل أدوات الذكاء الاصطناعي الخاصة بها.
ويشعر البعض بالقلق من أن المملكة المتحدة قد تتجه نحو فضيحة مماثلة لتلك التي حدثت في هولندا، حيث تبين أن سلطات الضرائب انتهكت قواعد البيانات الأوروبية، أو في أستراليا، حيث اتُهم 400 ألف شخص خطأً بإعطاء السلطات تفاصيل غير صحيحة حول دخلهم.
قال جون إدواردز، مفوض المعلومات في المملكة المتحدة، إنه قام بفحص العديد من أدوات الذكاء الاصطناعي المستخدمة في القطاع العام، بما في ذلك أنظمة كشف الاحتيال الخاصة ببرنامج عمل الدوحة، ولم يجد أي منها ينتهك قواعد حماية البيانات: “لقد ألقينا نظرة على تطبيقات DWP ونظرت في الذكاء الاصطناعي الذي تستخدمه السلطات المحلية فيما يتعلق بالفوائد. لقد وجدنا أنه تم نشرهم بطريقة مسؤولة وكان هناك تدخل بشري كافٍ لتجنب خطر الضرر”.
لكنه أضاف أن كاميرات التعرف على الوجه كانت مصدرا للقلق. وقال: «إننا نراقب باهتمام تطورات تقنية التعرف المباشر على الوجه». “من المحتمل أن تكون تدخلية ونحن نراقب ذلك.”
تحاول بعض الإدارات أن تكون أكثر انفتاحًا بشأن كيفية استخدام الذكاء الاصطناعي في المجال العام. ويقوم مكتب مجلس الوزراء بتجميع قاعدة بيانات مركزية لمثل هذه الأدوات، ولكن الأمر متروك للإدارات الفردية فيما إذا كان يجب إدراج أنظمتها أم لا.
في هذه الأثناء، يشعر الناشطون بالقلق من أن أولئك الذين هم على الطرف المتلقي لعملية صنع القرار المستنيرة بواسطة الذكاء الاصطناعي يتعرضون للأذى دون أن يدركوا ذلك.
وحذر أحمد قائلاً: “إن الأمثلة من بلدان أخرى توضح العواقب الكارثية على الأفراد والحكومات والمجتمع ككل. ونظرًا للافتقار إلى الشفافية والتنظيم، تعمل الحكومة على تهيئة الظروف الدقيقة لحدوث ذلك هنا أيضًا.
[ad_2]
المصدر