"سيستفيد الاتحاد الأوروبي بشكل كبير من تنظيم الذكاء الاصطناعي"

“سيستفيد الاتحاد الأوروبي بشكل كبير من تنظيم الذكاء الاصطناعي”

[ad_1]

في السياق الجيوسياسي المتوتر اليوم، تحتدم الحرب التكنولوجية. قال الرئيس الروسي فلاديمير بوتين للطلاب في عام 2017 في ياروسلافل: “الشخص الذي يصبح القائد في هذا المجال (الذكاء الاصطناعي) سيكون حاكم العالم”. ويعمل السباق على أنظمة أكثر قوة على تسريع قدرات الذكاء الاصطناعي والسيطرة عليها.

لقد برزت تحديات زيادة القصص الإخبارية المزيفة إلى الواجهة مع نشر أنظمة الذكاء الاصطناعي التوليدية مثل Dall-E وStableDiffusion للصور ومقاطع الفيديو وChatGPT، الذي يستخدم نماذج لغوية من OpenAI. وبينما يستطيع روبوت المحادثة ChatGPT إنتاج مقالات وملخصات مفيدة، إلا أنه من المستحيل معرفة مصادره أو قياس تأثير اللغة الإنجليزية السائدة في نماذجه. لقد أثار ChatGPT الإثارة والخوف بين عامة الناس، مع طرح أسئلة مثل: “هل يجب حظره في المدارس؟”؛ “هل سيأخذ وظيفتي؟” أو “هل سأتمكن من الاستغناء عنها؟”

وبالنسبة لهذه النماذج الضخمة، تعتزم أوروبا اقتراح المسؤولية المشتركة بين الشركات المصنعة للنماذج التي تطرحها في السوق أو تنشرها في متناول الجميع، وأولئك الذين ينشرونها، وأولئك الذين يستخدمونها. وهذه ليست فكرة يتقاسمها مديرو الشركات الرقمية العملاقة الأميركية، الذين يفضلون تحويل المسؤولية إلى المستخدمين بدلا من ذلك. إن عشاق التكنولوجيا في وادي السليكون إيلون ماسك، والمؤسس المشارك لشركة OpenAI، سام ألتمان، وكثيرون غيرهم، هم أيضاً من الإيديولوجيين الذين يتمتعون برؤية سياسية عالمية. وتدعو الولايات المتحدة، مثل الصين، إلى وضع معايير في هذا السباق للسيطرة على المشهد التكنولوجي مع تحفيز الإبداع، الضامن للقوة.

أربعة مستويات من المخاطر

لدى الاتحاد الأوروبي الكثير ليكسبه من خلال تطوير إطار لاستخدام الذكاء الاصطناعي المرتبط بالثقة واحترام حقوق الإنسان وسيادة القانون. ويركز قانون الذكاء الاصطناعي، الذي هو قيد الإعداد، على تحديد التطبيقات التي تشكل خطرا وبالتالي تتطلب التنظيم.

أربعة مستويات من المخاطر (غير مقبول، مرتفع، محدود، والحد الأدنى) تتطلب إجراءات مختلفة. وسوف يتم حظر التطبيقات التي تنطوي على مخاطر غير مقبولة، على سبيل المثال، بسبب “التقنيات اللاشعورية” المتلاعبة التي تستغل مجموعات ضعيفة معينة أو تستخدمها السلطات العامة لأغراض التقييم الاجتماعي، كما هي الحال في الصين. سيتم تنظيم التطبيقات عالية المخاطر بشكل صارم. ويجب أن يكون ذلك بمستوى عالٍ من الخصوصية للحفاظ على التطبيقات المفيدة. على سبيل المثال، يشكل التعرف على الوجه خطرًا إذا تم استخدامه لمراقبة السكان، ولكنه أثبت أنه أداة مفيدة جدًا لرصد الأمراض لدى المرضى. ولذلك يقترح قانون الذكاء الاصطناعي توفير الحماية. وعلى وجه الخصوص، فإنه يفرض التزامات على بعض أنظمة الذكاء الاصطناعي بسبب المخاطر المحددة التي تشكلها على الخوارزميات التي تتفاعل مع البشر.

لديك 50.52% من هذه المقالة لقراءتها. والباقي للمشتركين فقط.

[ad_2]

المصدر