قد تطلب أستراليا من شركات التكنولوجيا تصنيف المحتوى الناتج عن منصات الذكاء الاصطناعي مثل ChatGPT

قد تطلب أستراليا من شركات التكنولوجيا تصنيف المحتوى الناتج عن منصات الذكاء الاصطناعي مثل ChatGPT

[ad_1]

يمكن أن يُطلب من شركات التكنولوجيا وضع علامة مائية أو تصنيف المحتوى الناتج عن الذكاء الاصطناعي مثل ChatGPT، حيث تتصارع الحكومة الفيدرالية مع منتجات الذكاء الاصطناعي “عالية الخطورة” التي تتطور بشكل أسرع من التشريعات.

سيصدر وزير الصناعة والعلوم، إد هوسيك، يوم الأربعاء رد الحكومة على عملية التشاور حول الذكاء الاصطناعي الآمن والمسؤول في أستراليا، والذي يستشهد بأبحاث ماكينزي التي تشير إلى أن اعتماد الذكاء الاصطناعي والأتمتة يمكن أن يؤدي إلى زيادة الناتج المحلي الإجمالي لأستراليا بما يصل إلى 600 مليار دولار سنويًا.

ومع ذلك، يشير الرد أيضًا إلى القلق العام بشأن التكنولوجيا، وقال هوسيك إنه بينما أرادت الحكومة أن ترى استمرار ازدهار الاستخدامات “منخفضة المخاطر” للذكاء الاصطناعي، فإن بعض التطبيقات – بما في ذلك السيارات ذاتية القيادة أو البرامج التي تقيم طلبات العمل – تحتاج إلى تطبيقات جديدة وأكثر صرامة. أنظمة.

“يدرك الأستراليون قيمة الذكاء الاصطناعي، لكنهم يريدون رؤية المخاطر التي تم تحديدها ومعالجتها. وقال هوسيك: “لقد سمعنا بصوت عالٍ وواضح أن الأستراليين يريدون حواجز حماية أقوى لإدارة الذكاء الاصطناعي عالي الخطورة”.

تشير الورقة إلى الدراسات الاستقصائية التي تظهر أن ثلث الأستراليين فقط يعتقدون أن هناك “حواجز حماية” كافية لتصميم وتطوير الذكاء الاصطناعي، قائلة: “بينما من المتوقع أن يؤدي الذكاء الاصطناعي إلى تنمية اقتصادنا، هناك ثقة عامة منخفضة في تصميم أنظمة الذكاء الاصطناعي وتطويرها”. ونشرها واستخدامها بشكل آمن ومسؤول.”

تتعهد الاستجابة المؤقتة بأن تقوم الحكومة على الفور بتشكيل مجموعة استشارية من الخبراء بشأن تطوير سياسة الذكاء الاصطناعي، بما في ذلك المزيد من حواجز الحماية؛ تطوير “معيار سلامة الذكاء الاصطناعي” التطوعي كمصدر وحيد للشركات الراغبة في دمج تكنولوجيا الذكاء الاصطناعي في أنظمتها؛ والبدء في التشاور مع الصناعة بشأن تدابير الشفافية الجديدة.

ومن المطروحة أيضًا لمزيد من الدراسة الضمانات الإلزامية بما في ذلك اختبار مخاطر ما قبل النشر واختبار الوقاية من الأضرار للمنتجات الجديدة وتدابير المساءلة مثل معايير التدريب لمطوري البرمجيات.

وتشير ورقة الاستجابة المؤقتة إلى العديد من مجالات الإصلاح لمزيد من عمليات التشاور والمراجعة، مع تعزيز تدابير الشفافية حول الذكاء الاصطناعي ــ مثل إعداد التقارير العامة حول البيانات التي يتم تدريب نموذج الذكاء الاصطناعي عليها ــ وهو أحد الاقتراحات الرئيسية.

وستبدأ الحكومة أيضًا “العمل مع الصناعة” بناءً على مزايا اقتراح آخر – مدونة طوعية بشأن تضمين العلامات المائية أو وضع العلامات على المحتوى الناتج عن الذكاء الاصطناعي.

ستأتي التغييرات بالإضافة إلى العمل الحالي الذي تقوم به الحكومة الفيدرالية، مثل تعهد وزيرة الاتصالات ميشيل رولاند بتغيير قوانين السلامة عبر الإنترنت ومطالبة شركات التكنولوجيا بالقضاء على المواد الضارة التي أنشأها الذكاء الاصطناعي مثل الصور الحميمة المزيفة وخطاب الكراهية. . وتجري أيضًا مراجعات حول استخدام الذكاء الاصطناعي التوليدي في المدارس، ومن خلال الذكاء الاصطناعي في فريق العمل الحكومي.

تخطي ترويج النشرة الإخبارية السابقة

قم بالتسجيل في تحديث بعد الظهر

يُفصّل تحديثنا بعد الظهر في أستراليا القصص الرئيسية لليوم، ويخبرك بما يحدث وسبب أهميته

إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول المؤسسات الخيرية والإعلانات عبر الإنترنت والمحتوى الممول من أطراف خارجية. لمزيد من المعلومات، انظر سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا الإلكتروني وتنطبق سياسة خصوصية Google وشروط الخدمة.

وتحدد الورقة المخاوف المحددة التي أثيرت حول أنظمة الذكاء الاصطناعي “عالية الخطورة” مثل تلك التي “تتنبأ باحتمال عودة الشخص إلى الإجرام، أو مدى ملاءمته لوظيفة، أو تمكين مركبة ذاتية القيادة”. وهذا على النقيض من استخدام الذكاء الاصطناعي “منخفض المخاطر”، مثل البرامج المستخدمة لتصفية رسائل البريد الإلكتروني أو في العمليات التجارية.

تسلط الورقة الضوء أيضًا على المخاوف بشأن أنظمة الذكاء الاصطناعي “الحدودية”. لم يتم ذكر برامج محددة، لكن البحث يقول إن مثل هذه الأنظمة “يمكن أن تولد محتوى جديدًا بسرعة وسهولة”، و”يتم دمجها في مجموعة واسعة من الإعدادات”.

وجاء في التقرير: “تم التأكيد أيضًا على أن خدمات الذكاء الاصطناعي يتم تطويرها ونشرها بسرعة وعلى نطاق يمكن أن يتجاوز قدرة الأطر التشريعية، والتي تم تصميم العديد منها لتكون محايدة من الناحية التكنولوجية”.

أثارت التقديمات مخاوف بشأن ما لا يقل عن 10 مجالات قانونية قد تحتاج إلى إصلاح لمعالجة قضايا الذكاء الاصطناعي بما في ذلك ما إذا كان استخدام الذكاء الاصطناعي لإنشاء التزييف العميق يمكن أن يكون مسؤولاً عن سلوك مضلل أو خادع بموجب قانون المستهلك؛ وما إذا كانت نماذج الذكاء الاصطناعي المستخدمة في الرعاية الصحية يمكن أن تخلق مخاطر بموجب قانون الخصوصية؛ وكيف يمكن استخدام المحتوى الحالي لتدريب نماذج الذكاء الاصطناعي التوليدية – مثل ما إذا كان يؤدي إلى انتهاك حقوق الطبع والنشر، وما إذا كان ينبغي أن تكون هناك حلول لمثل هذا النشاط.

يتم تدريب نماذج الذكاء الاصطناعي التوليدية التي تنشئ محتوى جديدًا، مثل روبوت النص ChatGPT الشهير تجاريًا أو منشئ الصور Dall-E، على المحتوى الحالي. وقد أثار هذا قلقًا واسع النطاق من مصادر هذا المحتوى، من المؤلفين والفنانين إلى وسائل الإعلام، حول كيفية إعادة استخدام أعمالهم الأصلية وما إذا كان يحق لهم الحصول على المال.

ورفعت صحيفة نيويورك تايمز الشهر الماضي دعوى قضائية ضد شركتي OpenAI وMicrosoft بسبب استخدام محتواها لتدريب الذكاء الاصطناعي التوليدي وأنظمة النماذج كبيرة اللغة.

وقال هوسيك: “نريد التفكير الآمن والمسؤول في وقت مبكر عند تصميم الذكاء الاصطناعي وتطويره ونشره”. “نريد أيضًا أن تتحرك الحكومة بشكل أسرع مع التطورات في مجال التكنولوجيا، لذلك قمنا بتعيين هيئة استشارية ستجمع أفضل العقول في مجال الذكاء الاصطناعي معًا لرسم خريطة الطريق للمضي قدمًا في الاستجابات المستقبلية.”

[ad_2]

المصدر