يتنقل المستشارون في الحساسيات التنظيمية في عصر الذكاء الاصطناعي

يتنقل المستشارون في الحساسيات التنظيمية في عصر الذكاء الاصطناعي

[ad_1]

ابق على اطلاع بالتحديثات المجانية

بينما تقوم الشركات في جميع القطاعات بتجربة الذكاء الاصطناعي، يتعرض المستشارون لضغوط لإتقان التكنولوجيا الجديدة التي يستثمر فيها عملاؤهم. ونظرًا لقدرة التكنولوجيا على أتمتة المهام وتحسين الأنظمة وتعزيز الإنتاجية، يقولون إن عصر الذكاء الاصطناعي سيشهد أيضًا تحول استراتيجي في طرق عملهم.

تقول فيونا تشيرنياوسكا، الرئيس التنفيذي لشركة سورس جلوبال، وهي محللة قطاع استشارية، “من المرجح أن يجعل الذكاء الاصطناعي الشركات أكثر كفاءة وربحية”، من خلال مساعدتها على توفير الوقت في جمع البيانات وتحليلها. ثم هناك فرصة السوق من حيث الخدمات التي يمكن للاستشاريين تقديمها. وتشير إلى أن “هناك اهتمامًا من جانب العملاء بالحصول على دعم خارجي في مجالات مثل المسائل الأخلاقية والتنظيم والمسؤولية القانونية”.

وقد بدأت الشركات الاستشارية الكبرى بالفعل في تطوير الأدوات وتدريب الموظفين على استخدام الذكاء الاصطناعي.

أطلقت شركة ماكينزي منصة Lilli، وهي منصة داخلية تقدم “بحثًا وتجميعًا لمخزون المعرفة الهائل لدى الشركة الاستشارية”، بما في ذلك دراسات الحالة والأبحاث السابقة، مما يوفر الوقت للمستشارين لقضائه مع العملاء.

خصصت شركة إي واي 1.4 مليار دولار في منصتها للذكاء الاصطناعي، EY.ai، التي تجمع بين نموذج لغة كبير خاص بها مع تقنيات أخرى وخبرة بشرية لمساعدة العملاء على تبني الذكاء الاصطناعي – إلى جانب أداة الدردشة الداخلية وتدريب الموظفين. وفي الوقت نفسه، تعمل شركة KPMG مع Microsoft لتطوير أدوات الذكاء الاصطناعي لموظفيها وعملائها.

حتى الآن، قامت شركات الاستشارات – في الأغلب الأعم – بتجربة هذه الأدوات، كما تقول تشيرنياوسكا. لكنها تؤكد على ضرورة أن يكونوا واضحين بشأن سياساتهم المتعلقة باستخدام الذكاء الاصطناعي.

وقد يشمل ذلك إنشاء “ميثاق الذكاء الاصطناعي” أو دليل، على سبيل المثال، لتوجيه الموظفين حول كيفية التعامل مع الذكاء الاصطناعي بما يتماشى مع أخلاقيات الشركة وقيمها. تقول الشركات الاستشارية إنها تقوم ببناء مثل هذه الأطر لمساعدة مؤسساتها على التغلب على المخاطر التنظيمية ومخاطر السمعة – ويمكنها أن تفعل الشيء نفسه بالنسبة للعملاء.

لقد أصبحت هذه المهمة أكثر إلحاحا مع تحرك الحكومات لتعزيز تنظيمها للذكاء الاصطناعي. سعت المملكة المتحدة إلى أن تصبح رائدة عالميًا في مجال التكنولوجيا، وأطلقت مشاورة بشأن الورقة البيضاء الخاصة بتنظيم الذكاء الاصطناعي، والتي تحدد مقترحات تنظيمية “ملائمة للمستقبل” و”مؤيدة للابتكار”.

وفي الاتحاد الأوروبي، في ديسمبر/كانون الأول، اتفقت الدول الأعضاء على شروط قانون الذكاء الاصطناعي التاريخي، والذي سيفرض، عندما يدخل حيز التنفيذ ــ ربما في عام 2026 ــ قواعد صارمة على شركات التكنولوجيا التي تُستخدم أدواتها في أوروبا.

المزيد من القصص من هذا التقرير

وفي الولايات المتحدة، أصدر الرئيس جو بايدن أمرًا تنفيذيًا بشأن الذكاء الاصطناعي العام الماضي بهدف مماثل.

يقول تشيرنياوسكا: “إن صناعة الاستشارات ليست دائمًا شفافة جدًا بشأن الطريقة التي تعمل بها، ولكن هذا مجال حيث ستكون الشفافية (حول كيفية استخدام الذكاء الاصطناعي) أمرًا مهمًا للغاية”.

يعد استخدام أدوات الذكاء الاصطناعي للبحث عن المعلومات أمرًا واحدًا. ولكن إلى أي مدى يجب أن تكون الشركات صريحة فيما يتعلق باستخدام التكنولوجيا لكتابة تقارير العملاء، على سبيل المثال؟ وفقا لبحث أجرته Source Global ونشر في ديسمبر، قال 35 في المائة من العملاء إنهم يريدون أن تكون الشركات منفتحة بشأن أجزاء التقرير التي تم إنتاجها بواسطة الذكاء الاصطناعي. وعندما سئلوا عما إذا كانوا رأوا أي مشاكل تنظيمية عند شراء الأعمال التي تم إنشاؤها بواسطة الذكاء الاصطناعي من الشركات الاستشارية، أشار 43 في المائة أيضًا إلى مخاوف بشأن حماية البيانات والخصوصية.

هذا هو المجال الذي سيكون فيه الشفافية (حول كيفية استخدام الذكاء الاصطناعي) أمرًا مهمًا للغاية

الشركات على دراية بمخاطر البرامج المعيبة التي يمكن أن ترتكب أخطاء مكلفة. في شهر يناير، على سبيل المثال، قام برنامج الدردشة الآلي التابع لشركة تسليم الطرود DPD بتأليف قصيدة لأحد العملاء حول مدى “عدم فائدة” خدمة التوصيل، قبل تعطيلها.

يقول إميل نوس، الشريك البريطاني في شركة BearingPoint الاستشارية، إن هناك حاليًا الكثير من تطبيقات النماذج اللغوية الكبيرة التي تختبرها الشركات بنشاط.

ويوضح أنه على نطاق واسع، هناك روبوتات دردشة “عامة” وروبوتات دردشة “متخصصة”. يقول ناوس إن الخطأ الفادح الذي ارتكبته شركة DPD لروبوتات الدردشة يرجع جزئيًا إلى تدريبها على عينة معلومات واسعة، مثل روبوتات الدردشة العامة، في حين أن روبوتات الدردشة المتخصصة، التي يتم تدريبها على بيانات مختارة داخليًا، تكون أكثر أمانًا.

تقول كاتريونا كامبل، مسؤولة التكنولوجيا والابتكار للعملاء في EY في المملكة المتحدة وإيرلندا: “مثل أي تقنية جديدة، تشكل منتجات الذكاء الاصطناعي مخاطر – الكثير منها لا يقتصر على الذكاء الاصطناعي، ولكنه متسق عبر مجموعة التكنولوجيا الخاصة بالمؤسسة، مثل مخاطر الطرف الثالث والمخاطر السيبرانية.”

وتقول إن المخاطر الأكثر تحديدًا للذكاء الاصطناعي تنشأ من الطبيعة التكيفية للتقنيات الخوارزمية التي تقوم عليها الأدوات، مثل “عندما يتم تقديم التحيز خلال مرحلة النمذجة من خلال الارتباطات غير الصحيحة المستمدة من البيانات”.

وللتخفيف من هذه المخاطر، تتجه بعض الشركات الاستشارية نحو اتباع نهج قائم على المبادئ. يقول كامبل إن استراتيجية EY هي تقييم “التحديات الأمنية والمشهد التنظيمي المتنوع”، إلى جانب المخاطر الأخلاقية.

[ad_2]

المصدر