يعبر الأنغوليون عن وجهات نظر مختلطة حول الهجرة ، لكن الغالبية نظروا في الانتقال إلى الخارج

كينيا: يحذر الخبراء من الخبراء الذين يحذرون من الخبراء عن الخطأ البشري الذي يحركه AI

[ad_1]

NAIROBI – يعيد الذكاء الاصطناعي (AI) بسرعة تشكيل مشهد الأمن السيبراني ، مع الاستفادة من كل من المدافعين والمجرمين الإلكترونيين من قدراتها على التفوق على بعضهم البعض. مع احتضان الشركات في جميع أنحاء إفريقيا الرقمنة ، فإن تهديد الهجمات الإلكترونية المحسّنة من الذكاء الاصطناعي ينمو ، ويحذر الخبراء.

يقول آلان جاما ، مهندس الأمن السيبراني في ESET East Africa: “كل ما يعتمد على من يقف وراء لوحة المفاتيح”. “منظمة العفو الدولية نفسها ليست جيدة بطبيعتها ولا سيئة – ولكن لديها القدرة على أن تكون كلاهما. يمكن أن توفر حماية قوية ضد الهجمات الإلكترونية ، ولكن في أيدي المجرمين ، يمكن أن تستغل نقاط الضعف البشرية على نطاق واسع.”

واحدة من أكثر التهديدات المعززة للمنظمة العفوية هي الهندسة الاجتماعية المتقدمة. وفقًا لـ JUMA ، فإن أدوات AI التوليدية مثل ChatGPT تجعل من السهل على مجرمي الإنترنت صياغة رسائل البريد الإلكتروني للتصيد الإلهية التي تحاكي عن كثب المديرين التنفيذيين أو الزملاء الحقيقيين. ويوضح قائلاً: “هذه النماذج هي أيضًا ماهرة في الترجمة ، مما يسمح للمهاجمين بتوسيع نطاق وصولهم إلى مناطق جديدة وبلدان أصغر ذات لهجات متخصصة”.

يستخدم المهاجمون أيضًا الذكاء الاصطناعي لأتمتة مسح الثغرة الأمنية ، مما يزيد من السرعة والمقياس الذي يستغلون فيه نقاط الضعف في أنظمة أمن الشركات. ويشمل ذلك تحديد الحسابات الداخلية المعرضة للخطر ، والتي يستخدمونها بعد ذلك لإرسال رسائل البريد الإلكتروني المخادعة أو إطلاق عمليات الاحتيال على انتحال شخصية DeepFake. مع وجود مديري مديري وموظفي مديري مديري تم إنشاؤه بواسطة AI الذي تم إنشاؤه بواسطة AI ، والذين أصبحوا من خلال الاتصالات المشروعة والمتزالية أمرًا صعبًا بشكل متزايد.

يشدد Juma على أن العنصر البشري لا يزال يمثل ضعفًا كبيرًا. “هناك نسبة مئوية كبيرة من انتهاكات البيانات هي نتيجة للخطأ البشري. يعد التدريب على الوعي بالأمن السيبراني ضروريًا لمكافحة الجرائم الإلكترونية التي تحركها الذكاء الاصطناعي. إن الافتقار إلى المعرفة هو أكبر تهديد للأمن السيبراني في أي عمل تجاري – ويعرف المجرمين الإلكترونيون ذلك.”

اشترك في النشرات الإخبارية المجانية Allafrica

احصل على الأحدث في الأخبار الأفريقية التي يتم تسليمها مباشرة إلى صندوق الوارد الخاص بك

نجاح!

انتهى تقريبا …

نحن بحاجة إلى تأكيد عنوان بريدك الإلكتروني.

لإكمال العملية ، يرجى اتباع الإرشادات الموجودة في البريد الإلكتروني الذي أرسلناه لك للتو.

خطأ!

كانت هناك مشكلة في معالجة تقديمك. يرجى المحاولة مرة أخرى لاحقًا.

يسلط تقرير حديث صادر عن مجموعة Google That Intelligence Group (GTIG) الضوء على كيفية إساءة استخدام مجرمي الإنترنت بالفعل من الذكاء الاصطناعي لأغراض شائنة. وجد سوء الاستخدام العدائي لتقرير الذكاء الاصطناعي ، الذي صدر في أوائل عام 2025 ، أن المجرمين يستخدمون نموذج AI من Google ، Gemini ، للبحث وتوليد المحتوى. ويشمل ذلك تطوير الأشخاص المستهدفين ، وصياغة الرسائل الخادعة ، وتوسيع نطاق وصولهم من خلال الترجمة والتوطين.

في حين أن مجرمي الإنترنت يستغلون الذكاء الاصطناعي ، إلا أنه يلعب أيضًا دورًا مهمًا في الدفاع. تستخدم فرق الأمن أدوات تعتمد على AI لتحليل الأنماط ، والتنبؤ بالتهديدات قبل حدوثها ، وأتمتة الاستجابات للحوادث الإلكترونية-التي تقلل أوقات التفاعل وتخفيف الأضرار المحتملة.

يقول جوما: “في الواقع ، كانت الذكاء الاصطناعى جزءًا من أساليب وبرامج الأمن السيبراني لفترة طويلة – قبل أن تصبح نقطة نقاش كبيرة لعامة الناس”. “هذا يمنحنا ميزة لأن لدينا وقت لدمجها في أنظمتنا. الخطر الآن هو أن اعتماد الذكاء الاصطناعى على نطاق واسع قد أدى إلى الرضا عن النفس.

مع تطور جرائم الإنترنت التي تحركها AI ، يجب على الشركات الاستثمار في كل من تقنيات الأمن المتطورة وتدريب الموظفين الشامل لحماية عملياتها. بدون اتباع نهج استباقي ، تخاطر المنظمات بالوقوع ضحية لهجمات متطورة بشكل متزايد تستغل أضعف ارتباط-خطأ بشري.

[ad_2]

المصدر