[ad_1]
تستحوذ Chatbots على خط دفاع رئيسي ضد رسائل البريد الإلكتروني الاحتيالية عن طريق إزالة الأخطاء النحوية والإملائية الصارخة، وفقًا للخبراء.
ويأتي هذا التحذير في الوقت الذي تصدر فيه منظمة الشرطة يوروبول استشارة دولية حول الاستخدام الإجرامي المحتمل لـ ChatGPT وغيره من “نماذج اللغات الكبيرة”.
تعد رسائل البريد الإلكتروني التصيدية سلاحًا معروفًا لمجرمي الإنترنت حيث تخدع المستلمين للنقر على رابط يقوم بتنزيل برامج ضارة أو تخدعهم لتسليم تفاصيل شخصية مثل كلمات المرور أو الأرقام السرية.
أبلغ نصف البالغين في إنجلترا وويلز عن تلقيهم رسائل بريد إلكتروني للتصيد الاحتيالي في العام الماضي، وفقًا لمكتب الإحصاءات الوطنية، في حين حددت الشركات في المملكة المتحدة محاولات التصيد الاحتيالي باعتبارها الشكل الأكثر شيوعًا للتهديدات السيبرانية.
ومع ذلك، يتم تصحيح الخلل الأساسي في بعض محاولات التصيد الاحتيالي – سوء التدقيق الإملائي والنحوي – بواسطة روبوتات الدردشة ذات الذكاء الاصطناعي (AI)، والتي يمكنها تصحيح الأخطاء التي تؤدي إلى تصفية البريد العشوائي أو تنبيه القراء البشريين.
يقول كوري توماس، الرئيس التنفيذي لشركة Rapid7 الأمريكية للأمن السيبراني: “يمكن لكل متسلل الآن استخدام الذكاء الاصطناعي الذي يتعامل مع جميع الأخطاء الإملائية والنحوية الضعيفة”. “إن فكرة أنه يمكنك الاعتماد على البحث عن القواعد النحوية أو الإملائية السيئة من أجل اكتشاف هجوم التصيد الاحتيالي لم تعد موجودة. اعتدنا أن نقول أنه يمكنك التعرف على هجمات التصيد الاحتيالي لأن رسائل البريد الإلكتروني تبدو بطريقة معينة. وهذا لم يعد يعمل.”
تشير البيانات إلى أن ChatGPT، الرائد في السوق والذي أثار ضجة كبيرة بعد إطلاقه العام الماضي، يُستخدم في جرائم الإنترنت، مع ظهور “نماذج اللغات الكبيرة” (LLM) التي حصلت على أحد تطبيقاتها التجارية الكبيرة الأولى في صياغة البرمجيات الخبيثة. الاتصالات الخبيثة.
تشير البيانات الواردة من خبراء الأمن السيبراني في شركة Darktrace البريطانية إلى أن رسائل البريد الإلكتروني التصيدية تتم كتابتها بشكل متزايد بواسطة الروبوتات، مما يسمح للمجرمين بالتغلب على اللغة الإنجليزية الضعيفة وإرسال رسائل أطول تقل احتمالية اكتشافها بواسطة مرشحات البريد العشوائي.
منذ أن أصبح ChatGPT سائدًا في العام الماضي، انخفض الحجم الإجمالي لعمليات الاحتيال عبر البريد الإلكتروني الضارة التي تحاول خداع المستخدمين للنقر على رابط، وتم استبدالها برسائل بريد إلكتروني أكثر تعقيدًا لغويًا، وفقًا لمراقبة Darktrace. يشير ذلك إلى أن عددًا كبيرًا من المحتالين الذين يقومون بصياغة رسائل التصيد الاحتيالي ورسائل البريد الإلكتروني الضارة الأخرى قد اكتسبوا بعض القدرة على صياغة نثر أطول وأكثر تعقيدًا، كما يقول ماكس هاينماير، كبير مسؤولي المنتجات في الشركة – على الأرجح حاصل على ماجستير في إدارة الأعمال مثل ChatGPT أو ما شابه ذلك.
وقال هاينماير: “حتى لو قال أحدهم: لا تقلق بشأن ChatGPT، فسيتم تسويقه تجاريًا، حسنًا، لقد خرج الجني من القمقم”. “ما نعتقد أن له تأثيرًا فوريًا على مشهد التهديدات هو أن هذا النوع من التكنولوجيا يتم استخدامه من أجل هندسة اجتماعية أفضل وأكثر قابلية للتطوير: يتيح لك الذكاء الاصطناعي صياغة رسائل بريد إلكتروني “التصيد الاحتيالي” المعقولة للغاية وغيرها من الاتصالات المكتوبة مع القليل جدًا من المعلومات”. الجهد المبذول، خاصة بالمقارنة مع ما كان عليك القيام به من قبل.”
تخطي ترويج النشرة الإخبارية السابقة
يغوص Alex Hern الأسبوعي في كيفية تشكيل التكنولوجيا لحياتنا
إشعار الخصوصية: قد تحتوي النشرات الإخبارية على معلومات حول المؤسسات الخيرية والإعلانات عبر الإنترنت والمحتوى الممول من أطراف خارجية. لمزيد من المعلومات، انظر سياسة الخصوصية الخاصة بنا. نحن نستخدم Google reCaptcha لحماية موقعنا الإلكتروني وتنطبق سياسة خصوصية Google وشروط الخدمة.
بعد الترويج للنشرة الإخبارية
قال هاينماير إن “التصيد بالحربة”، وهو اسم رسائل البريد الإلكتروني التي تحاول إقناع هدف معين بالتخلي عن كلمات المرور أو غيرها من المعلومات الحساسة، قد يكون من الصعب على المهاجمين صياغتها بشكل مقنع، لكن شهادات الماجستير في القانون مثل ChatGPT تجعل الأمر سهلاً. “يمكنني فقط الزحف إلى الوسائط الاجتماعية الخاصة بك ووضعها على GPT، مما يؤدي إلى إنشاء بريد إلكتروني مخصص بشكل رائع. حتى لو لم أكن على دراية كبيرة باللغة الإنجليزية، يمكنني صياغة شيء لا يمكن تمييزه عن الإنسان.
وفي تقرير يوروبول الاستشاري، سلطت المنظمة الضوء على مجموعة مماثلة من المشاكل المحتملة الناجمة عن ظهور روبوتات الدردشة المعتمدة على الذكاء الاصطناعي، بما في ذلك الاحتيال والهندسة الاجتماعية والمعلومات المضللة والجرائم الإلكترونية. وأضافت أن الأنظمة مفيدة أيضًا لتوجيه المجرمين المحتملين عبر الخطوات الفعلية المطلوبة لإيذاء الآخرين. “إن إمكانية استخدام النموذج لتقديم خطوات محددة من خلال طرح أسئلة سياقية تعني أنه من الأسهل بكثير على الجهات الفاعلة الضارة أن تفهم بشكل أفضل أنواعًا مختلفة من الجرائم وتنفذها لاحقًا.”
هذا الشهر، ذكر تقرير صادر عن شركة Check Point، وهي شركة أمريكية إسرائيلية للأمن السيبراني، أنها استخدمت أحدث إصدار من ChatGPT لإنتاج بريد إلكتروني تصيدي يبدو ذا مصداقية. لقد تحايل على إجراءات السلامة الخاصة ببرنامج الدردشة الآلية من خلال إخبار الأداة بأنها بحاجة إلى نموذج لرسالة بريد إلكتروني تصيدية لبرنامج توعية الموظفين.
انضمت Google أيضًا إلى سباق chatbot، حيث أطلقت منتجها Bard في المملكة المتحدة والولايات المتحدة الأسبوع الماضي. عندما طلبت منه صحيفة الغارديان صياغة رسالة بريد إلكتروني لإقناع شخص ما بالضغط على رابط يبدو ضارًا، امتثل بارد عن طيب خاطر إذا كان يفتقر إلى الدقة: “أكتب إليك اليوم لأشارك رابطًا لمقال أعتقد أنك ستجده مثيرًا للاهتمام”.
وفي اتصال مع صحيفة الغارديان، أشارت جوجل إلى سياسة “الاستخدام المحظور” الخاصة بالذكاء الاصطناعي، والتي تنص على أنه يجب على المستخدمين عدم استخدام نماذج الذكاء الاصطناعي الخاصة بها لإنشاء محتوى “للأنشطة الخادعة أو الاحتيالية، أو عمليات الاحتيال، أو التصيد الاحتيالي، أو البرامج الضارة”.
تم الاتصال بـ OpenAI، منشئ ChatGPT، للتعليق. تنص شروط استخدام الشركة على أنه “لا يجوز للمستخدمين (1) استخدام الخدمات بطريقة تنتهك حقوق أي شخص أو تختلسها أو تنتهكها”.
[ad_2]
المصدر