في حاجة اسمها GhostGPT ظهرت في عالم cyber security، وده يعتبر واحد من التحديات الجديدة اللي بتستخدم AI بطريقة خطيرة. الفكرة إن ده زي ChatGPT، بس معمول مخصوص للناس اللي بتشتغل في Cybercrimes ، وده اللي بيخلي الموضوع مرعب.
الGhostGPT ده بيعمل إيه؟
سرعة عالية: بيخلي الهاكرز يقدروا يولدوا أكواد خبيثة في ثواني.
مفيش تسجيل بيانات: يعني أي حد يستخدمه هيبقى مجهول تمامًا، وده بيشجع الناس اللي بتحب تفضل في الخفاء.
سهولة الوصول: متوفر على تيليجرام، يعني مفيش حاجة معقدة عشان تشغله، حتى لو أنت معندكش خبرة تقنية.
بيستخدموه في إيه؟
1. تطوير البرمجيات الخبيثة: يعني أي هاكر يقدر يولد فيروسات وبرامج اختراق بسهولة.
2. التصيد (Phishing): ممكن يولد إيميلات بتضحك عليك بكل احترافية.
3. هندسة اجتماعية: أتمتة عمليات النصب والحيل السيبرانية.
إيه اللي حصل لما جربوه؟
الباحثين في شركة Abnormal Security طلبوا من GhostGPT يكتب لهم إيميل تصيد على شكل DocuSign (الرسائل اللي بتطلب منك توقيع إلكتروني). النتيجة؟ قالب خطير ومقنع جدًا، ممكن يخدع أي حد مش واخد باله.
ليه الموضوع خطير؟
بيسهل على المبتدئين إنهم يعملوا حاجات كانت قبل كده محتاجة خبرة.
الأدوات التقليدية زي الفايروولز وصعب تكتشف الحاجات اللي معمولة بالذكاء الاصطناعي لأنها شبه كتابات البشر.
بيسمح للهاكرز يعملوا عمليات كبيرة بسرعة رهيبة وأتمتة كل حاجة
الأدوات اللي زيه
ده مش أول واحد يظهر، قبليه كان فيه WormGPT وFraudGPT، وكلهم بيتجهوا لنفس الهدف: استخدام الذكاء الاصطناعي في الجرائم الإلكترونية.
نعمل إيه عشان نحمي نفسنا؟
1. استخدام ذكاء اصطناعي مضاد: زي أدوات بتحلل الأنماط الغريبة وتكتشف النشاطات المشبوهة.
2. ضوابط أخلاقية: لازم المطورين يحطوا قيود تمنع إساءة استخدام الأدوات دي.
3. تشريعات قانونية: الحكومات لازم تنظم الموضوع وتراقب استخدام الأدوات الخطيرة.
4. التوعية: الشركات لازم تعلم موظفيها إزاي يتعرفوا على رسائل التصيد والتهديدات التانية.
ظهور أدوات زي GhostGPT بيأكد إننا داخلين على مرحلة جديدة.