مع التقدم السريع للذكاء الاصطناعي (AI) ودمجه في حياتنا الرقمية اليومية، واكب ذلك مزيج من الإثارة والقلق. ففي حين يعد الذكاء الاصطناعي بإحداث ثورة في الصناعات وتحسين الكفاءة، فإنه يطرح أيضًا مجموعة جديدة من التحديات، لا سيما فيما يتعلق باستغلاله من قبل مجرمي الإنترنت. يسلط تقرير أمني حديث للذكاء الاصطناعي من Check Point، وهي شركة أبحاث في مجال تقنيات البرمجيات، الضوء على هذا التهديد المتنامي، ويكشف كيف يستفيد المتسللون بشكل متزايد من أدوات الذكاء الاصطناعي لتضخيم نطاق وكفاءة وتأثير أنشطتهم الخبيثة.
يؤكد تقرير Check Point، وهو الأول من نوعه، على الحاجة الملحة إلى ضمانات قوية للذكاء الاصطناعي مع استمرار تطور التكنولوجيا. ويشدد التقرير على أن تهديدات الذكاء الاصطناعي لم تعد سيناريوهات افتراضية ولكنها تتطور بنشاط في الوقت الفعلي. ومع تزايد إمكانية الوصول إلى أدوات الذكاء الاصطناعي، يستغل الجهات الخبيثة هذا الوصول بطريقتين رئيسيتين: تعزيز قدراتهم من خلال الذكاء الاصطناعي واستهداف المؤسسات والأفراد الذين يتبنون تقنيات الذكاء الاصطناعي.
إغراء النماذج اللغوية لمجرمي الإنترنت
يراقب مجرمو الإنترنت بجدية الاتجاهات في اعتماد الذكاء الاصطناعي. وكلما تم إطلاق نموذج لغوي كبير جديد (LLM) للجمهور، يسارع هؤلاء الفاعلون بغرض خبيث إلى استكشاف إمكاناته لتحقيق أغراض شريرة. يعتبر ChatGPT و OpenAI API حاليًا من الأدوات المفضلة بين هؤلاء المجرمين، ولكن نماذج أخرى مثل Google Gemini و Microsoft Copilot و Anthropic Claude تكتسب زخمًا مطردًا.
يكمن جاذبية هذه النماذج اللغوية في قدرتها على أتمتة وتوسيع نطاق جوانب مختلفة من الجرائم الإلكترونية، من صياغة رسائل البريد الإلكتروني التصيدية المقنعة إلى إنشاء تعليمات برمجية ضارة. يسلط التقرير الضوء على اتجاه مقلق: تطوير وتداول النماذج اللغوية الخبيثة المتخصصة المصممة خصيصًا للجرائم الإلكترونية، والتي يشار إليها غالبًا باسم "النماذج المظلمة".
صعود نماذج الذكاء الاصطناعي المظلمة
أصبحت النماذج مفتوحة المصدر، مثل DeepSeek و Qwen من Alibaba، جذابة بشكل متزايد لمجرمي الإنترنت بسبب قيود الاستخدام الدنيا وسهولة الوصول إلى المستوى المجاني. توفر هذه النماذج أرضًا خصبة للتجريب والتكيف الخبيث. ومع ذلك، يكشف التقرير عن اتجاه أكثر إثارة للقلق: تطوير وتداول النماذج اللغوية الخبيثة المتخصصة والمصممة خصيصًا للجرائم الإلكترونية. تم تصميم هذه "النماذج المظلمة" لتجاوز الضمانات الأخلاقية ويتم تسويقها علنًا كأدوات اختراق.
أحد الأمثلة سيئة السمعة هو WormGPT، وهو نموذج تم إنشاؤه عن طريق كسر حماية ChatGPT. يمكن لـ WormGPT، الذي يحمل علامة تجارية "أفضل ذكاء اصطناعي للاختراق"، إنشاء رسائل بريد إلكتروني تصيدية وكتابة برامج ضارة وصياغة نصوص هندسة اجتماعية دون أي مرشحات أخلاقية. كما أنها مدعومة بقناة Telegram تقدم اشتراكات وبرامج تعليمية، مما يشير بوضوح إلى تسويق الذكاء الاصطناعي المظلم.
تشمل النماذج المظلمة الأخرى GhostGPT و FraudGPT و HackerGPT، وكل منها مصمم لجوانب متخصصة من الجرائم الإلكترونية. بعضها عبارة عن أغلفة كسر حماية لأدوات رئيسية، بينما البعض الآخر عبارة عن إصدارات معدلة من نماذج مفتوحة المصدر. يتم تقديم هذه النماذج عادةً للبيع أو الإيجار في المنتديات السرية وأسواق الويب المظلم، مما يجعلها في متناول مجموعة واسعة من مجرمي الإنترنت.
منصات الذكاء الاصطناعي المزيفة وتوزيع البرامج الضارة
أدى الطلب على أدوات الذكاء الاصطناعي أيضًا إلى انتشار منصات الذكاء الاصطناعي المزيفة التي تتنكر في صورة خدمات مشروعة ولكنها في الواقع عبارة عن وسائل للبرامج الضارة وسرقة البيانات والاحتيال المالي. أحد هذه الأمثلة هو HackerGPT Lite، المشتبه في كونه موقعًا للتصيد الاحتيالي. وبالمثل، ورد أن بعض مواقع الويب التي تقدم تنزيلات DeepSeek تقوم بتوزيع برامج ضارة.
غالبًا ما تجذب هذه المنصات المزيفة المستخدمين المطمئنين بوعود بقدرات الذكاء الاصطناعي المتقدمة أو الميزات الحصرية. بمجرد تفاعل المستخدم مع النظام الأساسي، قد يتم خداعهم لتنزيل برامج ضارة أو تقديم معلومات حساسة، مثل بيانات اعتماد تسجيل الدخول أو التفاصيل المالية.
أمثلة واقعية للهجمات الإلكترونية التي تدعمها الذكاء الاصطناعي
يسلط تقرير Check Point الضوء على حالة واقعية تتضمن إضافة Chrome ضارة تنتحل صفة ChatGPT والتي تم اكتشافها وهي تسرق بيانات اعتماد المستخدم. بمجرد تثبيته، قام باختطاف ملفات تعريف ارتباط جلسة Facebook، مما يمنح المهاجمين حق الوصول الكامل إلى حسابات المستخدمين - وهو تكتيك يمكن توسيعه بسهولة عبر منصات متعددة.
يسلط هذا الحادث الضوء على المخاطر المرتبطة بإضافات المتصفح التي تبدو غير ضارة وإمكانية هجمات الهندسة الاجتماعية المدعومة بالذكاء الاصطناعي. يمكن لمجرمي الإنترنت استخدام الذكاء الاصطناعي لإنشاء مواقع ويب أو تطبيقات مزيفة مقنعة تحاكي الخدمات المشروعة، مما يجعل من الصعب على المستخدمين التمييز بين الشيء الحقيقي والمحتال الخبيث.
تأثير الذكاء الاصطناعي على نطاق الجرائم الإلكترونية
يضيف تقرير Check Point: "المساهمة الرئيسية لهذه الأدوات المدعومة بالذكاء الاصطناعي هي قدرتها على توسيع نطاق العمليات الإجرامية". "يمكّن النص الذي يتم إنشاؤه بواسطة الذكاء الاصطناعي مجرمي الإنترنت من التغلب على الحواجز اللغوية والثقافية، مما يعزز بشكل كبير قدرتهم على تنفيذ هجمات اتصال متطورة في الوقت الفعلي وغير متصلة بالشبكة."
يسمح الذكاء الاصطناعي لمجرمي الإنترنت بأتمتة المهام التي كانت تستغرق وقتًا طويلاً وتتطلب عمالة مكثفة في السابق. على سبيل المثال، يمكن استخدام الذكاء الاصطناعي لإنشاء آلاف رسائل البريد الإلكتروني التصيدية المخصصة في غضون دقائق، مما يزيد من احتمالية وقوع شخص ما ضحية لعملية الاحتيال.
علاوة على ذلك، يمكن استخدام الذكاء الاصطناعي لتحسين جودة رسائل البريد الإلكتروني التصيدية وهجمات الهندسة الاجتماعية الأخرى. من خلال تحليل بيانات المستخدم وتخصيص الرسالة للمستلم الفردي، يمكن لمجرمي الإنترنت إنشاء عمليات احتيال مقنعة للغاية يصعب اكتشافها.
المشهد التهديدي في كينيا
تثير السلطات الكينية أيضًا ناقوس الخطر بشأن صعود الهجمات الإلكترونية التي تدعمها الذكاء الاصطناعي. في أكتوبر 2024، حذرت هيئة الاتصالات في كينيا (CA) من زيادة في الهجمات الإلكترونية التي تدعمها الذكاء الاصطناعي - حتى مع انخفاض التهديدات الإجمالية بنسبة 41.9 في المائة خلال الربع المنتهي في سبتمبر.
قال ديفيد موجوني، المدير العام للهيئة: "يستخدم مجرمو الإنترنت بشكل متزايد الهجمات التي تدعمها الذكاء الاصطناعي لتعزيز كفاءة عملياتهم وحجمها". "إنهم يستفيدون من الذكاء الاصطناعي والتعلم الآلي لأتمتة إنشاء رسائل البريد الإلكتروني التصيدية وأنواع الهندسة الاجتماعية الأخرى."
وأشار أيضًا إلى أن المهاجمين يستغلون بشكل متزايد الأخطاء في تكوين النظام - مثل المنافذ المفتوحة وعناصر التحكم في الوصول الضعيفة - للحصول على وصول غير مصرح به وسرقة البيانات الحساسة ونشر البرامج الضارة.
كينيا ليست وحدها في مواجهة هذا التهديد. تتصارع دول حول العالم مع تحديات الجرائم الإلكترونية التي تدعمها الذكاء الاصطناعي.
إن سهولة الوصول إلى أدوات الذكاء الاصطناعي والتطور المتزايد للهجمات الإلكترونية يجعل من الصعب على المؤسسات والأفراد حماية أنفسهم.
سباق التسلح لحماية الذكاء الاصطناعي
مع تسارع السباق لاحتضان الذكاء الاصطناعي، يتسارع أيضًا سباق التسلح لحمايته. بالنسبة للمنظمات والمستخدمين على حد سواء، لم يعد اليقظة أمرًا اختياريًا - بل هو أمر حتمي.
للتخفيف من مخاطر الجرائم الإلكترونية التي تدعمها الذكاء الاصطناعي، تحتاج المؤسسات إلى اعتماد نهج أمني متعدد الطبقات يتضمن:
- اكتشاف التهديدات المدعومة بالذكاء الاصطناعي: تنفيذ حلول أمنية قائمة على الذكاء الاصطناعي يمكنها اكتشاف الهجمات التي تدعمها الذكاء الاصطناعي والاستجابة لها في الوقت الفعلي.
- تدريب الموظفين: تثقيف الموظفين حول مخاطر هجمات الهندسة الاجتماعية المدعومة بالذكاء الاصطناعي وتزويدهم بالمهارات اللازمة لتحديد هذه العمليات الاحتيالية وتجنبها.
- عناصر تحكم وصول قوية: تنفيذ عناصر تحكم وصول قوية لمنع الوصول غير المصرح به إلى البيانات والأنظمة الحساسة.
- عمليات تدقيق أمنية منتظمة: إجراء عمليات تدقيق أمنية منتظمة لتحديد ومعالجة الثغرات الأمنية في الأنظمة والبنية التحتية.
- التعاون وتبادل المعلومات: تبادل معلومات التهديدات مع المنظمات الأخرى ومقدمي الخدمات الأمنية لتحسين الدفاع الجماعي ضد الجرائم الإلكترونية التي تدعمها الذكاء الاصطناعي.
- تطوير ونشر الذكاء الاصطناعي بشكل أخلاقي: التأكد من تطوير أنظمة الذكاء الاصطناعي ونشرها بشكل أخلاقي ومسؤول، مع وجود ضمانات لمنع إساءة الاستخدام.
يمكن للأفراد أيضًا اتخاذ خطوات لحماية أنفسهم من الجرائم الإلكترونية التي تدعمها الذكاء الاصطناعي، بما في ذلك:
- الحذر من رسائل البريد الإلكتروني والرسائل غير المرغوب فيها: توخي الحذر عند فتح رسائل البريد الإلكتروني والرسائل من مرسلين غير معروفين، وخاصة تلك التي تحتوي على روابط أو مرفقات.
- التحقق من صحة مواقع الويب والتطبيقات: التأكد من أن مواقع الويب والتطبيقات مشروعة قبل تقديم أي معلومات شخصية.
- استخدام كلمات مرور قوية وتمكين المصادقة متعددة العوامل: حماية الحسابات بكلمات مرور قوية وفريدة وتمكين المصادقة متعددة العوامل كلما أمكن ذلك.
- الحفاظ على تحديث البرامج: تحديث البرامج وأنظمة التشغيل بانتظام لتصحيح الثغرات الأمنية.
- الإبلاغ عن عمليات الاحتيال المشتبه بها: الإبلاغ عن عمليات الاحتيال المشتبه بها إلى السلطات المختصة.
إن مكافحة الجرائم الإلكترونية التي تدعمها الذكاء الاصطناعي هي معركة مستمرة. من خلال البقاء على اطلاع، واعتماد تدابير أمنية قوية، والعمل معًا، يمكن للمؤسسات والأفراد تقليل خطر الوقوع ضحايا لهذه التهديدات المتطورة.