پیشرفت سریع و ادغام هوش مصنوعی (AI) در زندگی دیجیتال روزمره ما با هیجان و دلهره همراه بوده است. در حالی که هوش مصنوعی وعده می دهد که صنایع را متحول کند و کارایی را بهبود بخشد، مجموعه جدیدی از چالش ها را نیز ارائه می دهد، به ویژه در مورد سوء استفاده از آن توسط مجرمان سایبری. یک گزارش امنیتی اخیر هوش مصنوعی از Check Point، یک شرکت تحقیقاتی فناوری نرم افزار، این تهدید رو به رشد را روشن می کند و نشان می دهد که چگونه هکرها به طور فزاینده ای از ابزارهای هوش مصنوعی برای تقویت مقیاس، کارایی و تأثیر فعالیت های مخرب خود استفاده می کنند.
گزارش Check Point، اولین نوع خود، بر نیاز فوری به حفاظت های قوی هوش مصنوعی با ادامه تکامل فناوری تأکید می کند. این گزارش تأکید می کند که تهدیدات هوش مصنوعی دیگر سناریوهای فرضی نیستند، بلکه به طور فعال در زمان واقعی در حال تکامل هستند. با در دسترس تر شدن ابزارهای هوش مصنوعی، بازیگران تهدید از این دسترسی به دو روش اصلی سوء استفاده می کنند: افزایش توانایی های خود از طریق هوش مصنوعی و هدف قرار دادن سازمان ها و افرادی که فناوری های هوش مصنوعی را اتخاذ می کنند.
فریب مدل های زبانی برای مجرمان سایبری
مجرمان سایبری به طور جدی روند پذیرش هوش مصنوعی را زیر نظر دارند. هر زمان که یک مدل زبانی بزرگ جدید (LLM) برای عموم منتشر می شود، این بازیگران مخرب به سرعت به بررسی پتانسیل آن برای اهداف شوم می پردازند. ChatGPT و API OpenAI در حال حاضر ابزارهای مورد علاقه در بین این جنایتکاران هستند، اما سایر مدل ها مانند Google Gemini، Microsoft Copilot و Anthropic Claude به طور پیوسته در حال به دست آوردن کشش هستند.
جذابیت این مدل های زبانی در توانایی آنها در خودکارسازی و مقیاس بندی جنبه های مختلف جرایم سایبری، از ساخت ایمیل های فیشینگ متقاعد کننده گرفته تا تولید کد مخرب است. این گزارش یک روند نگران کننده را برجسته می کند: توسعه و تجارت LLM های مخرب تخصصی که به طور خاص برای جرایم سایبری طراحی شده اند، که اغلب به آنها "مدل های تاریک" گفته می شود.
ظهور مدل های هوش مصنوعی تاریک
مدلهای متنباز، مانند DeepSeek و Qwen متعلق به Alibaba، به دلیل حداقل محدودیتهای استفاده و دسترسی به سطح رایگان، بهطور فزایندهای برای مجرمان سایبری جذاب میشوند. این مدلها زمینه حاصلخیزی را برای آزمایش و سازگاری مخرب فراهم میکنند. با این حال، این گزارش یک روند نگرانکنندهتر را آشکار میکند: توسعه و تجارت LLMهای مخرب تخصصی که به طور خاص برای جرایم سایبری طراحی شدهاند. این «مدلهای تاریک» برای دور زدن پادمانهای اخلاقی مهندسی شدهاند و آشکارا به عنوان ابزار هک به بازار عرضه میشوند.
یک نمونه بدنام WormGPT است، مدلی که با جیلبریک ChatGPT ایجاد شده است. WormGPT که به عنوان "نهاییترین هوش مصنوعی هکینگ" شناخته می شود، می تواند ایمیل های فیشینگ ایجاد کند، بدافزار بنویسد و اسکریپت های مهندسی اجتماعی را بدون هیچ فیلتر اخلاقی بسازد. حتی توسط یک کانال تلگرام پشتیبانی می شود که اشتراک ها و آموزش ها را ارائه می دهد، که به وضوح نشان دهنده تجاری سازی هوش مصنوعی تاریک است.
سایر مدل های تاریک شامل GhostGPT، FraudGPT و HackerGPT هستند که هر کدام برای جنبه های تخصصی جرایم سایبری طراحی شده اند. برخی به سادگی بسته بندی های جیلبریک در اطراف ابزارهای اصلی هستند، در حالی که برخی دیگر نسخه های اصلاح شده مدل های متن باز هستند. این مدلها معمولاً برای فروش یا اجاره در انجمنهای زیرزمینی و بازارهای وب تاریک ارائه میشوند و دسترسی آنها را برای طیف گستردهای از مجرمان سایبری فراهم میکنند.
پلتفرم های هوش مصنوعی جعلی و توزیع بدافزار
تقاضا برای ابزارهای هوش مصنوعی همچنین منجر به تکثیر پلتفرم های هوش مصنوعی جعلی شده است که به عنوان خدمات قانونی مبدل می شوند، اما در واقع وسایل نقلیه ای برای بدافزار، سرقت داده ها و کلاهبرداری های مالی هستند. یک نمونه از این دست HackerGPT Lite است که مشکوک به سایت فیشینگ است. به طور مشابه، برخی از وب سایت هایی که دانلودهای DeepSeek را ارائه می دهند، گزارش شده اند که بدافزار توزیع می کنند.
این پلتفرم های جعلی اغلب کاربران سهل انگار را با وعده قابلیت های پیشرفته هوش مصنوعی یا ویژگی های انحصاری فریب می دهند. هنگامی که یک کاربر با پلتفرم تعامل می کند، ممکن است فریب داده شود تا نرم افزارهای مخرب را دانلود کند یا اطلاعات حساس مانند اعتبارنامه های ورود به سیستم یا جزئیات مالی را ارائه دهد.
مثال های واقعی از حملات سایبری فعال شده با هوش مصنوعی
گزارش Check Point یک مورد واقعی را برجسته میکند که شامل یک افزونه مخرب کروم است که به عنوان ChatGPT ظاهر میشود و کشف شد که اعتبارنامه های کاربر را می دزدد. پس از نصب، کوکیهای جلسه فیسبوک را ربود و به مهاجمان دسترسی کامل به حسابهای کاربری داد - تاکتیکی که به راحتی میتواند در چندین پلتفرم مقیاسبندی شود.
این حادثه خطرات مرتبط با افزونههای مرورگر ظاهراً بیضرر و پتانسیل حملات مهندسی اجتماعی مبتنی بر هوش مصنوعی را برجسته میکند. مجرمان سایبری میتوانند از هوش مصنوعی برای ایجاد وبسایتها یا برنامههای جعلی متقاعدکننده استفاده کنند که از خدمات قانونی تقلید میکنند و تشخیص تفاوت بین چیز واقعی و متقلب مخرب را برای کاربران دشوار میکند.
تأثیر هوش مصنوعی بر مقیاس جرایم سایبری
گزارش Check Point می افزاید: "مهم ترین سهم این ابزارهای مبتنی بر هوش مصنوعی، توانایی آنها در مقیاس بندی عملیات جنایی است." "متن تولید شده توسط هوش مصنوعی، مجرمان سایبری را قادر می سازد تا بر موانع زبانی و فرهنگی غلبه کنند و توانایی آنها را برای اجرای حملات ارتباطی پیچیده در زمان واقعی و آفلاین به طور قابل توجهی افزایش می دهد."
هوش مصنوعی به مجرمان سایبری اجازه می دهد تا وظایفی را که قبلاً وقت گیر و پرزحمت بودند، خودکار کنند. به عنوان مثال، از هوش مصنوعی می توان برای تولید هزاران ایمیل فیشینگ شخصی در عرض چند دقیقه استفاده کرد و احتمال اینکه کسی قربانی این کلاهبرداری شود را افزایش داد.
علاوه بر این، از هوش مصنوعی می توان برای بهبود کیفیت ایمیل های فیشینگ و سایر حملات مهندسی اجتماعی استفاده کرد. با تجزیه و تحلیل داده های کاربر و تغییر پیام مطابق با گیرنده، مجرمان سایبری می توانند کلاهبرداری های بسیار قانع کننده ای ایجاد کنند که تشخیص آنها دشوار است.
چشم انداز تهدید در کنیا
مقامات کنیایی نیز در مورد افزایش حملات سایبری فعال شده با هوش مصنوعی زنگ هشدار را به صدا در می آورند. در اکتبر 2024، سازمان ارتباطات کنیا (CA) در مورد افزایش حملات سایبری فعال شده با هوش مصنوعی هشدار داد - حتی با وجود اینکه تهدیدات کلی در سه ماهه منتهی به سپتامبر 41.9 درصد کاهش یافت.
دیوید موگونی، مدیر کل CA گفت: "مجرمان سایبری به طور فزاینده ای از حملات فعال شده با هوش مصنوعی برای افزایش کارایی و عظمت عملیات خود استفاده می کنند." "آنها از هوش مصنوعی و یادگیری ماشین برای خودکارسازی ایجاد ایمیل های فیشینگ و سایر انواع مهندسی اجتماعی استفاده می کنند."
وی همچنین خاطرنشان کرد که مهاجمان به طور فزاینده ای از تنظیمات نادرست سیستم - مانند پورت های باز و کنترل های دسترسی ضعیف - برای به دست آوردن دسترسی غیرمجاز، سرقت داده های حساس و استقرار بدافزار سوء استفاده می کنند.
کنیا در مواجهه با این تهدید تنها نیست. کشورها در سراسر جهان با چالشهای جرایم سایبری ناشی از هوش مصنوعی دست و پنجه نرم میکنند.
دسترسی به ابزارهای هوش مصنوعی و افزایش پیچیدگی حملات سایبری، محافظت از خود را برای سازمان ها و افراد دشوارتر می کند.
مسابقه تسلیحاتی برای محافظت از هوش مصنوعی
همانطور که رقابت برای پذیرش هوش مصنوعی شتاب می گیرد، مسابقه تسلیحاتی برای محافظت از آن نیز افزایش می یابد. برای سازمان ها و کاربران به طور یکسان، هوشیاری دیگر اختیاری نیست - بلکه ضروری است.
برای کاهش خطرات جرایم سایبری ناشی از هوش مصنوعی، سازمان ها باید یک رویکرد امنیتی چند لایه را اتخاذ کنند که شامل موارد زیر است:
- تشخیص تهدید مبتنی بر هوش مصنوعی: اجرای راه حل های امنیتی مبتنی بر هوش مصنوعی که می تواند حملات فعال شده با هوش مصنوعی را در زمان واقعی شناسایی و به آنها پاسخ دهد.
- آموزش کارکنان: آموزش کارکنان در مورد خطرات حملات مهندسی اجتماعی مبتنی بر هوش مصنوعی و مجهز کردن آنها به مهارت های شناسایی و اجتناب از این کلاهبرداری ها.
- کنترل های دسترسی قوی: اجرای کنترل های دسترسی قوی برای جلوگیری از دسترسی غیرمجاز به داده ها و سیستم های حساس.
- بازرسی های امنیتی منظم: انجام بازرسی های امنیتی منظم برای شناسایی و رسیدگی به آسیب پذیری ها در سیستم ها و زیرساخت ها.
- همکاری و تبادل اطلاعات: به اشتراک گذاری اطلاعات تهدید با سایر سازمان ها و ارائه دهندگان امنیتی برای بهبود دفاع جمعی در برابر جرایم سایبری ناشی از هوش مصنوعی.
- توسعه و استقرار اخلاقی هوش مصنوعی: اطمینان از اینکه سیستم های هوش مصنوعی به طور اخلاقی و مسئولانه توسعه و مستقر می شوند، با اقدامات حفاظتی برای جلوگیری از سوء استفاده.
افراد همچنین می توانند اقداماتی را برای محافظت از خود در برابر جرایم سایبری ناشی از هوش مصنوعی انجام دهند، از جمله:
- مراقب ایمیل ها و پیام های ناخواسته باشید: هنگام باز کردن ایمیل ها و پیام ها از فرستندگان ناشناس، به خصوص آنهایی که حاوی لینک یا پیوست هستند، احتیاط کنید.
- تأیید اصالت وب سایت ها و برنامه ها: اطمینان از اینکه وب سایت ها و برنامه ها قبل از ارائه هرگونه اطلاعات شخصی قانونی هستند.
- استفاده از رمزهای عبور قوی و فعال کردن احراز هویت چند عاملی: محافظت از حساب ها با رمزهای عبور قوی و منحصر به فرد و فعال کردن احراز هویت چند عاملی در صورت امکان.
- به روز نگه داشتن نرم افزار: به طور منظم به روز رسانی نرم افزار و سیستم عامل ها برای وصله آسیب پذیری های امنیتی.
- گزارش کلاهبرداری های مشکوک: گزارش کلاهبرداری های مشکوک به مقامات ذیصلاح.
مبارزه با جرایم سایبری ناشی از هوش مصنوعی یک نبرد مداوم است. با آگاه ماندن، اتخاذ اقدامات امنیتی قوی و همکاری، سازمان ها و افراد می توانند خطر قربانی شدن این تهدیدات در حال تحول را کاهش دهند.