Бързият напредък и интеграцията на Artificial Intelligence (AI) в нашето ежедневие са посрещнати както с вълнение, така и с тревога. Докато AI обещава да революционизира индустриите и да подобри ефективността, той също така представлява нов набор от предизвикателства, особено по отношение на експлоатацията му от киберпрестъпници. Наскорошен доклад за сигурността на AI от Check Point, изследователска фирма за софтуерни технологии, разкрива тази нарастваща заплаха, като показва как хакерите все повече използват AI инструменти, за да увеличат мащаба, ефективността и въздействието на своите злонамерени дейности.
Докладът на Check Point, първи по рода си, подчертава спешната нужда от стабилни AI предпазни мерки, докато технологията продължава да се развива. Докладът подчертава, че AI заплахите вече не са хипотетични сценарии, а активно се развиват в реално време. Тъй като AI инструментите стават все по-лесно достъпни, заплашителните актьори експлоатират тази достъпност по два основни начина: подобряване на техните възможности чрез AI и насочване към организации и лица, приемащи AI технологии.
Привлекателността на езиковите модели за киберпрестъпниците
Киберпрестъпниците старателно следят тенденциите в приемането на AI. Всеки път, когато нов голям езиков модел (LLM) бъде пуснат в публичното пространство, тези злонамерени актьори бързо проучват потенциала му за злонамерени цели. ChatGPT и API на OpenAI са понастоящем предпочитани инструменти сред тези престъпници, но други модели като Google Gemini, Microsoft Copilot и Anthropic Claude постоянно набират популярност.
Привлекателността на тези езикови модели се крие в способността им да автоматизират и мащабират различни аспекти на киберпрестъпността, от създаването на убедителни фишинг имейли до генерирането на злонамерен код. Докладът подчертава тревожна тенденция: разработването и търговията със специализирани злонамерени LLM, пригодени специално за киберпрестъпност, често наричани “тъмни модели”.
Възходът на тъмните AI модели
Моделите с отворен код, като DeepSeek и Qwen на Alibaba, стават все по-привлекателни за мрежовите престъпници, поради своите минимални ограничения за използване и достъпност до безплатни нива. Тези модели осигуряват благодатна почва за злонамерени експерименти и адаптация. Докладът обаче разкрива още по-тревожна тенденция: разработването и търговията със специализирани злонамерени LLM, пригодени специално за киберпрестъпност. Тези „тъмни модели“ са проектирани да заобикалят етичните предпазни мерки и открито се предлагат на пазара като хакерски инструменти.
Един печално известен пример е WormGPT, модел, създаден чрез jailbreaking ChatGPT. Брандиран като „най-добрият AI за хакване", WormGPT може да генерира фишинг имейли, да пише зловреден софтуер и да създава скриптове за социално инженерство без никакви етични филтри. Той дори е подкрепен от Telegram канал, предлагащ абонаменти и уроци, което ясно показва комерсиализацията на тъмния AI.
Други тъмни модели включват GhostGPT, FraudGPTи HackerGPT, всеки от които е предназначен за специализирани аспекти на киберпрестъпността. Някои са просто jailbreak обвивки около основните инструменти, докато други са модифицирани версии на модели с отворен код. Тези модели обикновено се предлагат за продажба или под наем в подземни форуми и тъмни уеб пазари, което ги прави достъпни за широк кръг от киберпрестъпници.
Фалшиви AI платформи и разпространение на зловреден софтуер
Търсенето на AI инструменти доведе и до разпространението на фалшиви AI платформи, които се маскират като легитимни услуги, но в действителност са средства за зловреден софтуер, кражба на данни и финансови измами. Един такъв пример е HackerGPT Lite, за който се подозира, че е фишинг сайт. Подобно на това, някои уебсайтове, предлагащи изтегляния на DeepSeek, според съобщенията разпространяват зловреден софтуер.
Тези фалшиви платформи често привличат нищо неподозиращи потребители с обещания за разширени AI възможности или ексклузивни функции. След като потребителят се ангажира с платформата, той може да бъде подведен да изтегли злонамерен софтуер или да предостави чувствителна информация, като идентификационни данни за вход или финансови данни.
Примери от реалния свят за кибератаки, поддържани от AI
Докладът на Check Point подчертава случай от реалния свят, включващ злонамерено разширение за Chrome, представящо се като ChatGPT, което е открито да краде идентификационни данни на потребители. След като бъде инсталиран, той отвлича бисквитките на Facebook сесии, давайки на нападателите пълен достъп до потребителските акаунти - тактика, която лесно може да бъде мащабирана в множество платформи.
Този инцидент подчертава рисковете, свързани с привидно безобидните разширения на браузъра и потенциала за социално инженерство атаки, задвижвани от AI. Киберпрестъпниците могат да използват AI за създаване на убедителни фалшиви уебсайтове или приложения, които имитират легитимни услуги, което затруднява потребителите да различат истинското нещо от злонамерен самозванец.
Въздействието на AI върху мащаба на киберпрестъпността
„Основният принос на тези управлявани от AI инструменти е способността им да мащабират престъпните операции“, добавя докладът на Check Point. „Генерираният от AI текст позволява на киберпрестъпниците да преодолеят езиковите и културни бариери, което значително подобрява способността им да изпълняват сложни атаки в реално време и офлайн комуникации.“
AI позволява на киберпрестъпниците да автоматизират задачи, които преди това са били отнемащи време и трудоемки. Например, AI може да се използва за генериране на хиляди персонализирани фишинг имейли за минути, което увеличава вероятността някой да стане жертва на измамата.
Освен това, AI може да се използва за подобряване на качеството на фишинг имейлите и други атаки за социално инженерство. Чрез анализиране на потребителски данни и адаптиране на съобщението към отделния получател, киберпрестъпниците могат да създават силно убедителни измами, които трудно се откриват.
Пейзажът на заплахите в Кения
Кенийските власти също бият тревога за нарастването на кибератаките, поддържани от AI. През октомври 2024 г. Комуникационният орган на Кения (CA) предупреди за нарастване на кибератаките, активирани от AI - дори когато общите заплахи спаднаха с 41,9 процента през тримесечието, завършващо през септември.
„Киберпрестъпниците все повече използват атаки, активирани от AI, за да подобрят ефективността и мащаба на своите операции“, каза генералният директор на CA Дейвид Мугони. „Те използват AI и машинно обучение, за да автоматизират създаването на фишинг имейли и други видове социално инженерство."
Той също така отбеляза, че нападателите все повече експлоатират неправилни конфигурации на системата - като отворени портове и слаби контроли за достъп - за да получат неразрешен достъп, да откраднат чувствителни данни и да разположат злонамерен софтуер.
Кения не е сама в справянето с тази заплаха. Страни по целия свят се борят с предизвикателствата на киберпрестъпността, активирана от AI.
Достъпността на AI инструментите и нарастващата сложност на кибератаките затрудняват организациите и лицата да се защитят.
Надпреварата във въоръжаването за защита на AI
Тъй като надпреварата за приемане на AI се ускорява, също така се ускорява и надпреварата във въоръжаването за защита на AI. За организациите и потребителите бдителността вече не е незадължителна - тя е наложителна.
За да се смекчат рисковете от киберпрестъпността, активирана от AI, организациите трябва да приемат многослоен подход за сигурност, който включва:
- AI-захранвано откриване на заплахи: Внедряване на базирани на AI решения за сигурност, които могат да откриват и реагират на атаки, активирани от AI, в реално време.
- Обучение на служителите: Обучение на служителите за рисковете от атаки за социално инженерство, задвижвани от AI, и предоставяне на умения за идентифициране и избягване на тези измами.
- Строг контрол на достъпа: Внедряване на строг контрол на достъпа за предотвратяване на неразрешен достъп до чувствителни данни и системи.
- Редовни одити за сигурност: Провеждане на редовни одити за сигурност за идентифициране и отстраняване на уязвимости в системи и инфраструктура.
- Сътрудничество и споделяне на информация: Споделяне на информация за заплахи с други организации и доставчици на сигурност за подобряване на колективната защита срещу киберпрестъпността, активирана от AI.
- Етично разработване и внедряване на AI: Гарантиране, че AI системите се разработват и внедряват етично и отговорно, с предпазни мерки за предотвратяване на злоупотреби.
Лицата също могат да предприемат стъпки, за да се предпазят от киберпрестъпността, активирана от AI, включително:
- Бъдете предпазливи към нежелани имейли и съобщения: Проявявайте предпазливост при отваряне на имейли и съобщения от неизвестни податели, особено тези, които съдържат връзки или прикачени файлове.
- Проверка на автентичността на уебсайтове и приложения: Гарантиране, че уебсайтовете и приложенията са легитимни, преди да предоставите каквато и да е лична информация.
- Използване на сложни пароли и активиране на многофакторна автентификация: Защита на акаунти със сложни, уникални пароли и активиране на многофакторна автентификация винаги, когато е възможно.
- Поддържане на софтуера актуален: Редовно актуализиране на софтуера и операционните системи, за да се закърпят уязвимостите в сигурността.
- Докладване за съмнителни измами: Докладване за съмнителни измами на съответните органи.
Борбата срещу киберпрестъпността, активирана от AI, е продължаваща битка. Като останат информирани, приемат стабилни мерки за сигурност и работят заедно, организациите и лицата могат да намалят риска да станат жертви на тези развиващи се заплахи.