Быстрое развитие и интеграция искусственного интеллекта (ИИ) в нашу повседневную цифровую жизнь вызывают как восторг, так и опасения. Хотя ИИ обещает революционизировать отрасли и повысить эффективность, он также создает новые проблемы, особенно в отношении его эксплуатации киберпреступниками. Недавний отчет по безопасности ИИ от Check Point, исследовательской фирмы в области программных технологий, проливает свет на эту растущую угрозу, показывая, как хакеры все чаще используют инструменты ИИ для увеличения масштаба, эффективности и воздействия своей вредоносной деятельности.
Отчет Check Point, первый в своем роде, подчеркивает острую необходимость в надежных мерах защиты ИИ, поскольку технология продолжает развиваться. В отчете подчеркивается, что угрозы ИИ больше не являются гипотетическими сценариями, а активно развиваются в режиме реального времени. По мере того, как инструменты ИИ становятся все более доступными, злоумышленники используют эту доступность двумя основными способами: расширяя свои возможности с помощью ИИ и нацеливаясь на организации и частных лиц, внедряющих технологии ИИ.
Привлекательность языковых моделей для киберпреступников
Киберпреступники усердно отслеживают тенденции во внедрении ИИ. Всякий раз, когда новая большая языковая модель (LLM) выпускается для публики, эти злоумышленники быстро изучают ее потенциал для гнусных целей. ChatGPT и API OpenAI в настоящее время являются предпочтительными инструментами среди этих преступников, но другие модели, такие как Google Gemini, Microsoft Copilot и Anthropic Claude, неуклонно набирают обороты.
Привлекательность этих языковых моделей заключается в их способности автоматизировать и масштабировать различные аспекты киберпреступности, от создания убедительных фишинговых электронных писем до генерации вредоносного кода. В отчете освещается вызывающая беспокойство тенденция: разработка и торговля специализированными вредоносными LLM, адаптированными специально для киберпреступности, часто называемыми "темными моделями".
Рост темных моделей ИИ
Модели с открытым исходным кодом, такие как DeepSeek и Qwen от Alibaba, становятся все более привлекательными для киберпреступников из-за их минимальных ограничений использования и бесплатного доступа. Эти модели обеспечивают плодородную почву для вредоносных экспериментов и адаптации. Однако отчет показывает более тревожную тенденцию: разработку и торговлю специализированными вредоносными LLM, адаптированными специально для киберпреступности. Эти "темные модели" разработаны для обхода этических гарантий и открыто продаются в качестве инструментов для взлома.
Одним из печально известных примеров является WormGPT, модель, созданная путем взлома ChatGPT. WormGPT, названная "абсолютным ИИ для взлома", может создавать фишинговые электронные письма, писать вредоносное ПО и создавать сценарии социальной инженерии без каких-либо этических фильтров. Она даже поддерживается каналом Telegram, предлагающим подписки и учебные пособия, что явно указывает на коммерциализацию темного ИИ.
Другие темные модели включают GhostGPT, FraudGPT и HackerGPT, каждая из которых предназначена для специализированных аспектов киберпреступности. Некоторые из них - это просто оболочки для джейлбрейка вокруг основных инструментов, в то время как другие являются измененными версиями моделей с открытым исходным кодом. Эти модели обычно предлагаются для продажи или аренды на подпольных форумах и торговых площадках даркнета, что делает их доступными для широкого круга киберпреступников.
Поддельные платформы ИИ и распространение вредоносного ПО
Спрос на инструменты ИИ также привел к распространению поддельных платформ ИИ, которые маскируются под законные сервисы, но на самом деле являются средствами для вредоносного ПО, кражи данных и финансового мошенничества. Одним из таких примеров является HackerGPT Lite, подозреваемый в том, что он является фишинговым сайтом. Аналогичным образом, некоторые веб-сайты, предлагающие загрузку DeepSeek, по сообщениям, распространяют вредоносное ПО.
Эти поддельные платформы часто заманивают ничего не подозревающих пользователей обещаниями расширенных возможностей ИИ или эксклюзивных функций. После того, как пользователь взаимодействует с платформой, его можно обманом заставить загрузить вредоносное ПО или предоставить конфиденциальную информацию, такую как учетные данные для входа или финансовые данные.
Реальные примеры кибератак с использованием ИИ
В отчете Check Point освещается реальный случай с вредоносным расширением Chrome, выдающим себя за ChatGPT, которое было обнаружено при краже учетных данных пользователей. После установки оно перехватывало файлы cookie сеанса Facebook, предоставляя злоумышленникам полный доступ к учетным записям пользователей - тактика, которую можно легко масштабировать на нескольких платформах.
Этот инцидент подчеркивает риски, связанные с кажущимися безвредными расширениями браузера, и потенциал атак социальной инженерии на основе ИИ. Киберпреступники могут использовать ИИ для создания убедительных поддельных веб-сайтов или приложений, которые имитируют законные сервисы, что затрудняет для пользователей различение подлинного и вредоносного имитатора.
Влияние ИИ на масштаб киберпреступности
"Основной вклад этих инструментов на основе ИИ заключается в их способности масштабировать преступные операции", - говорится в отчете Check Point. "Текст, сгенерированный ИИ, позволяет киберпреступникам преодолевать языковые и культурные барьеры, что значительно расширяет их возможности для осуществления сложных атак в режиме реального времени и офлайн-коммуникаций".
ИИ позволяет киберпреступникам автоматизировать задачи, которые ранее были трудоемкими и трудозатратными. Например, ИИ можно использовать для создания тысяч персонализированных фишинговых электронных писем за считанные минуты, что увеличивает вероятность того, что кто-то станет жертвой мошенничества.
Кроме того, ИИ можно использовать для улучшения качества фишинговых электронных писем и других атак социальной инженерии. Анализируя пользовательские данные и адаптируя сообщение к конкретному получателю, киберпреступники могут создавать очень убедительные мошенничества, которые трудно обнаружить.
Ситуация с угрозами в Кении
Кенийские власти также бьют тревогу по поводу роста кибератак с использованием ИИ. В октябре 2024 года Управление связи Кении (CA) предупредило об увеличении числа кибератак с использованием ИИ - даже несмотря на то, что общее количество угроз снизилось на 41,9 процента в течение квартала, закончившегося в сентябре.
"Киберпреступники все чаще используют атаки с использованием ИИ для повышения эффективности и масштаба своих операций", - сказал генеральный директор CA Дэвид Мугони. "Они используют ИИ и машинное обучение для автоматизации создания фишинговых электронных писем и других видов социальной инженерии".
Он также отметил, что злоумышленники все чаще используют ошибочные конфигурации системы - такие как открытые порты и слабые элементы управления доступом - для получения несанкционированного доступа, кражи конфиденциальных данных и развертывания вредоносного ПО.
Кения не одинока в столкновении с этой угрозой. Страны по всему миру борются с проблемами киберпреступности с использованием ИИ.
Доступность инструментов ИИ и растущая сложность кибератак затрудняют защиту для организаций и частных лиц.
Гонка вооружений для защиты ИИ
По мере того, как гонка за внедрение ИИ ускоряется, так же ускоряется и гонка вооружений для его защиты. Для организаций и пользователей бдительность больше не является необязательной - это обязательно.
Чтобы снизить риски киберпреступности с использованием ИИ, организациям необходимо принять многоуровневый подход к безопасности, который включает в себя:
- Обнаружение угроз на основе ИИ: Внедрение решений безопасности на основе ИИ, которые могут обнаруживать атаки с использованием ИИ и реагировать на них в режиме реального времени.
- Обучение сотрудников: Обучение сотрудников рискам атак социальной инженерии на основе ИИ и предоставление им навыков для выявления и предотвращения этих мошенничеств.
- Строгий контроль доступа: Внедрение строгого контроля доступа для предотвращения несанкционированного доступа к конфиденциальным данным и системам.
- Регулярные проверки безопасности: Проведение регулярных проверок безопасности для выявления и устранения уязвимостей в системах и инфраструктуре.
- Сотрудничество и обмен информацией: Обмен разведывательной информацией об угрозах с другими организациями и поставщиками услуг безопасности для улучшения коллективной защиты от киберпреступности с использованием ИИ.
- Этические разработка и развертывание ИИ: Обеспечение того, чтобы системы искусственного интеллекта разрабатывались и развертывались этично и ответственно, с гарантиями предотвращения злоупотреблений.
Частные лица также могут предпринять шаги для защиты себя от киберпреступности с использованием ИИ, в том числе:
- Остерегайтесь нежелательных электронных писем и сообщений: Соблюдайте осторожность при открытии электронных писем и сообщений от неизвестных отправителей, особенно тех, которые содержат ссылки или вложения.
- Проверка подлинности веб-сайтов и приложений: Убедитесь, что веб-сайты и приложения являются легальными, прежде чем предоставлять какую-либо личную информацию.
- Использование надежных паролей и включение многофакторной аутентификации: Защитите учетные записи надежными, уникальными паролями и включите многофакторную аутентификацию, когда это возможно.
- Поддержание актуальности программного обеспечения: Регулярно обновляйте программное обеспечение и операционные системы для исправления уязвимостей безопасности.
- Сообщение о предполагаемых мошенничествах: Сообщение о предполагаемых мошенничествах соответствующим органам власти.
Борьба с киберпреступностью с использованием ИИ - это продолжающаяся битва. Оставаясь информированными, применяя надежные меры безопасности и работая вместе, организации и частные лица могут снизить риск стать жертвами этих развивающихся угроз.