Wraz z szybkim postępem i integracją sztucznej inteligencji (AI) w naszym codziennym życiu cyfrowym, pojawiają się zarówno ekscytacja, jak i obawy. O ile AI obiecuje zrewolucjonizowanie branż i poprawę efektywności, o tyle stwarza również nowy zestaw wyzwań, szczególnie w odniesieniu do jej wykorzystania przez cyberprzestępców. Niedawny raport na temat bezpieczeństwa AI firmy Check Point, firmy badawczej zajmującej się technologiami oprogramowania, rzuca światło na to rosnące zagrożenie, ujawniając, w jaki sposób hakerzy coraz częściej wykorzystują narzędzia AI, aby zwiększyć skalę, efektywność i wpływ swoich szkodliwych działań.
Raport Check Point, pierwszy tego rodzaju, podkreśla pilną potrzebę solidnych zabezpieczeń AI w miarę ewolucji technologii. Raport podkreśla, że zagrożenia związane z AI nie są już hipotetycznymi scenariuszami, ale aktywnie ewoluują w czasie rzeczywistym. W miarę jak narzędzia AI stają się bardziej dostępne, podmioty stanowiące zagrożenie wykorzystują tę dostępność na dwa główne sposoby: wzmacniając swoje możliwości poprzez AI i atakując organizacje i osoby wdrażające technologie AI.
Kuszenie Modeli Językowych dla Cyberprzestępców
Cyberprzestępcy pilnie monitorują trendy w zakresie wdrażania AI. Ilekroć nowy duży model językowy (LLM) zostanie udostępniony publicznie, ci złośliwi aktorzy szybko badają jego potencjał do niecnych celów. ChatGPT i API OpenAI są obecnie preferowanymi narzędziami wśród tych przestępców, ale inne modele, takie jak Google Gemini, Microsoft Copilot i Anthropic Claude, stale zyskują na popularności.
Urok tych modeli językowych polega na ich zdolności do automatyzacji i skalowania różnych aspektów cyberprzestępczości, od tworzenia przekonujących wiadomości phishingowych po generowanie złośliwego kodu. Raport podkreśla niepokojący trend: rozwój i handel specjalistycznymi złośliwymi LLM dostosowanymi specjalnie do cyberprzestępczości, często nazywanymi "modelami ciemnymi".
Powstanie Ciemnych Modeli AI
Modele open-source, takie jak DeepSeek i Qwen firmy Alibaba, stają się coraz bardziej atrakcyjne dla cyberprzestępców ze względu na ich minimalne ograniczenia użytkowania i dostępność bezpłatnego poziomu. Modele te stanowią podatny grunt do złośliwych eksperymentów i adaptacji. Jednak raport ujawnia bardziej alarmujący trend: rozwój i handel specjalistycznymi złośliwymi LLM dostosowanymi specjalnie do cyberprzestępczości. Te "ciemne modele" są zaprojektowane tak, aby omijać zabezpieczenia etyczne i są otwarcie sprzedawane jako narzędzia hakerskie.
Jednym z notorycznych przykładów jest WormGPT, model stworzony przez jailbreaking ChatGPT. Markowany jako "najlepsza AI do hakowania", WormGPT może generować wiadomości phishingowe, pisać malware i tworzyć skrypty inżynierii społecznej bez żadnych filtrów etycznych. Jest on nawet wspierany przez kanał Telegram oferujący subskrypcje i samouczki, wyraźnie wskazujące na komercjalizację ciemnej AI.
Inne ciemne modele obejmują GhostGPT, FraudGPT i HackerGPT, każdy przeznaczony do specjalistycznych aspektów cyberprzestępczości. Niektóre są po prostu owijkami jailbreak wokół popularnych narzędzi, podczas gdy inne są zmodyfikowanymi wersjami modeli open-source. Modele te są zazwyczaj oferowane na sprzedaż lub do wynajęcia na podziemnych forach i w mrocznych witrynach internetowych, co czyni je dostępnymi dla szerokiego grona cyberprzestępców.
Fałszywe Platformy AI i Dystrybucja Złośliwego Oprogramowania
Popyt na narzędzia AI doprowadził również do rozprzestrzeniania się fałszywych platform AI, które podszywają się pod legalne usługi, ale w rzeczywistości są nośnikami złośliwego oprogramowania, kradzieży danych i oszustw finansowych. Jednym z takich przykładów jest HackerGPT Lite, podejrzewany o bycie witryną phishingową. Podobnie, niektóre witryny oferujące pobieranie DeepSeek podobno dystrybuują złośliwe oprogramowanie.
Te fałszywe platformy często wabią niczego niepodejrzewających użytkowników obietnicami zaawansowanych możliwości AI lub ekskluzywnych funkcji. Po nawiązaniu kontaktu z platformą użytkownicy mogą zostać podstępem nakłonieni do pobrania złośliwego oprogramowania lub podania poufnych informacji, takich jak dane logowania lub dane finansowe.
Przykłady Cyberataków Wykorzystujących AI w Rzeczywistym Świecie
Raport Check Point podkreśla rzeczywisty przypadek złośliwego rozszerzenia Chrome udającego ChatGPT, które zostało odkryte podczas kradzieży danych uwierzytelniających użytkowników. Po zainstalowaniu przechwytywało ono pliki cookie sesji Facebooka, dając atakującym pełny dostęp do kont użytkowników - taktyka, którą można łatwo skalować na wielu platformach.
Incydent ten podkreśla ryzyko związane z pozornie nieszkodliwymi rozszerzeniami przeglądarek i potencjał ataków socjotechnicznych opartych na AI. Cyberprzestępcy mogą używać AI do tworzenia przekonujących fałszywych witryn internetowych lub aplikacji, które naśladują legalne usługi, utrudniając użytkownikom odróżnienie prawdziwej rzeczy od złośliwego oszusta.
Wpływ AI na Skalę Cyberprzestępczości
"Głównym wkładem tych narzędzi opartych na AI jest ich zdolność do skalowania operacji przestępczych", dodaje raport Check Point. "Teksty generowane przez AI umożliwiają cyberprzestępcom pokonywanie barier językowych i kulturowych, co znacznie zwiększa ich zdolność do przeprowadzania wyrafinowanych ataków komunikacyjnych w czasie rzeczywistym i offline".
AI pozwala cyberprzestępcom automatyzować zadania, które wcześniej były czasochłonne i pracochłonne. Na przykład AI można użyć do wygenerowania tysięcy spersonalizowanych wiadomości phishingowych w ciągu kilku minut, zwiększając prawdopodobieństwo, że ktoś padnie ofiarą oszustwa.
Ponadto, AI można użyć do poprawy jakości wiadomości phishingowych i innych ataków socjotechnicznych. Analizując dane użytkowników i dostosowując wiadomość do indywidualnego odbiorcy, cyberprzestępcy mogą tworzyć wysoce przekonujące oszustwa, które są trudne do wykrycia.
Zagrożenia w Krajobrazie Kenii
Krajowe władze Kenii również biją na alarm w związku ze wzrostem liczby cyberataków opartych na AI. W październiku 2024 r. Urząd ds. Komunikacji Kenii (CA) ostrzegł przed wzrostem liczby cyberataków opartych na AI - nawet pomimo spadku ogólnej liczby zagrożeń o 41,9 procent w kwartale kończącym się we wrześniu.
"Cyberprzestępcy coraz częściej wykorzystują ataki oparte na AI, aby zwiększyć efektywność i skalę swoich operacji", powiedział dyrektor generalny CA, David Mugonyi. "Wykorzystują AI i uczenie maszynowe do automatyzacji tworzenia wiadomości phishingowych i innych rodzajów inżynierii społecznej".
Zauważył również, że atakujący coraz częściej wykorzystują błędne konfiguracje systemów - takie jak otwarte porty i słabe kontrole dostępu - aby uzyskać nieautoryzowany dostęp, kraść poufne dane i wdrażać złośliwe oprogramowanie.
Kenia nie jest osamotniona w obliczu tego zagrożenia. Kraje na całym świecie zmagają się z wyzwaniami związanymi z cyberprzestępczością opartą na AI.
Dostępność narzędzi AI i rosnące wyrafinowanie cyberataków utrudniają organizacjom i osobom fizycznym ochronę.
Wyścig Zbrojeń w celu Zabezpieczenia AI
Wraz z przyspieszeniem wyścigu w kierunku wdrożenia AI, przyspiesza również wyścig zbrojeń w celu jej zabezpieczenia. Dla organizacji i użytkowników czujność nie jest już opcjonalna - jest konieczna.
Aby złagodzić ryzyko związane z cyberprzestępczością opartą na AI, organizacje muszą przyjąć wielowarstwowe podejście do bezpieczeństwa, które obejmuje:
- Wykrywanie zagrożeń oparte na AI: Wdrożenie rozwiązań bezpieczeństwa opartych na AI, które mogą wykrywać ataki oparte na AI i reagować na nie w czasie rzeczywistym.
- Szkolenie pracowników: Edukowanie pracowników na temat ryzyka związanego z atakami socjotechnicznymi opartymi na AI i przekazywanie im umiejętności rozpoznawania tych oszustw i unikania ich.
- Silne kontrole dostępu: Wdrożenie silnych kontroli dostępu, aby zapobiec nieautoryzowanemu dostępowi do poufnych danych i systemów.
- Regularne audyty bezpieczeństwa: Przeprowadzanie regularnych audytów bezpieczeństwa w celu identyfikacji i eliminowania luk w systemach i infrastrukturze.
- Współpraca i wymiana informacji: Dzielenie się informacjami o zagrożeniach z innymi organizacjami i dostawcami usług bezpieczeństwa w celu poprawy zbiorowej obrony przed cyberprzestępczością opartą na AI.
- Etyczny rozwój i wdrażanie AI: Zapewnienie, że systemy AI są rozwijane i wdrażane w sposób etyczny i odpowiedzialny, z zabezpieczeniami zapobiegającymi niewłaściwemu wykorzystaniu.
Osoby fizyczne mogą również podjąć kroki w celu ochrony przed cyberprzestępczością opartą na AI, w tym:
- Zachowywanie ostrożności w przypadku niezamówionych wiadomości e-mail i wiadomości: Zachowywanie ostrożności podczas otwierania wiadomości e-mail i wiadomości od nieznanych nadawców, zwłaszcza tych, które zawierają linki lub załączniki.
- Weryfikowanie autentyczności witryn internetowych i aplikacji: Upewnianie się, że witryny internetowe i aplikacje są legalne przed podaniem jakichkolwiek danych osobowych.
- Używanie silnych haseł i włączanie uwierzytelniania wieloskładnikowego: Zabezpieczanie kont silnymi, unikalnymi hasłami i włączanie uwierzytelniania wieloskładnikowego, gdy tylko jest to możliwe.
- Aktualizowanie oprogramowania: Regularne aktualizowanie oprogramowania i systemów operacyjnych w celu załatania luk w zabezpieczeniach.
- Zgłaszanie podejrzanych oszustw: Zgłaszanie podejrzanych oszustw odpowiednim władzom.
Walka z cyberprzestępczością opartą na AI to nieustanna bitwa. Pozostając na bieżąco, wdrażając solidne środki bezpieczeństwa i współpracując, organizacje i osoby fizyczne mogą zmniejszyć ryzyko stania się ofiarami tych ewoluujących zagrożeń.