AI's donkere kant: Cyberaanvallen met taalmodellen

De snelle vooruitgang en integratie van Artificial Intelligence (AI) in ons dagelijks digitaal leven zijn zowel met enthousiasme als met bezorgdheid onthaald. Hoewel AI belooft om industrieën radicaal te veranderen en de efficiëntie te verbeteren, brengt het ook een nieuwe reeks uitdagingen met zich mee, vooral met betrekking tot de exploitatie ervan door cybercriminelen. Een recent AI-veiligheidsrapport van Check Point, een onderzoeksbureau voor softwaretechnologieën, werpt licht op deze groeiende dreiging en onthult hoe hackers steeds vaker AI-tools inzetten om de schaal, efficiëntie en impact van hun kwaadaardige activiteiten te vergroten.

Het Check Point-rapport, het eerste in zijn soort, onderstreept de dringende behoefte aan robuuste AI-bescherming naarmate de technologie zich blijft ontwikkelen. Het rapport benadrukt dat AI-dreigingen geen hypothetische scenario’s meer zijn, maar zich actief in realtime ontwikkelen. Naarmate AI-tools gemakkelijker toegankelijk worden, exploiteren dreigingsactoren deze toegankelijkheid op twee primaire manieren: het verbeteren van hun mogelijkheden door middel van AI en het richten op organisaties en individuen die AI-technologieën adopteren.

De aantrekkingskracht van taalmodellen voor cybercriminelen

Cybercriminelen houden nauwlettend de trends in AI-adoptie in de gaten. Wanneer er een nieuw large language model (LLM) aan het publiek wordt vrijgegeven, zijn deze kwaadwillende actoren er snel bij om het potentieel ervan voor snode doeleinden te onderzoeken. ChatGPT en de API van OpenAI zijn momenteel favoriete tools onder deze criminelen, maar andere modellen zoals Google Gemini, Microsoft Copilot en Anthropic Claude winnen gestaag aan populariteit.

De aantrekkingskracht van deze taalmodellen ligt in hun vermogen om verschillende aspecten van cybercriminaliteit te automatiseren en op te schalen, van het opstellen van overtuigende phishing-e-mails tot het genereren van kwaadaardige code. Het rapport belicht een zorgwekkende trend: de ontwikkeling en handel in gespecialiseerde kwaadaardige LLM’s die specifiek zijn afgestemd op cybercriminaliteit, vaak aangeduid als "dark models".

De opkomst van Dark AI-modellen

Open-source modellen, zoals DeepSeek en Alibaba’s Qwen, worden steeds aantrekkelijker voor cybercriminelen vanwege hun minimale gebruiksbeperkingen en gratis toegang. Deze modellen bieden een vruchtbare basis voor kwaadaardig experimenteren en aanpassen. Het rapport onthult echter een meer alarmerende trend: de ontwikkeling en handel in gespecialiseerde kwaadaardige LLM’s die specifiek zijn afgestemd op cybercriminaliteit. Deze "dark models" zijn ontworpen om ethische waarborgen te omzeilen en worden openlijk op de markt gebracht als hacking-tools.

Een berucht voorbeeld is WormGPT, een model dat is gemaakt door ChatGPT te jailbreaken. WormGPT wordt aangeprezen als de "ultieme hacking AI" en kan phishing-e-mails genereren, malware schrijven en social engineering-scripts maken zonder ethische filters. Het wordt zelfs ondersteund door een Telegram-kanaal dat abonnementen en tutorials aanbiedt, wat duidelijk wijst op de commercialisering van dark AI.

Andere dark models zijn onder meer GhostGPT, FraudGPT en HackerGPT, elk ontworpen voor gespecialiseerde aspecten van cybercriminaliteit. Sommige zijn eenvoudigweg jailbreak-wrappers rond mainstream tools, terwijl andere aangepaste versies zijn van open-source modellen. Deze modellen worden doorgaans te koop of te huur aangeboden op underground forums en dark web marketplaces, waardoor ze toegankelijk zijn voor een breed scala aan cybercriminelen.

Nep AI-platforms en malwareverspreiding

De vraag naar AI-tools heeft ook geleid tot de proliferatie van nep AI-platforms die zich voordoen als legitieme services, maar in werkelijkheid voertuigen zijn voor malware, datadiefstal en financiële fraude. Een voorbeeld hiervan is HackerGPT Lite, dat wordt verdacht van een phishing-site. Evenzo verspreiden sommige websites die DeepSeek-downloads aanbieden naar verluidt malware.

Deze nep-platforms lokken vaak nietsvermoedende gebruikers met beloften van geavanceerde AI-mogelijkheden of exclusieve functies. Zodra een gebruiker met het platform in contact komt, kunnen ze worden misleid om kwaadaardige software te downloaden of gevoelige informatie te verstrekken, zoals inloggegevens of financiële details.

Real-world voorbeelden van AI-gestuurde cyberaanvallen

Het Check Point-rapport belicht een real-world case met een kwaadaardige Chrome-extensie die zich voordeed als ChatGPT en waarvan werd ontdekt dat deze gebruikersgegevens stal. Eenmaal geïnstalleerd, kaapte het Facebook-sessiecookies, waardoor aanvallers volledige toegang kregen tot gebruikersaccounts - een tactiek die gemakkelijk over meerdere platforms kon worden opgeschaald.

Dit incident onderstreept de risico’s die verbonden zijn aan ogenschijnlijk onschuldige browserextensies en het potentieel voor AI-gestuurde social engineering-aanvallen. Cybercriminelen kunnen AI gebruiken om overtuigende nepwebsites of -applicaties te maken die legitieme services nabootsen, waardoor het voor gebruikers moeilijk wordt om onderscheid te maken tussen het echte werk en een kwaadaardige bedrieger.

AI’s impact op de schaal van cybercriminaliteit

"De primaire bijdrage van deze AI-gestuurde tools is hun vermogen om criminele activiteiten op te schalen", voegt het Check Point-rapport toe. "AI-gegenereerde tekst stelt cybercriminelen in staat om taal- en culturele barrières te overwinnen, waardoor hun vermogen om geavanceerde real-time en offline communicatieaanvallen uit te voeren aanzienlijk wordt vergroot."

AI stelt cybercriminelen in staat om taken te automatiseren die voorheen tijdrovend en arbeidsintensief waren. AI kan bijvoorbeeld worden gebruikt om in enkele minuten duizenden gepersonaliseerde phishing-e-mails te genereren, waardoor de kans groter wordt dat iemand het slachtoffer wordt van de oplichting.

Bovendien kan AI worden gebruikt om de kwaliteit van phishing-e-mails en andere social engineering-aanvallen te verbeteren. Door gebruikersgegevens te analyseren en het bericht af te stemmen op de individuele ontvanger, kunnen cybercriminelen zeer overtuigende scams creëren die moeilijk te detecteren zijn.

Het dreigingslandschap in Kenia

De Keniaanse autoriteiten slaan ook alarm over de opkomst van AI-gestuurde cyberaanvallen. In oktober 2024 waarschuwde de Communications Authority of Kenya (CA) voor een toename van AI-gestuurde cyberaanvallen - zelfs nu de algemene dreigingen met 41,9 procent daalden in het kwartaal dat eindigde in september.

"Cybercriminelen gebruiken steeds vaker AI-gestuurde aanvallen om de efficiëntie en omvang van hun activiteiten te vergroten", aldus CA Director-General David Mugonyi. "Ze maken gebruik van AI en machine learning om het maken van phishing-e-mails en andere vormen van social engineering te automatiseren."

Hij merkte ook op dat aanvallers steeds vaker gebruikmaken van systeemfouten - zoals open poorten en zwakke toegangscontroles - om ongeautoriseerde toegang te krijgen, gevoelige gegevens te stelen en malware te verspreiden.

Kenia staat niet alleen in het licht van deze dreiging. Landen over de hele wereld worstelen met de uitdagingen van AI-gestuurde cybercriminaliteit.

De toegankelijkheid van AI-tools en de toenemende verfijning van cyberaanvallen maken het moeilijker voor organisaties en individuen om zichzelf te beschermen.

De wapenwedloop om AI te beschermen

Naarmate de race om AI te omarmen versnelt, versnelt ook de wapenwedloop om deze te beschermen. Voor organisaties en gebruikers is waakzaamheid niet langer optioneel - het is noodzakelijk.

Om de risico’s van AI-gestuurde cybercriminaliteit te beperken, moeten organisaties een meerlagige beveiligingsaanpak hanteren die het volgende omvat:

  • AI-gestuurde dreigingsdetectie: Implementeren van AI-gebaseerde beveiligingsoplossingen die AI-gestuurde aanvallen in realtime kunnen detecteren en erop kunnen reageren.
  • Medewerkerstraining: Medewerkers voorlichten over de risico’s van AI-gestuurde social engineering-aanvallen en hen de vaardigheden bieden om deze scams te identificeren en te vermijden.
  • Sterke toegangscontroles: Implementeren van sterke toegangscontroles om ongeautoriseerde toegang tot gevoelige gegevens en systemen te voorkomen.
  • Regelmatige beveiligingsaudits: Uitvoeren van regelmatige beveiligingsaudits om kwetsbaarheden in systemen en infrastructuur te identificeren en aan te pakken.
  • Samenwerking en informatie-uitwisseling: Delen van dreigingsinformatie met andere organisaties en beveiligingsproviders om de collectieve verdediging tegen AI-gestuurde cybercriminaliteit te verbeteren.
  • Ethische AI-ontwikkeling en -implementatie: Ervoor zorgen dat AI-systemen ethisch en verantwoordelijk worden ontwikkeld en geïmplementeerd, met waarborgen om misbruik te voorkomen.

Individuen kunnen ook stappen ondernemen om zichzelf te beschermen tegen AI-gestuurde cybercriminaliteit, waaronder:

  • Wees op uw hoede voor ongevraagde e-mails en berichten: Wees voorzichtig bij het openen van e-mails en berichten van onbekende afzenders, vooral die met links of bijlagen.
  • De authenticiteit van websites en applicaties verifiëren: Zorg ervoor dat websites en applicaties legitiem zijn voordat u persoonlijke informatie verstrekt.
  • Sterke wachtwoorden gebruiken en multi-factor authenticatie inschakelen: Accounts beschermen met sterke, unieke wachtwoorden en multi-factor authenticatie inschakelen wanneer mogelijk.
  • Software up-to-date houden: Software en besturingssystemen regelmatig bijwerken om beveiligingslekken te patchen.
  • Vermijd het haasten bij beslissingen. Cybercriminelen creëren vaak een gevoel van urgentie om je overhaast te laten handelen.
  • Verifieer informatie. Vertrouw je inkomende e-mails of berichten niet blindelings.
  • Verbind de puntjes in de gaten. Soms is het een combinatie van informatie die leidt tot een aanval.
  • Verdere analysevereisten stellen. Soms zijn mensen of organisaties die zich met informatie bezighouden zich niet bewust van een deel van het potentieel dreigende terrein.
  • Slang-sprekende versies van je identiteit opsporen. Identiteitsfraude vindt regelmatig in de echte wereld overal plaats om mensen in vertrouwen te nemen voordat ze fraude beginnen te plegen.

De strijd tegen AI-gestuurde cybercriminaliteit is een voortdurende strijd. Door geïnformeerd te blijven, robuuste beveiligingsmaatregelen te nemen en samen te werken, kunnen organisaties en individuen hun risico verkleinen om het slachtoffer te worden van deze evoluerende dreigingen.