L’integrazione rapida e l’avanzamento dell’Intelligenza Artificiale (IA) nella nostra vita digitale quotidiana sono stati accolti sia con entusiasmo che con trepidazione. Mentre l’IA promette di rivoluzionare le industrie e migliorare l’efficienza, presenta anche una nuova serie di sfide, in particolare per quanto riguarda il suo sfruttamento da parte dei criminali informatici. Un recente rapporto sulla sicurezza dell’IA di Check Point, una società di ricerca sulle tecnologie software, fa luce su questa crescente minaccia, rivelando come gli hacker stiano sfruttando sempre più gli strumenti di IA per amplificare la portata, l’efficienza e l’impatto delle loro attività dannose.
Il rapporto di Check Point, il primo del suo genere, sottolinea l’urgente necessità di solide misure di sicurezza dell’IA man mano che la tecnologia continua a evolversi. Il rapporto sottolinea che le minacce dell’IA non sono più scenari ipotetici, ma si stanno evolvendo attivamente in tempo reale. Man mano che gli strumenti di IA diventano più facilmente accessibili, gli attori delle minacce stanno sfruttando questa accessibilità in due modi principali: migliorando le loro capacità attraverso l’IA e prendendo di mira organizzazioni e individui che adottano le tecnologie di IA.
L’Attrattiva dei Modelli Linguistici per i Criminali Informatici
I criminali informatici stanno monitorando diligentemente le tendenze nell’adozione dell’IA. Ogni volta che un nuovo modello linguistico di grandi dimensioni (LLM) viene rilasciato al pubblico, questi attori malintenzionati si affrettano a esplorare il suo potenziale per scopi nefasti. ChatGPT e l’API di OpenAI sono attualmente gli strumenti preferiti tra questi criminali, ma altri modelli come Google Gemini, Microsoft Copilot e Anthropic Claude stanno guadagnando costantemente terreno.
L’attrattiva di questi modelli linguistici risiede nella loro capacità di automatizzare e scalare vari aspetti della criminalità informatica, dalla creazione di e-mail di phishing convincenti alla generazione di codice dannoso. Il rapporto evidenzia una tendenza preoccupante: lo sviluppo e il commercio di LLM dannosi specializzati, realizzati appositamente per la criminalità informatica, spesso chiamati “modelli oscuri”.
L’Ascesa dei Modelli di IA Oscura
I modelli open-source, come DeepSeek e Qwen di Alibaba, stanno diventando sempre più attraenti per i criminali informatici a causa delle loro restrizioni minime sull’utilizzo e dell’accessibilità del livello gratuito. Questi modelli forniscono un terreno fertile per la sperimentazione e l’adattamento dannosi. Tuttavia, il rapporto rivela una tendenza più allarmante: lo sviluppo e il commercio di LLM dannosi specializzati, realizzati appositamente per la criminalità informatica. Questi “modelli oscuri” sono progettati per aggirare le misure di sicurezza etiche e sono apertamente commercializzati come strumenti di hacking.
Un esempio famigerato è WormGPT, un modello creato tramite jailbreak di ChatGPT. Marchiato come la “IA di hacking definitiva”, WormGPT può generare e-mail di phishing, scrivere malware e creare script di ingegneria sociale senza filtri etici. È persino supportato da un canale Telegram che offre abbonamenti e tutorial, a indicare chiaramente la commercializzazione dell’IA oscura.
Altri modelli oscuri includono GhostGPT, FraudGPT e HackerGPT, ciascuno progettato per aspetti specializzati della criminalità informatica. Alcuni sono semplicemente wrapper jailbreak attorno a strumenti tradizionali, mentre altri sono versioni modificate di modelli open-source. Questi modelli sono in genere offerti in vendita o in affitto su forum underground e mercati del dark web, rendendoli accessibili a una vasta gamma di criminali informatici.
Piattaforme di IA False e Distribuzione di Malware
La domanda di strumenti di IA ha anche portato alla proliferazione di piattaforme di IA false che si spacciano per servizi legittimi, ma sono, in realtà, veicoli per malware, furto di dati eFrodi finanziarie. Un esempio di questo tipo è HackerGPT Lite, sospettato di essere un sito di phishing. Allo stesso modo, alcuni siti Web che offrono download di DeepSeek stanno presumibilmente distribuendo malware.
Queste piattaforme false spesso attirano utenti ignari con promesse di funzionalità avanzate di IA o funzionalità esclusive. Una volta che un utente interagisce con la piattaforma, potrebbe essere indotto a scaricare software dannoso o a fornire informazioni sensibili, come credenziali di accesso o dettagli finanziari.
Esempi concreti di attacchi informatici abilitati all’IA
Il rapporto di Check Point evidenzia un caso reale che coinvolge un’estensione dannosa di Chrome che si spacciava per ChatGPT ed è stata scoperta a rubare le credenziali degli utenti. Una volta installata, ha dirottato i cookie di sessione di Facebook, dando agli aggressori l’accesso completo agli account degli utenti: una tattica che potrebbe essere facilmente ampliata su più piattaforme.
Questo incidente sottolinea i rischi associati alle estensioni del browser apparentemente innocue e il potenziale per attacchi di ingegneria sociale basati sull’IA. I criminali informatici possono utilizzare l’IA per creare siti Web o applicazioni falsi convincenti che imitano servizi legittimi, rendendo difficile per gli utenti distinguere tra la cosa reale e un impostore dannoso.
L’impatto dell’IA sulla portata della criminalità informatica
"Il contributo principale di questi strumenti basati sull’IA è la loro capacità di ampliare le operazioni criminali", aggiunge il rapporto di Check Point. "Il testo generato dall’IA consente ai criminali informatici di superare le barriere linguistiche e culturali, migliorando significativamente la loro capacità di eseguire sofisticati attacchi di comunicazione in tempo reale e offline".
L’IA consente ai criminali informatici di automatizzare attività che prima richiedevano tempo e lavoro. Ad esempio, l’IA può essere utilizzata per generare migliaia di e-mail di phishing personalizzate in pochi minuti, aumentando la probabilità che qualcuno cada vittima della truffa.
Inoltre, l’IA può essere utilizzata per migliorare la qualità delle e-mail di phishing e di altri attacchi di ingegneria sociale. Analizzando i dati degli utenti e adattando il messaggio al singolo destinatario, i criminali informatici possono creare truffe altamente convincenti che sono difficili da rilevare.
Il panorama delle minacce in Kenya
Anche le autorità keniote stanno lanciando l’allarme sull’aumento degli attacchi informatici basati sull’IA. Nell’ottobre 2024, la Communications Authority of Kenya (CA) ha avvertito di un aumento degli attacchi informatici abilitati all’IA, anche se le minacce complessive sono diminuite del 41,9% durante il trimestre terminato a settembre.
"I criminali informatici stanno utilizzando sempre più attacchi abilitati all’IA per migliorare l’efficienza e la portata delle loro operazioni", ha dichiarato il direttore generale del CA David Mugonyi. "Sfruttano l’IA e l’apprendimento automatico per automatizzare la creazione di e-mail di phishing e altri tipi di ingegneria sociale".
Ha anche osservato che gli aggressori stanno sfruttando sempre più le errate configurazioni del sistema, come porte aperte e controlli di accesso deboli, per ottenere accesso non autorizzato, rubare dati sensibili e distribuire malware.
Il Kenya non è il solo ad affrontare questa minaccia. I paesi di tutto il mondo stanno affrontando le sfide della criminalità informatica abilitata all’IA.
L’accessibilità degli strumenti di IA e la crescente sofisticazione degli attacchi informatici rendono più difficile per organizzazioni e individui proteggersi.
La corsa agli armamenti per salvaguardare l’IA
Mentre la corsa ad abbracciare l’IA accelera, così fa anche la corsa agli armamenti per salvaguardarla. Per le organizzazioni e gli utenti, la vigilanza non è più facoltativa, ma imperativa.
Per mitigare i rischi della criminalità informatica abilitata all’IA, le organizzazioni devono adottare un approccio di sicurezza a più livelli che includa:
- Rilevamento delle minacce basato sull’IA: Implementazione di soluzioni di sicurezza basate sull’IA in grado di rilevare e rispondere agli attacchi abilitati all’IA in tempo reale.
- Formazione dei dipendenti: Educare i dipendenti sui rischi degli attacchi di ingegneria sociale basati sull’IA e fornire loro le competenze per identificare ed evitare queste truffe.
- Controlli di accesso efficaci: Implementazione di controlli di accesso efficaci per impedire l’accesso non autorizzato a dati e sistemi sensibili.
- Audit di sicurezza regolari: Condurre audit di sicurezza regolari per identificare e risolvere le vulnerabilità nei sistemi e nell’infrastruttura.
- Collaborazione e condivisione di informazioni: Condivisione di informazioni sulle minacce con altre organizzazioni e fornitori di sicurezza per migliorare la difesa collettiva contro la criminalità informatica abilitata all’IA.
- Sviluppo e implementazione etici dell’IA: Garantire che i sistemi di IA siano sviluppati e implementati in modo etico e responsabile, con misure di sicurezza in atto per prevenire l’uso improprio.
Gli individui possono anche adottare misure per proteggersi dalla criminalità informatica abilitata all’IA, tra cui:
- Essere diffidenti nei confronti di e-mail e messaggi non richiesti: Usare cautela quando si aprono e-mail e messaggi da mittenti sconosciuti, in particolare quelli che contengono collegamenti o allegati.
- Verifica dell’autenticità di siti Web e applicazioni: Garantire che siti Web e applicazioni siano legittimi prima di fornire qualsiasi informazione personale.
- Utilizzo di password complesse e abilitazione dell’autenticazione a più fattori: Proteggere gli account con password complesse e univoche e abilitare l’autenticazione a più fattori ogni volta che è possibile.
- Mantenere aggiornato il software: Aggiornare regolarmente software e sistemi operativi per correggere le vulnerabilità della sicurezza.
- Segnalazione di truffe sospette: Segnalazione di truffe sospette alle autorità competenti.
La lotta contro la criminalità informatica abilitata all’IA è una battaglia in corso. Rimanendo informati, adottando solide misure di sicurezza e lavorando insieme, organizzazioni e individui possono ridurre il rischio di diventare vittime di queste minacce in evoluzione. Il continuo sviluppo di modelli di IA e la loro applicazione in contesti sempre più diversificati, rende essenziale una costante valutazione dei rischi e l’adozione di misure di prevenzione proattive. Le aziende dovrebbero investire in sistemi di monitoraggio avanzati, basati su intelligenza artificiale, capaci di individuare anomalie e comportamenti sospetti che potrebbero indicare un tentativo di attacco. Allo stesso tempo, è fondamentale promuovere una cultura della sicurezza informatica tra i dipendenti, attraverso programmi di formazione periodici che li sensibilizzino sui rischi e li forniscano degli strumenti necessari per riconoscere e segnalare potenziali minacce. La collaborazione tra aziende, istituzioni governative e fornitori di sicurezza è un altro elemento chiave per contrastare efficacemente la criminalità informatica abilitata all’IA. Condividere informazioni sulle minacce, sulle tecniche utilizzate dagli aggressori e sulle migliori pratiche di sicurezza, permette di rafforzare le difese collettive e di rispondere in modo più rapido ed efficace agli attacchi. Infine, è importante che i legislatori e le autorità competenti si impegnino a definire un quadro normativo chiaro e aggiornato, che tenga conto delle specificità dell’IA e dei rischi che essa comporta. Questo quadro normativo dovrebbe promuovere l’uso responsabile dell’IA e prevedere sanzioni adeguate per chi la utilizza per scopi criminali.
La sfida della criminalità informatica abilitata all’IA è complessa e in continua evoluzione, ma con un impegno congiunto e una strategia di difesa a più livelli, è possibile ridurre significativamente i rischi e proteggere i dati e le infrastrutture critiche.