Le côté obscur de l'IA : Cyberattaques

L’avancement rapide et l’intégration de l’Intelligence Artificielle (IA) dans nos vies numériques quotidiennes ont suscité à la fois enthousiasme et appréhension. Alors que l’IA promet de révolutionner les industries et d’améliorer l’efficacité, elle présente également un nouvel ensemble de défis, notamment en ce qui concerne son exploitation par les cybercriminels. Un récent rapport sur la sécurité de l’IA de Check Point, une entreprise de recherche en technologies logicielles, met en lumière cette menace croissante, révélant comment les pirates exploitent de plus en plus les outils d’IA pour amplifier l’échelle, l’efficacité et l’impact de leurs activités malveillantes.

Le rapport de Check Point, le premier du genre, souligne le besoin urgent de solides protections d’IA à mesure que la technologie continue d’évoluer. Le rapport souligne que les menaces de l’IA ne sont plus des scénarios hypothétiques, mais évoluent activement en temps réel. À mesure que les outils d’IA deviennent plus facilement accessibles, les acteurs malveillants exploitent cette accessibilité de deux manières principales : en améliorant leurs capacités grâce à l’IA et en ciblant les organisations et les individus qui adoptent les technologies d’IA.

L’Attrait des modèles linguistiques pour les cybercriminels

Les cybercriminels surveillent avec diligence les tendances en matière d’adoption de l’IA. Chaque fois qu’un nouveau grand modèle linguistique (LLM) est publié au public, ces acteurs malveillants s’empressent d’explorer son potentiel à des fins néfastes. ChatGPT et l’API d’OpenAI sont actuellement les outils préférés de ces criminels, mais d’autres modèles comme Google Gemini, Microsoft Copilot et Anthropic Claude gagnent régulièrement du terrain.

L’attrait de ces modèles linguistiques réside dans leur capacité à automatiser et à mettre à l’échelle divers aspects de la cybercriminalité, de la création de courriels d’hameçonnage convaincants à la génération de code malveillant. Le rapport souligne une tendance inquiétante : le développement et le commerce de LLM malveillants spécialisés, conçus spécifiquement pour la cybercriminalité, souvent appelés « modèles sombres ».

L’essor des modèles d’IA sombres

Les modèles open source, tels que DeepSeek et Qwen d’Alibaba, deviennent de plus en plus attrayants pour les cybercriminels en raison de leurs restrictions d’utilisation minimales et de leur accessibilité au niveau gratuit. Ces modèles offrent un terrain fertile pour l’expérimentation et l’adaptation malveillantes. Cependant, le rapport révèle une tendance plus alarmante : le développement et le commerce de LLM malveillants spécialisés, conçus spécifiquement pour la cybercriminalité. Ces « modèles sombres » sont conçus pour contourner les protections éthiques et sont ouvertement commercialisés comme outils de piratage.

Un exemple notoire est WormGPT, un modèle créé en débridant ChatGPT. Présenté comme « l’IA de piratage ultime », WormGPT peut générer des courriels d’hameçonnage, écrire des logiciels malveillants et créer des scripts d’ingénierie sociale sans aucun filtre éthique. Il est même soutenu par un canal Telegram offrant des abonnements et des tutoriels, indiquant clairement la commercialisation de l’IA sombre.

Les autres modèles sombres incluent GhostGPT, FraudGPT et HackerGPT, chacun étant conçu pour des aspects spécialisés de la cybercriminalité. Certains sont simplement des wrappers de jailbreak autour des outils grand public, tandis que d’autres sont des versions modifiées de modèles open source. Ces modèles sont généralement proposés à la vente ou à la location sur des forums clandestins et des marchés du dark web, ce qui les rend accessibles à un large éventail de cybercriminels.

Faux plateformes d’IA et distribution de logiciels malveillants

La demande d’outils d’IA a également conduit à la prolifération de fausses plateformes d’IA qui se font passer pour des services légitimes, mais qui sont en réalité des véhicules pour les logiciels malveillants, le vol de données et la fraude financière. Un exemple est HackerGPT Lite, soupçonné d’être un site d’hameçonnage. De même, certains sites Web proposant des téléchargements de DeepSeek distribueraient des logiciels malveillants.

Ces fausses plateformes attirent souvent les utilisateurs peu méfiants avec des promesses de capacités d’IA avancées ou de fonctionnalités exclusives. Une fois qu’un utilisateur interagit avec la plateforme, il peut être amené à télécharger des logiciels malveillants ou à fournir des informations sensibles, telles que des informations d’identification ou des informations financières.

Exemples concrets de cyberattaques basées sur l’IA

Le rapport de Check Point met en évidence un cas réel impliquant une extension Chrome malveillante se faisant passer pour ChatGPT qui a été découverte en train de voler les informations d’identification des utilisateurs. Une fois installée, elle a détourné les cookies de session Facebook, donnant aux attaquants un accès complet aux comptes des utilisateurs – une tactique qui pourrait facilement être étendue à plusieurs plateformes.

Cet incident souligne les risques associés aux extensions de navigateur apparemment inoffensives et le potentiel des attaques d’ingénierie sociale basées sur l’IA. Les cybercriminels peuvent utiliser l’IA pour créer de faux sites Web ou applications convaincants qui imitent des services légitimes, ce qui rend difficile pour les utilisateurs de faire la distinction entre la réalité et un imposteur malveillant.

L’impact de l’IA sur l’ampleur de la cybercriminalité

“La principale contribution de ces outils basés sur l’IA est leur capacité à mettre à l’échelle les opérations criminelles”, ajoute le rapport de Check Point. “Le texte généré par l’IA permet aux cybercriminels de surmonter les barrières linguistiques et culturelles, améliorant considérablement leur capacité à exécuter des attaques sophistiquées de communication en temps réel et hors ligne.”

L’IA permet aux cybercriminels d’automatiser des tâches qui étaient auparavant longues et à forte intensité de main-d’œuvre. Par exemple, l’IA peut être utilisée pour générer des milliers de courriels d’hameçonnage personnalisés en quelques minutes, augmentant ainsi la probabilité que quelqu’un soit victime de l’escroquerie.

De plus, l’IA peut être utilisée pour améliorer la qualité des courriels d’hameçonnage et autres attaques d’ingénierie sociale. En analysant les données des utilisateurs et en adaptant le message au destinataire individuel, les cybercriminels peuvent créer des escroqueries très convaincantes qui sont difficiles à détecter.

Le paysage des menaces au Kenya

Les autorités kenyanes tirent elles aussi la sonnette d’alarme face à la montée des cyberattaques basées sur l’IA. En octobre 2024, l’Autorité des communications du Kenya (CA) a mis en garde contre une augmentation des cyberattaques basées sur l’IA – même si les menaces générales ont chuté de 41,9 % au cours du trimestre se terminant en septembre.

“Les cybercriminels utilisent de plus en plus des attaques basées sur l’IA pour améliorer l’efficacité et l’ampleur de leurs opérations”, a déclaré le directeur général de la CA, David Mugonyi. “Ils exploitent l’IA et l’apprentissage automatique pour automatiser la création de courriels d’hameçonnage et d’autres types d’ingénierie sociale.”

Il a également noté que les attaquants exploitent de plus en plus les erreurs de configuration du système – telles que les ports ouverts et les contrôles d’accès faibles – pour obtenir un accès non autorisé, voler des données sensibles et déployer des logiciels malveillants.

Le Kenya n’est pas le seul à faire face à cette menace. Les pays du monde entier sont aux prises avec les défis de la cybercriminalité basée sur l’IA.

L’accessibilité des outils d’IA et la sophistication croissante des cyberattaques rendent plus difficile pour les organisations et les individus de se protéger.

La course aux armements pour protéger l’IA

Alors que la course à l’adoption de l’IA s’accélère, la course aux armements pour la protéger s’accélère également. Pour les organisations comme pour les utilisateurs, la vigilance n’est plus facultative – elle est impérative.

Pour atténuer les risques de la cybercriminalité basée sur l’IA, les organisations doivent adopter une approche de sécurité multicouche qui comprend :

  • Détection des menaces basée sur l’IA : Mise en œuvre de solutions de sécurité basées sur l’IA qui peuvent détecter et répondre aux attaques basées sur l’IA en temps réel.
  • Formation des employés : Sensibilisation des employés aux risques des attaques d’ingénierie sociale basées sur l’IA et leur fourniture des compétences nécessaires pour identifier et éviter ces escroqueries.
  • Contrôles d’accès stricts : Mise en œuvre de contrôles d’accès stricts pour empêcher l’accès non autorisé aux données et aux systèmes sensibles.
  • Audits de sécurité réguliers : Réalisation d’audits de sécurité réguliers pour identifier et corriger les vulnérabilités des systèmes et de l’infrastructure.
  • Collaboration et partage d’informations : Partage des informations sur les menaces avec d’autres organisations et fournisseurs de sécurité afin d’améliorer la défense collective contre la cybercriminalité basée sur l’IA.
  • Développement et déploiement éthiques de l’IA : Veiller à ce que les systèmes d’IA soient développés et déployés de manière éthique et responsable, avec des protections en place pour empêcher toute utilisation abusive.

Les individus peuvent également prendre des mesures pour se protéger de la cybercriminalité basée sur l’IA, notamment :

  • Se méfier des courriels et des messages non sollicités : Être prudent lors de l’ouverture de courriels et de messages provenant d’expéditeurs inconnus, en particulier ceux qui contiennent des liens ou des pièces jointes.
  • Vérifier l’authenticité des sites Web et des applications : S’assurer que les sites Web et les applications sont légitimes avant de fournir des informations personnelles.
  • Utiliser des mots de passe forts et activer l’authentification multifacteur : Protéger les comptes avec des mots de passe forts et uniques et activer l’authentification multifacteur chaque fois que cela est possible.
  • Maintenir les logiciels à jour : Mettre régulièrement à jour les logiciels et les systèmes d’exploitation pour corriger les vulnérabilités de sécurité.
  • Signaler les escroqueries suspectes : Signaler les escroqueries suspectes aux autorités compétentes.

La lutte contre la cybercriminalité basée sur l’IA est une bataille permanente. En restant informés, en adoptant des mesures de sécurité robustes et en travaillant ensemble, les organisations et les individus peuvent réduire leur risque de devenir victimes de ces menaces en évolution.