El Lado Oscuro de la IA: Ciberataques con Modelos de Lenguaje

La rápida evolución e integración de la Inteligencia Artificial (IA) en nuestra vida digital cotidiana ha generado tanto entusiasmo como inquietud. Si bien la IA promete revolucionar las industrias y mejorar la eficiencia, también presenta un nuevo conjunto de desafíos, particularmente en lo que respecta a su explotación por parte de los ciberdelincuentes. Un informe reciente sobre seguridad de la IA de Check Point, una firma de investigación de tecnologías de software, arroja luz sobre esta creciente amenaza, revelando cómo los hackers están aprovechando cada vez más las herramientas de IA para amplificar la escala, la eficiencia y el impacto de sus actividades maliciosas.

El informe de Check Point, el primero de su tipo, subraya la urgente necesidad de contar con sólidas medidas de seguridad de la IA a medida que la tecnología continúa evolucionando. El informe enfatiza que las amenazas de la IA ya no son escenarios hipotéticos, sino que están evolucionando activamente en tiempo real. A medida que las herramientas de IA se vuelven más accesibles, los actores de amenazas están explotando esta accesibilidad de dos maneras principales: mejorando sus capacidades a través de la IA y atacando a las organizaciones e individuos que adoptan las tecnologías de IA.

La Atracción de los Modelos de Lenguaje para los Ciberdelincuentes

Los ciberdelincuentes están monitoreando diligentemente las tendencias en la adopción de la IA. Cada vez que se publica un nuevo modelo de lenguaje grande (LLM) para el público, estos actores maliciosos se apresuran a explorar su potencial para fines nefastos. ChatGPT y la API de OpenAI son actualmente herramientas preferidas entre estos delincuentes, pero otros modelos como Google Gemini, Microsoft Copilot y Anthropic Claude están ganando terreno constantemente.

El atractivo de estos modelos de lenguaje radica en su capacidad para automatizar y escalar varios aspectos del delito cibernético, desde la creación de correos electrónicos de phishing convincentes hasta la generación de código malicioso. El informe destaca una tendencia preocupante: el desarrollo y el comercio de LLM maliciosos especializados adaptados específicamente para el delito cibernético, a menudo denominados "modelos oscuros".

El Auge de los Modelos de IA Oscura

Los modelos de código abierto, como DeepSeek y Qwen de Alibaba, se están volviendo cada vez más atractivos para los ciberdelincuentes debido a sus restricciones de uso mínimas y a la accesibilidad a niveles gratuitos. Estos modelos proporcionan un terreno fértil para la experimentación y la adaptación maliciosas. Sin embargo, el informe revela una tendencia más alarmante: el desarrollo y el comercio de LLM maliciosos especializados adaptados específicamente para el delito cibernético. Estos "modelos oscuros" están diseñados para evitar las salvaguardias éticas y se comercializan abiertamente como herramientas de piratería.

Un ejemplo notorio es WormGPT, un modelo creado mediante la piratería de ChatGPT. Calificado como la "IA de hacking definitiva", WormGPT puede generar correos electrónicos de phishing, escribir malware y crear scripts de ingeniería social sin ningún filtro ético. Incluso está respaldado por un canal de Telegram que ofrece suscripciones y tutoriales, lo que indica claramente la comercialización de la IA oscura.

Otros modelos oscuros incluyen GhostGPT, FraudGPT y HackerGPT, cada uno diseñado para aspectos especializados del delito cibernético. Algunos son simplemente envoltorios de jailbreak alrededor de herramientas convencionales, mientras que otros son versiones modificadas de modelos de código abierto. Estos modelos generalmente se ofrecen a la venta o alquiler en foros clandestinos y mercados de la dark web, lo que los hace accesibles a una amplia gama de ciberdelincuentes.

Plataformas Falsas de IA y Distribución de Malware

La demanda de herramientas de IA también ha llevado a la proliferación de plataformas falsas de IA que se hacen pasar por servicios legítimos pero que, en realidad, son vehículos para malware, robo de datos y fraude financiero. Un ejemplo de ello es HackerGPT Lite, sospechoso de ser un sitio de phishing. Del mismo modo, algunos sitios web que ofrecen descargas de DeepSeek están distribuyendo malware, según los informes.

Estas plataformas falsas a menudo atraen a usuarios desprevenidos con promesas de capacidades avanzadas de IA o características exclusivas. Una vez que un usuario interactúa con la plataforma, puede ser engañado para que descargue software malicioso o proporcione información confidencial, como credenciales de inicio de sesión o detalles financieros.

Ejemplos del Mundo Real de Ciberataques Habilitados por la IA

El informe de Check Point destaca un caso del mundo real que involucra una extensión maliciosa de Chrome que se hacía pasar por ChatGPT y que fue descubierta robando las credenciales de los usuarios. Una vez instalada, secuestraba las cookies de sesión de Facebook, lo que daba a los atacantes acceso completo a las cuentas de los usuarios, una táctica que podría ampliarse fácilmente a múltiples plataformas.

Este incidente subraya los riesgos asociados con las extensiones de navegador aparentemente inofensivas y el potencial de los ataques de ingeniería social impulsados por la IA. Los ciberdelincuentes pueden utilizar la IA para crear sitios web o aplicaciones falsas convincentes que imiten servicios legítimos, lo que dificulta a los usuarios distinguir entre lo real y un impostor malicioso.

El Impacto de la IA en la Escala del Delito Cibernético

"La principal contribución de estas herramientas impulsadas por la IA es su capacidad para escalar las operaciones delictivas", agrega el informe de Check Point. "El texto generado por la IA permite a los ciberdelincuentes superar las barreras lingüísticas y culturales, lo que mejora significativamente su capacidad para ejecutar ataques de comunicación sofisticados en tiempo real y fuera de línea".

La IA permite a los ciberdelincuentes automatizar tareas que antes consumían mucho tiempo y mano de obra. Por ejemplo, la IA se puede utilizar para generar miles de correos electrónicos de phishing personalizados en cuestión de minutos, lo que aumenta la probabilidad de que alguien sea víctima de la estafa.

Además, la IA se puede utilizar para mejorar la calidad de los correos electrónicos de phishing y otros ataques de ingeniería social. Al analizar los datos del usuario y adaptar el mensaje al destinatario individual, los ciberdelincuentes pueden crear estafas muy convincentes que son difíciles de detectar.

El Panorama de Amenazas en Kenia

Las autoridades kenianas también están dando la voz de alarma sobre el aumento de los ciberataques habilitados por la IA. En octubre de 2024, la Autoridad de Comunicaciones de Kenia (CA) advirtió sobre un aumento en los ciberataques habilitados por la IA, incluso cuando las amenazas generales disminuyeron un 41,9 por ciento durante el trimestre que finalizó en septiembre.

"Los ciberdelincuentes están utilizando cada vez más ataques habilitados por la IA para mejorar la eficiencia y la magnitud de sus operaciones", dijo el Director General de la CA, David Mugonyi. "Aprovechan la IA y el aprendizaje automático para automatizar la creación de correos electrónicos de phishing y otros tipos de ingeniería social".

También señaló que los atacantes están explotando cada vez más las configuraciones erróneas del sistema, como los puertos abiertos y los controles de acceso débiles, para obtener acceso no autorizado, robar datos confidenciales e implementar malware.

Kenia no está sola para enfrentar esta amenaza. Países de todo el mundo están lidiando con los desafíos del delito cibernético habilitado por la IA.

La accesibilidad de las herramientas de IA y la creciente sofisticación de los ciberataques están dificultando que las organizaciones y los individuos se protejan.

La Carrera Armamentista para Salvaguardar la IA

A medida que la carrera para adoptar la IA se acelera, también lo hace la carrera armamentista para salvaguardarla. Para las organizaciones y los usuarios por igual, la vigilancia ya no es opcional, es imperativa.

Para mitigar los riesgos del delito cibernético habilitado por la IA, las organizaciones deben adoptar un enfoque de seguridad de múltiples capas que incluya:

  • Detección de amenazas impulsada por la IA: Implementación de soluciones de seguridad basadas en la IA que puedan detectar y responder a los ataques habilitados por la IA en tiempo real.
  • Capacitación de los empleados: Educar a los empleados sobre los riesgos de los ataques de ingeniería social impulsados por la IA y brindarles las habilidades para identificar y evitar estas estafas.
  • Controles de acceso sólidos: Implementación de controles de acceso sólidos para evitar el acceso no autorizado a datos y sistemas confidenciales.
  • Auditorías de seguridad periódicas: Realización de auditorías de seguridad periódicas para identificar y abordar las vulnerabilidades en los sistemas y la infraestructura.
  • Colaboración e intercambio de información: Compartir inteligencia sobre amenazas con otras organizaciones y proveedores de seguridad para mejorar la defensa colectiva contra el delito cibernético habilitado por la IA.
  • Desarrollo e implementación éticos de la IA: Garantizar que los sistemas de IA se desarrollen e implementen de manera ética y responsable, con salvaguardias para evitar el uso indebido.

Las personas también pueden tomar medidas para protegerse del delito cibernético habilitado por la IA, que incluyen:

  • Desconfiar de los correos electrónicos y mensajes no solicitados: Tener precaución al abrir correos electrónicos y mensajes de remitentes desconocidos, especialmente aquellos que contienen enlaces o archivos adjuntos.
  • Verificar la autenticidad de los sitios web y las aplicaciones: Garantizar que los sitios web y las aplicaciones sean legítimos antes de proporcionar cualquier información personal.
  • Usar contraseñas seguras y habilitar la autenticación de múltiples factores: Proteger las cuentas con contraseñas seguras y únicas y habilitar la autenticación de múltiples factores siempre que sea posible.
  • Mantener el software actualizado: Actualizar periódicamente el software y los sistemas operativos para parchear las vulnerabilidades de seguridad.
  • Denunciar las estafas sospechosas: Denunciar las estafas sospechosas a las autoridades competentes.

La lucha contra el delito cibernético habilitado por la IA es una batalla continua. Al mantenerse informados, adoptar medidas de seguridad sólidas y trabajar juntos, las organizaciones y las personas pueden reducir el riesgo de ser víctimas de estas amenazas en evolución.