La controversia de DeepSeek y la respuesta de la industria tecnológica estadounidense
El auge de la inteligencia artificial ha traído consigo una plétora de herramientas convenientes, pero también ha encendido un debate sobre la privacidad de los datos. A medida que los chatbots de IA se integran cada vez más en nuestra vida cotidiana, la cuestión de cuánta información personal recopilan estas plataformas se ha vuelto primordial. Si bien las preocupaciones recientes se han centrado en los modelos de IA chinos como DeepSeek, un examen más detallado revela una verdad sorprendente: algunos de los chatbots de IA más populares con sede en EE. UU. pueden ser aún más voraces en sus prácticas de recopilación de datos.
En enero, DeepSeek, una empresa china, presentó su modelo insignia de IA de código abierto. El debut envió ondas de aprensión a través de la industria tecnológica estadounidense. Casi de inmediato, surgió un coro de preocupaciones sobre privacidad y seguridad. Organizaciones privadas y gubernamentales, impulsadas por la ansiedad sobre los riesgos potenciales, se movieron rápidamente para prohibir el uso de DeepSeek tanto a nivel nacional como internacional.
El núcleo de la aprensión provenía de la creencia de que DeepSeek, con sus orígenes en China, representaba un mayor riesgo para el público estadounidense. Con frecuencia se citaban temores de vigilancia, guerra cibernética y otras amenazas a la seguridad nacional. Alimentando estas preocupaciones había una cláusula específica en la política de privacidad de DeepSeek, que decía: ‘La información personal que recopilamos de usted puede almacenarse en un servidor ubicado fuera del país donde vive. Almacenamos la información que recopilamos en servidores seguros ubicados en la República Popular China’.
Esta declaración aparentemente inocua fue interpretada por algunos como una posible puerta de entrada para que el gobierno chino accediera a datos confidenciales de los usuarios. El rápido avance del desarrollo global de la IA, y la percibida ‘carrera armamentista de la IA’ entre los EE. UU. y China, solo sirvieron para amplificar estas preocupaciones, creando una atmósfera de profunda desconfianza y planteando cuestiones éticas.
Una revelación sorprendente: el apetito de datos de Gemini
Sin embargo, en medio del furor que rodea a DeepSeek, ha surgido una revelación sorprendente. A pesar del intenso escrutinio dirigido al modelo de IA chino, resulta que DeepSeek no es el mayor recolector de datos en el ámbito de los chatbots. Una investigación reciente de Surfshark, un proveedor de VPN de renombre, ha arrojado luz sobre las prácticas de recopilación de datos de algunas de las aplicaciones de chatbot de IA más populares.
Los investigadores analizaron meticulosamente los detalles de privacidad de diez chatbots destacados, todos disponibles en la Apple App Store: ChatGPT, Gemini, Copilot, Perplexity, DeepSeek, Grok, Jasper, Poe, Claude y Pi. Su análisis se centró en tres aspectos clave:
- Tipos de datos recopilados: ¿Qué categorías específicas de información del usuario recopila cada aplicación?
- Vinculación de datos: ¿Alguno de los datos recopilados está directamente vinculado a la identidad del usuario?
- Anunciantes de terceros: ¿La aplicación comparte datos de usuario con entidades publicitarias externas?
Los hallazgos fueron sorprendentes. Gemini de Google surgió como la aplicación de chatbot de IA con mayor consumo de datos, superando a sus competidores en el volumen y la variedad de información personal que recopila. La aplicación recopila la asombrosa cantidad de 22 de los 35 posibles tipos de datos de usuario. Esto incluye datos altamente confidenciales como:
- Datos de ubicación precisa: Identificación de la ubicación geográfica exacta del usuario.
- Contenido del usuario: Captura del contenido de las interacciones del usuario dentro de la aplicación.
- Lista de contactos: Acceso a los contactos del dispositivo del usuario.
- Historial de navegación: Seguimiento de la actividad de navegación web del usuario.
Esta extensa recopilación de datos supera con creces la de otros chatbots populares examinados en el estudio. DeepSeek, el tema de mucha controversia, ocupó el quinto lugar de las diez aplicaciones, recopilando una cantidad comparativamente moderada de 11 tipos de datos únicos.
Datos de ubicación y uso compartido con terceros: una mirada más cercana
El estudio también descubrió tendencias preocupantes con respecto a los datos de ubicación y el intercambio de datos con terceros. Solo se encontró que Gemini, Copilot y Perplexity recopilaban datos de ubicación precisa, una pieza de información altamente confidencial que puede revelar mucho sobre los movimientos y hábitos de un usuario.
En términos más generales, se descubrió que aproximadamente el 30% de los chatbots analizados compartían datos confidenciales de los usuarios, incluidos datos de ubicación e historial de navegación, con entidades externas, como corredores de datos. Esta práctica plantea importantes preocupaciones sobre la privacidad, ya que expone la información del usuario a una red más amplia de actores, potencialmente para fines que van más allá del conocimiento o control del usuario.
Seguimiento de datos de usuario: publicidad dirigida y más allá
Otro hallazgo alarmante fue la práctica de rastrear los datos del usuario para publicidad dirigida y otros fines. Se descubrió que el treinta por ciento de los chatbots, específicamente Copilot, Poe y Jasper, recopilaban datos para rastrear a sus usuarios. Esto significa que los datos de usuario recopilados de la aplicación se vinculan con datos de terceros, lo que permite la publicidad dirigida o la medición de la eficacia de la publicidad.
Se descubrió que Copilot y Poe recopilaban ID de dispositivo para este propósito, mientras que Jasper fue aún más lejos, recopilando no solo ID de dispositivo sino también datos de interacción del producto, datos de publicidad y ‘cualquier otro dato sobre la actividad del usuario en la aplicación’, según los expertos de Surfshark.
DeepSeek: ni el mejor, ni el peor
El controvertido modelo DeepSeek R1, si bien está sujeto a un intenso escrutinio, ocupa un término medio en términos de recopilación de datos. Recopila un promedio de 11 tipos de datos únicos, centrándose principalmente en:
- Información de contacto: Nombres, direcciones de correo electrónico, números de teléfono, etc.
- Contenido del usuario: Contenido generado por los usuarios dentro de la aplicación.
- Diagnósticos: Datos relacionados con el rendimiento de la aplicación y la resolución de problemas.
Si bien no es el chatbot que más respeta la privacidad, las prácticas de recopilación de datos de DeepSeek son menos extensas que las de algunos de sus homólogos con sede en EE. UU., particularmente Gemini.
ChatGPT: una perspectiva comparativa
A modo de comparación, ChatGPT, uno de los chatbots de IA más utilizados, recopila 10 tipos únicos de datos. Esto incluye:
- Información de contacto
- Contenido del usuario
- Identificadores
- Datos de uso
- Diagnósticos
Es importante tener en cuenta que ChatGPT también acumula el historial de chat. Sin embargo, los usuarios tienen la opción de utilizar ‘Chat temporal’, una función diseñada para mitigar esto al no almacenar el historial de conversaciones.
Política de privacidad de DeepSeek: control del usuario y eliminación de datos
La política de privacidad de DeepSeek, si bien es motivo de preocupación para algunos, incluye disposiciones para el control del usuario sobre el historial de chat. La política establece que los usuarios pueden administrar su historial de chat y tienen la opción de eliminarlo a través de su configuración. Esto ofrece un grado de control que no siempre está presente en otras aplicaciones de chatbot.
El contexto más amplio: el desarrollo de la IA y la dinámica entre EE. UU. y China
Las preocupaciones que rodean a DeepSeek, y el debate más amplio sobre la privacidad de los datos de la IA, están inextricablemente vinculados a la rápida aceleración del desarrollo global de la IA y la percibida carrera armamentista de la IA entre EE. UU. y China. Este contexto geopolítico agrega otra capa de complejidad al problema, alimentando las ansiedades sobre la seguridad nacional y el potencial de uso indebido de las tecnologías de IA.
Sin embargo, los hallazgos del estudio de Surfshark sirven como un recordatorio crucial de que las preocupaciones sobre la privacidad de los datos no se limitan a los modelos de IA desarrollados en países específicos. El recolector de datos más flagrante entre los chatbots populares analizados es, de hecho, una aplicación con sede en EE. UU. Esto subraya la necesidad de un enfoque más matizado e integral de la privacidad de los datos de la IA, uno que trascienda las fronteras nacionales y se centre en las prácticas de las empresas individuales y las salvaguardas que implementan. Es imperativo que los usuarios estén informados sobre las prácticas de recopilación de datos de las herramientas de IA que utilizan, independientemente de su origen, y que se establezcan regulaciones sólidas para proteger la privacidad del usuario en el panorama de la IA en rápida evolución. La atención debe centrarse en establecer estándares claros para la recopilación, el uso y el intercambio de datos, garantizar la transparencia y el control del usuario, y responsabilizar a las empresas por sus prácticas de datos. Se debe enfatizar la necesidad de regulaciones globales y estándares éticos que apliquen a todas las compañías, sin importar su origen, para asegurar que la privacidad del usuario sea una prioridad en el desarrollo y uso de la IA.