El Controversial Debut de DeepSeek
Según informes de Guancha.cn y Sina.com, Li abordó el panorama fluctuante de los modelos de IA a gran escala durante la conferencia. Destacó la intensa competencia entre los desarrolladores de modelos, a menudo descrita como una ‘carrera de ratas’, y la consiguiente confusión y vacilación entre los desarrolladores para crear aplicaciones con confianza.
Li enfatizó que ‘Sin aplicaciones, los chips y los modelos no valen nada’. Señaló el alto costo y la impracticabilidad de utilizar los modelos actuales a gran escala como un obstáculo importante para los desarrolladores que aspiran a construir aplicaciones de IA.
DeepSeek, una startup con sede en Hangzhou, China, lanzó su modelo de razonamiento de código abierto, R1, en enero. En ese momento, los medios estatales elogiaron a DeepSeek por superar a empresas como OpenAI. Sin embargo, investigaciones posteriores realizadas por usuarios e investigadores revelaron deficiencias, vulnerabilidades de seguridad y riesgos potenciales. Numerosos gobiernos, incluidos Taiwán, Japón, Corea del Sur, Estados Unidos, Canadá, Italia, Australia y los Países Bajos, junto con cientos de empresas, han prohibido el uso de DeepSeek en dispositivos gubernamentales y corporativos.
El 8 de febrero, expertos en seguridad de la IA compartieron los resultados de pruebas de seguridad en profundidad en DeepSeek con los medios. Descubrieron que DeepSeek era más susceptible al ‘jailbreaking’ en comparación con ChatGPT, Gemini y Claude. Esta vulnerabilidad permitió a los usuarios eludir las restricciones de seguridad originales de la IA, lo que facilitó la obtención de contenido potencialmente peligroso, dañino o ilegal.
En marzo, ‘Luchen Technology’, una empresa de infraestructura de IA vinculada a la Universidad de Tsinghua, que fue una de las primeras en integrar los modelos DeepSeek para proporcionar servicios de API y espejos en la nube, anunció la suspensión de los servicios relacionados. El fundador de la empresa, You Yang, reveló en una publicación que los costos reales asociados con DeepSeek eran significativamente más altos que los costos teóricos. Tras la reacción en línea, declaró públicamente que DeepSeek no podía operar sin utilizar tecnología estadounidense a corto plazo, cuestionando por qué esta realidad no podía reconocerse abiertamente.
Según un informe de Sina Technology del 4 de marzo, DeepSeek anunció un margen de beneficio teórico del 545% para su sistema en línea el 1 de marzo a las 17:02. Posteriormente, Luchen Technology anunció que suspendería la prestación de servicios de API de DeepSeek en el plazo de una semana, instando a los usuarios a utilizar sus saldos restantes.
El informe señaló que Luchen Technology no ha revelado públicamente las razones específicas para suspender el servicio de API de DeepSeek. Sin embargo, el extenso análisis del fundador sobre los costos de DeepSeek en plataformas como Zhihu sugiere que el costo fue un factor principal en la decisión de cesar la prestación del servicio de API.
Preocupaciones Sobre la Seguridad Nacional
Las conexiones entre DeepSeek y el gobierno chino son potencialmente más directas de lo que se percibió inicialmente. Feroot Security, una empresa canadiense de ciberseguridad, descubrió importantes vínculos entre la página de inicio de sesión del sitio web de DeepSeek y China Mobile, una empresa estatal china previamente sancionada por el gobierno de los Estados Unidos.
En los últimos meses, las preocupaciones sobre la seguridad nacional han llevado a crecientes llamamientos para la prohibición de DeepSeek.
El 24 de abril, varios miembros de la Cámara de Representantes de los Estados Unidos enviaron una carta a DeepSeek, expresando su preocupación por las conexiones de la empresa con el Partido Comunista Chino (PCCh) y solicitando información sobre los datos estadounidenses utilizados para entrenar sus modelos de IA.
El representante Brett Guthrie, presidente del Comité de Energía y Comercio de la Cámara de Representantes, y el representante Gus Bilirakis, presidente del Subcomité de Innovación, Datos y Comercio, junto con otros diez miembros del subcomité, dirigieron una carta a DeepSeek expresando su preocupación por la ‘recopilación de datos personales de los estadounidenses’ por parte de la empresa y los riesgos de seguridad nacional asociados.
En la carta, Guthrie y Bilirakis declararon que ‘DeepSeek admite transmitir datos personales de usuarios estadounidenses a servidores en China, donde esa información sin duda sería accesible para funcionarios afiliados al Partido Comunista Chino. Nos preocupa que esta relación de agencia con nuestro principal adversario ponga en peligro nuestros datos y la seguridad nacional’.
‘Para garantizar que los usuarios estadounidenses y sus empresas estén protegidos de la injerencia extranjera, estamos iniciando una investigación sobre DeepSeek y la amenaza que representa para nuestra nación’.
La carta decía además: ‘Según informes de los medios, la empresa también comparte información personal de los usuarios con otras entidades afiliadas al Partido Comunista Chino, incluida ByteDance’.
‘Al mismo tiempo, los investigadores han descubierto vulnerabilidades críticas en los supuestos controles de seguridad y las salvaguardias del modelo de DeepSeek. En respuesta a estos riesgos, un número creciente de estados, incluidos Nueva York, Texas y Virginia, han prohibido el uso de DeepSeek en dispositivos gubernamentales, y los fiscales generales estatales han pedido prohibiciones más amplias’.
El 16 de abril, el Comité Selecto de la Cámara de Representantes de los Estados Unidos sobre el Partido Comunista Chino publicó un informe que enfatizaba que DeepSeek representa una amenaza significativa para la seguridad nacional de los Estados Unidos. El informe acusó a DeepSeek de recopilar datos de usuarios para el PCCh y manipular secretamente los resultados, convirtiéndose en la última herramienta para que el PCCh se embellezca, supervise a ciudadanos extranjeros y robe y socave las restricciones al control de las exportaciones de los Estados Unidos.
El informe señaló que, si bien DeepSeek puede parecer simplemente otro chatbot de IA que brinda a los usuarios una forma de generar texto y responder preguntas, un examen más detenido revela que DeepSeek transmite secretamente los datos personales obtenidos a China Mobile, que tiene vínculos con el ejército chino, creando vulnerabilidades de seguridad para los usuarios. Estados Unidos ya ha prohibido a China Mobile operar en los Estados Unidos.
Una Mirada Profunda a las Supuestas Deficiencias de DeepSeek
Si bien la exageración inicial en torno a DeepSeek pintó una imagen de una maravilla de la IA lista para revolucionar varios sectores, un escrutinio más detenido ha revelado una realidad más matizada y compleja. Las preocupaciones planteadas por el CEO de Baidu, Robin Li, y las investigaciones posteriores realizadas por expertos en ciberseguridad y organismos gubernamentales, resaltan varias áreas críticas donde DeepSeek no cumple con las expectativas y plantea riesgos potenciales.
Capacidades Multimodales Limitadas
Una de las principales críticas dirigidas contra DeepSeek es su capacidad limitada para procesar contenido multimodal. A diferencia de los modelos de IA más avanzados que pueden integrar y comprender sin problemas varias formas de datos, incluidos texto, imágenes, audio y video, DeepSeek supuestamente tiene dificultades para comprender algo más allá de la entrada de texto básica. Esta limitación restringe significativamente su aplicabilidad en escenarios del mundo real donde la información a menudo se presenta en una combinación de formatos. Por ejemplo, DeepSeek podría tener dificultades para analizar una publicación en las redes sociales que incluye tanto texto como una imagen, o para transcribir y comprender una videoconferencia.
Problemas de Rendimiento: Velocidad y Costo
Más allá de sus limitaciones en el manejo de diversos medios, DeepSeek también enfrenta desafíos relacionados con su rendimiento. Según Robin Li, el modelo se caracteriza por su velocidad ‘lenta’ y su costo ‘alto’, lo que lo hace menos atractivo para los desarrolladores que buscan construir aplicaciones de IA escalables y rentables. Los altos recursos computacionales necesarios para ejecutar DeepSeek pueden traducirse en gastos significativos para las empresas, particularmente aquellas con implementaciones a gran escala. Además, la baja velocidad de procesamiento puede dificultar las aplicaciones en tiempo real, como chatbots o asistentes virtuales, donde la capacidad de respuesta es crucial para una experiencia de usuario positiva.
El Problema de la ‘Tasa de Alucinación’
Otra preocupación importante en torno a DeepSeek es su alta ‘tasa de alucinación’, que se refiere a la tendencia del modelo a generar información inexacta o sin sentido. Este problema plantea un desafío importante para las aplicaciones que requieren resultados confiables y confiables. En dominios críticos, como la atención médica o las finanzas, donde la precisión es primordial, el riesgo de que DeepSeek produzca información falsa o engañosa podría tener graves consecuencias. La ‘tasa de alucinación’ socava la credibilidad del modelo y limita su usabilidad en contextos delicados.
Vulnerabilidades de Seguridad y Jailbreaking
La revelación de que DeepSeek es más susceptible al ‘jailbreaking’ que otros modelos de IA líderes plantea importantes preocupaciones de seguridad. ‘Jailbreaking’ se refiere al proceso de eludir las restricciones de seguridad de una IA para obtener contenido dañino, poco ético o ilegal. El hecho de que DeepSeek pueda manipularse más fácilmente de esta manera sugiere debilidades en su arquitectura de seguridad subyacente. Esta vulnerabilidad podría ser explotada por actores maliciosos para generar desinformación, difundir propaganda o participar en otras actividades dañinas.
Privacidad de Datos y Riesgos de Seguridad Nacional
Las supuestas conexiones entre DeepSeek y el gobierno chino, particularmente sus prácticas de intercambio de datos con China Mobile, han provocado alarmas sobre la privacidad de los datos y la seguridad nacional. La transmisión de datos personales de usuarios estadounidenses a servidores en China, donde podrían ser accesibles para funcionarios afiliados al PCCh, plantea serias preocupaciones sobre la posible vigilancia, espionaje y el compromiso de información confidencial. El escrutinio del gobierno de los Estados Unidos sobre DeepSeek subraya la creciente conciencia de los riesgos potenciales asociados con los modelos de IA desarrollados por entidades extranjeras con estrechos vínculos con gobiernos adversarios.
Las Implicaciones Más Amplias
Las preocupaciones en torno a DeepSeek se extienden más allá de las limitaciones y vulnerabilidades específicas de este modelo de IA en particular. Reflejan desafíos y riesgos más amplios asociados con el rápido desarrollo e implementación de tecnologías de IA. El caso de DeepSeek destaca la importancia de:
- Pruebas y Evaluación Rigurosas: Las pruebas y la evaluación exhaustivas son esenciales para identificar y abordar las posibles debilidades, sesgos y vulnerabilidades de seguridad en los modelos de IA antes de que se implementen ampliamente.
- Transparencia y Responsabilidad: Los desarrolladores deben ser transparentes sobre los datos utilizados para entrenar sus modelos y los algoritmos que emplean. También deben ser responsables de los resultados y las consecuencias de sus sistemas de IA.
- Privacidad de Datos y Medidas de Seguridad: Se necesitan medidas sólidas de privacidad y seguridad de los datos para proteger la información personal de los usuarios del acceso no autorizado, el uso indebido o la explotación.
- Cooperación Internacional: La cooperación internacional es crucial para establecer estándares y regulaciones comunes para el desarrollo y la implementación de la IA, garantizando que estas tecnologías se utilicen de manera responsable y ética.
- Pensamiento Crítico y Alfabetización Mediática: Se debe alentar a los usuarios a evaluar críticamente la información generada por los modelos de IA y a desarrollar habilidades de alfabetización mediática para distinguir entre contenido preciso y engañoso.
La controversia de DeepSeek sirve como una advertencia, recordándonos que la búsqueda de la innovación en la IA debe equilibrarse con una cuidadosa consideración de los riesgos potenciales y las implicaciones sociales.