Promesas Rotas e Incumplimientos
La falta de un informe de investigación de seguridad junto con el lanzamiento de Gemini 2.5 Pro por parte de Google se considera una violación de los compromisos anteriores. En julio de 2023, Google participó en una reunión de la Casa Blanca convocada por la administración Biden, donde se unió a otras importantes empresas de IA para firmar una serie de promesas. Un compromiso clave fue la publicación de informes para todos los principales lanzamientos de modelos públicos que superaran el estado actual de la IA en ese momento. Dados sus avances, Gemini 2.5 Pro seguramente estaría dentro del alcance de estos compromisos de la Casa Blanca.
En ese momento, Google acordó que estos informes deberían abarcar:
- Evaluaciones de seguridad realizadas, incluidas evaluaciones de capacidades peligrosas.
- Limitaciones significativas de rendimiento que podrían afectar los casos de uso apropiados.
- Discusiones sobre los efectos del modelo en riesgos sociales como la equidad y el sesgo.
- Resultados de pruebas adversarias para evaluar la aptitud del modelo para su implementación.
Tras la reunión del G7 en Hiroshima, Japón, en octubre de 2023, Google y otras empresas se comprometieron a adherirse a un código de conducta voluntario para el desarrollo de IA avanzada. Este código del G7 enfatizó la importancia de informar públicamente las capacidades, limitaciones y aplicaciones adecuadas e inadecuadas de los sistemas de IA avanzados. El objetivo era mejorar la transparencia y la rendición de cuentas en el campo de la IA.
En mayo de 2024, en una cumbre internacional sobre seguridad de la IA celebrada en Seúl, Corea del Sur, Google reiteró sus compromisos. La empresa prometió divulgar públicamente las capacidades, limitaciones, casos de uso apropiados e inapropiados del modelo, y proporcionar transparencia en torno a sus evaluaciones de riesgos y resultados.
Respuesta de Google y Transparencia Retrasada
En respuesta a las preguntas sobre la falta del informe de seguridad, un portavoz de Google DeepMind, la división responsable del desarrollo de los modelos Gemini, declaró que el último Gemini se había sometido a pruebas previas al lanzamiento. Esto incluyó evaluaciones internas de desarrollo y evaluaciones de garantía realizadas antes del lanzamiento del modelo. El portavoz también indicó que un informe con información de seguridad adicional y tarjetas de modelo era “próximo”. Sin embargo, a pesar de que la declaración inicial se emitió el 2 de abril, hasta la fecha no se ha publicado ninguna tarjeta de modelo.
Una Tendencia Más Amplia de Negligencia en la Elaboración de Informes de Seguridad
Google no está solo en enfrentar críticas con respecto a su compromiso con la seguridad de la IA. A principios de año, OpenAI también enfrentó escrutinio por no publicar una tarjeta de modelo oportuna para su modelo de Deep Research. En cambio, publicaron una tarjeta del sistema semanas después del lanzamiento inicial del proyecto. De manera similar, el reciente informe de seguridad de Meta para Llama 4 ha sido criticado por ser demasiado breve y carecer de detalles.
Estos casos resaltan una tendencia preocupante dentro de la industria de la IA, donde algunos laboratorios importantes no están priorizando la presentación de informes de seguridad en línea con sus lanzamientos de modelos. Esto es particularmente preocupante dados los compromisos voluntarios que estas empresas hicieron con el gobierno de los EE. UU. y la comunidad global para producir dichos informes. Estos compromisos se hicieron inicialmente con la administración Biden en 2023 y posteriormente se reforzaron a través de promesas de cumplir con el código de conducta de la IA adoptado por las naciones del G7 en su cumbre de IA en Hiroshima.
Kevin Bankston, asesor sobre gobernanza de la IA en el Centro para la Democracia y la Tecnología, expresó su decepción, afirmando que estos fracasos socavan la credibilidad de las empresas involucradas y plantean interrogantes sobre su compromiso con el desarrollo responsable de la IA.
Preguntas Sin Respuesta y Evaluación Externa
La declaración del portavoz de Google tampoco abordó preguntas específicas sobre si Gemini 2.5 Pro se había presentado para una evaluación externa por parte del Instituto de Seguridad de la IA del Reino Unido o el Instituto de Seguridad de la IA de los EE. UU. Anteriormente, Google había proporcionado generaciones anteriores de sus modelos Gemini al Instituto de Seguridad de la IA del Reino Unido para su evaluación.
En la Cumbre de Seguridad de Seúl, Google se unió a los “Compromisos de Seguridad de la IA de Frontera”, que incluían una promesa de proporcionar transparencia pública sobre la implementación de evaluaciones de seguridad. Las únicas excepciones fueron los casos en que hacerlo aumentaría el riesgo o divulgaría información comercial sensible en un grado desproporcionado al beneficio social. La promesa también establecía que la información más detallada que no pudiera compartirse públicamente aún debería compartirse con los gobiernos de los países en los que tienen su sede las empresas, que serían los EE. UU. en el caso de Google.
Las empresas también se comprometieron a explicar cómo los actores externos, como los gobiernos, la sociedad civil, los académicos y el público, participan en el proceso de evaluación de los riesgos de sus modelos de IA. El hecho de que Google no responda a preguntas directas sobre si ha presentado Gemini 2.5 Pro a evaluadores gubernamentales de EE. UU. o del Reino Unido podría violar este compromiso también.
Priorizando el Despliegue Sobre la Transparencia
La ausencia de un informe de seguridad ha generado preocupaciones de que Google pueda estar priorizando el despliegue rápido sobre la transparencia y las evaluaciones de seguridad exhaustivas. Sandra Wachter, profesora e investigadora sénior en el Instituto de Internet de Oxford, enfatizó la importancia de la transparencia en la investigación e innovación responsables. Hizo una analogía con otras industrias, afirmando que “Si esto fuera un coche o un avión, no diríamos: llevemos esto al mercado lo más rápido posible y analizaremos los aspectos de seguridad más adelante”. Wachter expresó su preocupación de que haya una actitud prevaleciente dentro del campo de la IA generativa de “poner esto ahí fuera y preocuparse, investigar y solucionar los problemas más tarde”.
Cambios Políticos y Presiones Competitivas
Los recientes cambios políticos, junto con la intensificación de la rivalidad entre las grandes empresas tecnológicas, pueden estar contribuyendo a un alejamiento de los compromisos de seguridad anteriores a medida que las empresas se apresuran a implementar modelos de IA. Wachter señaló que “El punto de presión para estas empresas de ser más rápidas, ser más veloces, ser las primeras, ser las mejores, ser dominantes, es más frecuente de lo que solía ser”, y agregó que los estándares de seguridad estaban disminuyendo en toda la industria.
Estos estándares decrecientes podrían ser impulsados por una creciente preocupación entre los países tecnológicos y algunos gobiernos de que los procedimientos de seguridad de la IA estén impidiendo la innovación. En los EE. UU., la administración Trump ha indicado su intención de adoptar un enfoque menos estricto a la regulación de la IA en comparación con la administración Biden. La nueva administración ya ha rescindido una orden ejecutiva de la era Biden sobre la IA y ha estado cultivando relaciones más estrechas con los líderes tecnológicos. En la reciente cumbre de IA en París, el vicepresidente de EE. UU., JD Vance, declaró que las “políticas de IA pro-crecimiento” deberían tener prioridad sobre la seguridad, y que la IA era “una oportunidad que la administración Trump no desperdiciará”.
En la misma cumbre, tanto el Reino Unido como los EE. UU. se negaron a firmar un acuerdo internacional sobre inteligencia artificial que promoviera un enfoque “abierto”, “inclusivo” y “ético” para el desarrollo de la tecnología.
La Necesidad de Requisitos de Transparencia Claros
Bankston enfatizó que “Si no podemos contar con que estas empresas cumplan incluso sus compromisos de seguridad y transparencia más básicos al lanzar nuevos modelos, compromisos que ellas mismas hicieron voluntariamente, entonces claramente están lanzando modelos demasiado rápido en su carrera competitiva para dominar el campo”. Agregó que a medida que los desarrolladores de IA continúan fallando en estos compromisos, incumbirá a los legisladores desarrollar y hacer cumplir requisitos de transparencia claros que las empresas no puedan eludir.
Las Implicaciones Más Amplias para la Gobernanza de la IA
La controversia que rodea a Gemini 2.5 Pro de Google y la falta del informe de seguridad subraya la necesidad crítica de marcos de gobernanza de la IA sólidos. Estos marcos deben abordar cuestiones clave como:
- Transparencia: Asegurar que los desarrolladores de IA sean transparentes sobre las capacidades, limitaciones y riesgos potenciales de sus modelos.
- Rendición de Cuentas: Establecer líneas claras de rendición de cuentas para el desarrollo y la implementación de sistemas de IA.
- Seguridad: Implementar pruebas de seguridad rigurosas y procedimientos de evaluación para minimizar el riesgo de daño.
- Consideraciones Éticas: Integrar principios éticos en el diseño y desarrollo de sistemas de IA.
- Participación Pública: Involucrar al público para fomentar una comprensión más amplia de la IA y sus implicaciones.
- Cooperación Internacional: Colaborar internacionalmente para desarrollar estándares comunes y mejores prácticas para la gobernanza de la IA.
La falta de transparencia que rodea a Gemini 2.5 Pro destaca las posibles consecuencias de descuidar estos aspectos cruciales de la gobernanza de la IA. Sin la transparencia y la rendición de cuentas adecuadas, se vuelve difícil evaluar el verdadero impacto de los sistemas de IA y garantizar que se desarrollen e implementen de manera responsable y ética. La falta de transparencia que rodea a Gemini 2.5 Pro destaca las posibles consecuencias de descuidar estos aspectos cruciales de la gobernanza de la IA. Sin una transparencia y rendición de cuentas adecuadas, se vuelve difícil evaluar el verdadero impacto de los sistemas de IA y garantizar que se desarrollen e implementen de manera responsable y ética. La transparencia implica proporcionar información clara y accesible sobre cómo funcionan los sistemas de IA, qué datos utilizan, qué decisiones toman y cómo pueden afectar a las personas y a la sociedad. La rendición de cuentas implica establecer responsabilidades claras para aquellos que desarrollan, implementan y utilizan sistemas de IA, y garantizar que rindan cuentas por sus acciones.
Un marco de gobernanza de la IA sólido también debe abordar cuestiones éticas clave, como la equidad, la no discriminación, la privacidad y la seguridad. Los sistemas de IA deben diseñarse y desarrollarse de manera que respeten los derechos humanos y los valores éticos, y que no perpetúen ni exacerben las desigualdades existentes. La equidad implica garantizar que los sistemas de IA no discriminen a ciertos grupos de personas por motivos de raza, género, religión, orientación sexual u otros factores protegidos. La no discriminación implica diseñar sistemas de IA que sean justos y equitativos para todos los usuarios, independientemente de sus características personales. La privacidad implica proteger la información personal de los usuarios y garantizar que se utilice de manera responsable y ética. La seguridad implica proteger los sistemas de IA contra ataques maliciosos y garantizar que funcionen de manera segura y fiable.
Además de abordar cuestiones éticas y de transparencia, un marco de gobernanza de la IA sólido también debe promover la participación pública y la cooperación internacional. La participación pública implica involucrar al público en el proceso de toma de decisiones sobre la IA y garantizar que sus voces sean escuchadas. La cooperación internacional implica colaborar con otros países para desarrollar estándares comunes y mejores prácticas para la gobernanza de la IA. La participación pública puede ayudar a garantizar que los sistemas de IA sean desarrollados e implementados de manera que beneficien a la sociedad en su conjunto, y que no se utilicen para fines dañinos o perjudiciales. La cooperación internacional puede ayudar a garantizar que la IA se desarrolle e implemente de manera responsable y ética a nivel global.
Avanzando: Un Llamado a una Mayor Responsabilidad
La industria de la IA se encuentra en una coyuntura crítica. A medida que las tecnologías de IA se vuelven cada vez más poderosas y omnipresentes, es esencial que los desarrolladores prioricen la seguridad, la transparencia y las consideraciones éticas. La controversia que rodea a Gemini 2.5 Pro sirve como recordatorio de que los compromisos voluntarios no siempre son suficientes. Los gobiernos y los organismos reguladores deben desempeñar un papel más activo en el establecimiento de estándares claros y el cumplimiento de la normativa. La responsabilidad de garantizar que la IA se desarrolle e implemente de manera responsable y ética no recae únicamente en los desarrolladores de IA. Los gobiernos, los organismos reguladores, la sociedad civil y el público en general también tienen un papel importante que desempeñar.
Los gobiernos pueden establecer leyes y regulaciones que rijan el desarrollo y la implementación de la IA, y pueden hacer cumplir estas leyes y regulaciones para garantizar que las empresas de IA cumplan con sus obligaciones. Los organismos reguladores pueden establecer estándares técnicos y éticos para la IA, y pueden realizar auditorías y evaluaciones para garantizar que las empresas de IA cumplan con estos estándares. La sociedad civil puede desempeñar un papel importante en la promoción de la transparencia y la rendición de cuentas en la industria de la IA, y puede abogar por políticas y prácticas que beneficien a la sociedad en su conjunto. El público en general puede desempeñar un papel importante en la formación de la opinión pública sobre la IA, y puede exigir a los desarrolladores de IA que sean más responsables y éticos.
Además, es crucial que los desarrolladores de IA se involucren con el público y fomenten una comprensión más amplia de la IA y sus implicaciones. Esto incluye ser transparente sobre las limitaciones y los riesgos potenciales de los sistemas de IA, así como los pasos que se están tomando para mitigar esos riesgos. La transparencia es esencial para generar confianza en la IA y para garantizar que el público esté informado sobre los riesgos y beneficios de esta tecnología. Los desarrolladores de IA deben estar dispuestos a responder preguntas del público sobre sus sistemas de IA, y deben estar abiertos a la retroalimentación del público sobre cómo mejorar sus sistemas de IA.
Al trabajar juntos, la industria de la IA, los gobiernos y el público pueden garantizar que las tecnologías de IA se desarrollen e implementen de manera que beneficien a la sociedad en su conjunto. La IA tiene el potencial de transformar muchas áreas de nuestras vidas, desde la atención médica hasta la educación y el transporte. Sin embargo, es importante que abordemos los riesgos y desafíos de la IA de manera responsable y ética, para que podamos aprovechar los beneficios de esta tecnología sin comprometer nuestros valores fundamentales. La IA tiene el potencial de mejorar nuestras vidas de muchas maneras, pero solo si la desarrollamos e implementamos de manera responsable y ética.
El futuro de la IA depende de nuestra capacidad para trabajar juntos para crear un marco de gobernanza sólido que promueva la innovación, proteja los derechos humanos y garantice que la IA se utilice para el bien común. La IA es una herramienta poderosa que puede usarse para el bien o para el mal. Depende de nosotros asegurarnos de que se utilice para el bien. La creación de un futuro mejor con la IA requiere un esfuerzo colectivo de todos los actores involucrados.