De Jaipur a DeepSeek: Llamado a la IA Abierta

Un Festival Literario, una Revelación de la IA

Hace unas semanas, el vibrante Festival de Literatura de Jaipur (JLF) en India se convirtió en un foro inesperado para una discusión crucial sobre el futuro de la inteligencia artificial. Durante un panel aparentemente centrado en el legado del imperio, la conversación dio un giro brusco. La audiencia, cautivada por ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’ de Pankaj Mishra, planteó una serie de preguntas incisivas, no sobre literatura, sino sobre DeepSeek, un nuevo modelo de IA generativa de China.

Estas preguntas – ¿Cómo llegamos aquí? ¿Cómo trazamos el mejor camino posible para el futuro de la IA? ¿Por qué el código abierto es clave en el desarrollo de la IA? – resonaron mucho más allá del recinto del festival. Tocaron una rivalidad histórica profundamente arraigada, un anhelo de autosuficiencia y un creciente movimiento global que aboga por un enfoque más abierto y colaborativo para el desarrollo de la IA.

Las Raíces Históricas de la Recepción de DeepSeek

La aparición de DeepSeek en un festival de literatura puede parecer peculiar. Sin embargo, su prominencia está profundamente entrelazada con eventos históricos y una rivalidad de larga data, particularmente entre Asia y Occidente. Si bien los laboratorios europeos de IA han sido aclamados por sus avances en código abierto, la recepción de DeepSeek en Asia tiene una resonancia histórica mucho más profunda.

El lanzamiento de DeepSeek fue recibido con una intensa cobertura mediática. Su recepción en el JLF reveló un sentimiento que trascendió las meras discusiones sobre el rendimiento de la IA. Escritores y periodistas indios, a menudo críticos con China, se encontraron unidos por una lucha compartida contra el dominio de las corporaciones estadounidenses de IA (AIC, por sus siglas en inglés). Este entusiasmo por DeepSeek en toda Asia tiene sus raíces en la historia colonial y, más recientemente, en provocadoras declaraciones corporativas.

IA: Una Lucha Moderna por la Autosuficiencia

Para Stephen Platt, autor de ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’, las ambiciones tecnológicas de China son inseparables de sus cicatrices históricas. Las Guerras del Opio (1839-1860) sirven como un potente símbolo de cómo la superioridad tecnológica y militar de Gran Bretaña humilló a China. Este “Siglo de Humillación” alimenta el impulso actual de China por la autosuficiencia, sus agresivas inversiones en IA, semiconductores y otras tecnologías críticas. Es una determinación de evitar la dependencia de la tecnología occidental, una lección grabada en la conciencia nacional.

Los panelistas indios en el JLF encontraron puntos en común en esta narrativa. Al igual que China, India lleva la oscura marca de la influencia de la Compañía de las Indias Orientales. Además, la periodistabritánica Anita Anand destacó un controvertido video del CEO de OpenAI, Sam Altman, descartando el potencial de India para competir con las AIC en el entrenamiento de modelos fundacionales, afirmando que era “totalmente desesperanzador”. Tales comentarios solo han fortalecido la determinación de autosuficiencia en la región.

IA de Código Abierto: Un Símbolo de Resistencia

DeepSeek, y los laboratorios europeos que lo precedieron, han ofrecido un rayo de esperanza en la carrera de la IA. Su elección de adoptar el código abierto se ha convertido en un poderoso símbolo de resistencia contra el dominio de los modelos de IA propietarios.

El lanzamiento de DeepSeek R1 debe entenderse en el contexto de una rivalidad profundamente arraigada, particularmente con los Estados Unidos. Esta rivalidad es tan profunda que Europa a menudo se pasa por alto en las discusiones sobre la competencia con la tecnología estadounidense.

El dominio de las AIC incluso ha provocado comparaciones con el colonialismo en Occidente. En un artículo de opinión de agosto de 2024 titulado ‘The Rise of Techno-Colonialism’, Hermann Hauser, miembro del Consejo Europeo de Innovación, y Hazem Danny Nakib, investigador principal del University College London (UCL), escribieron: ‘A diferencia del colonialismo de antaño, el tecnocolonialismo no se trata de apoderarse de territorios, sino de controlar las tecnologías que sustentan la economía mundial y nuestra vida cotidiana. Para lograr esto, Estados Unidos y China están repatriando cada vez más los segmentos más innovadores y complejos de las cadenas de suministro globales, creando así puntos de estrangulamiento estratégicos’.

El enfoque pionero de código abierto de los laboratorios europeos de IA como Mistral, kyutai y el equipo FAIR Paris de Meta, y ahora DeepSeek, ha presentado una alternativa convincente a la estrategia de modelo de IA propietario de las AIC. Estas contribuciones de código abierto están resonando a nivel mundial y han solidificado aún más la adopción de la IA de código abierto como un símbolo de resistencia contra el dominio estadounidense de la IA.

El Caso del Código Abierto: La Historia Rima

La colaboración tecnológica prospera con la energía y la velocidad, algo que es inherente a la evolución del código de software.

El premio Nobel de Economía francés Jean Tirole, inicialmente desconcertado por el surgimiento del código abierto, cuestionó en su artículo de 2000 con Josh Lerner, ‘The Simple Economics of Open Source’: ‘¿Por qué miles de programadores de primer nivel deberían contribuir libremente a la provisión de un bien público? Cualquier explicación basada en el altruismo solo llega hasta cierto punto’.

Si bien es comprensible en ese momento, cualquiera que siga el progreso de la IA en los últimos años, especialmente después del lanzamiento de DeepSeek R1, encontraría la respuesta evidente. El impacto de FAIR Paris en la apertura del código de Llama por parte de Meta, el meteórico ascenso de Mistral y sus fundadores a través de la apertura del código de un modelo de aprendizaje de idiomas (LLM) de 7B, y DeepSeek R1 demuestran las convincentes razones detrás de la dedicación de estos programadores y científicos al código abierto.

También aclara por qué Sam Altman y sus cofundadores eligieron el nombre ‘OpenAI’ para atraer talento. ¿Habría alguno de estos laboratorios de vanguardia logrado una publicidad tan rotunda y construido marcas personales tan sólidas dentro de la comunidad de la IA si hubieran optado por un enfoque propietario? La respuesta es un rotundo no.

Dos poderosas citas de 1999, del programador Richard Stallman y el desarrollador Eric Raymond, respectivamente, incluidas al comienzo del artículo, iluminan la recepción de DeepSeek en el JLF y subrayan las fuerzas ideológicas más profundas en juego:

  • ‘La idea de que el sistema social del software propietario, el sistema que dice que no se le permite compartir o cambiar el software, es antisocial, que no es ético, que es simplemente incorrecto, puede sorprender a algunas personas. Pero, ¿qué más podemos decir sobre un sistema basado en dividir al público y mantener a los usuarios indefensos?’ - Richard Stallman

  • ‘La función de utilidad que los hackers de Linux están maximizando no es clásicamente económica, sino la intangible de su propia satisfacción del ego y reputación entre otros hackers. … Las culturas voluntarias que funcionan de esta manera en realidad no son infrecuentes; otra en la que he participado durante mucho tiempo es el fandom de la ciencia ficción, que a diferencia del hackerdom reconoce explícitamente el egoboo (la mejora de la reputación de uno entre otros fans)’. - Eric Raymond

La trayectoria de Unix en las décadas de 1970 y 1980 proporciona una analogía convincente para el estado actual de la IA. La promoción inicial y la distribución gratuita de Unix por parte de AT&T dentro del ámbito académico fomentaron la innovación y la adopción. Sin embargo, cuando AT&T impuso una licencia propietaria a fines de la década de 1970, inevitablemente llevó a la Universidad de Berkeley a lanzar BSD Unix, una alternativa abierta, y finalmente a Linus Torvalds a crear Linux. El desarrollo de Linux por parte de Torvalds en Europa desplazó el epicentro del software de código abierto fuera de los EE. UU.

Los paralelismos son sorprendentes, incluso geográficamente, con la evolución de la IA. Esta vez, sin embargo, han surgido nuevas geografías: TII de Abu Dhabi con sus modelos Falcon, DeepSeek de China, Qwen de Alibaba y, más recientemente, Krutrim AI Lab de India con sus modelos de código abierto para idiomas índicos.

El equipo FAIR Paris de Meta, junto con los principales laboratorios europeos de IA y los laboratorios de vanguardia más nuevos (DeepSeek, Falcon, Qwen, Krutrim), han acelerado significativamente la innovación en IA. Al compartir abiertamente documentos de investigación y código, han:

  • Entrenado a una nueva generación de ingenieros e investigadores de IA en técnicas de IA de vanguardia.
  • Creado un ecosistema de colaboración abierta, que permite avances rápidos fuera de los laboratorios de IA propietarios.
  • Proporcionado modelos de IA alternativos, asegurando que la IA no sea monopolizada por las corporaciones estadounidenses de IA.

Estos cuatro ecosistemas (Europa, India, Abu Dhabi y China) podrían forjar una poderosa alianza de IA de código abierto para desafiar a las AIC dominantes que aún operan bajo una mentalidad de IA propietaria.

En un cuestionario Ask Me Anything (AMA) el 31 de enero de 2025, tras el lanzamiento de DeepSeek R1, Altman reconoció que el enfoque del modelo de IA propietario había estado en el lado equivocado de la historia.

Con el tiempo, los laboratorios de IA de todo el mundo pueden optar por unirse a esta alianza para avanzar colectivamente en el campo. Esta no sería la primera vez que un campo científico trasciende fronteras e ideologías políticas a través de una iniciativa sin fines de lucro. Ofrece un modo de competencia que evita desencadenar los agravios anticoloniales a menudo expresados por el Sur Global.

Precedentes Históricos: El Proyecto Genoma Humano como Modelo para la IA

Como biólogo, soy particularmente consciente de los logros del Proyecto Genoma Humano (PGH) y cómo finalmente superó la iniciativa con fines de lucro de Celera Genomics, beneficiando al campo y a la humanidad en su conjunto.

El PGH fue una innovadora iniciativa de investigación internacional que mapeó y secuenció todo el genoma humano. Completado en 2003 después de 13 años de colaboración, ha generado casi $800 mil millones en impacto económico a partir de una inversión de $3 mil millones, según un informe de 2011 actualizado en 2013 (un retorno de la inversión a la economía estadounidense de 141 a uno: cada $1 de inversión federal en el PGH ha contribuido a la generación de $141 en la economía). Ha revolucionado la medicina, la biotecnología y la genética, permitiendo avances en la medicina personalizada, la prevención de enfermedades y la investigación genómica. El trabajo de secuenciación e investigación fue realizado por 20 laboratorios en seis países: EE. UU., Reino Unido, Francia, Alemania, Japón y China.

Si bien Celera Genomics intentó secuenciar secuencias genómicas con fines de lucro, el PGH priorizó el intercambio abierto de datos, consagrado en sus Principios de Bermuda. Establecidos durante la Reunión Internacional de Estrategia sobre la Secuenciación del Genoma Humano en Bermuda en febrero de 1996, estos principios fueron cruciales para dar forma a las políticas de intercambio de datos para el PGH y han tenido un impacto duradero en las prácticas de investigación genómica a nivel mundial. Sus principios clave fueron:

  1. Liberación Inmediata de Datos: Todos los datos de secuencia genómica humana generados por el PGH debían ser liberados en bases de datos públicas, preferiblemente dentro de las 24 horas posteriores a la generación. Esta rápida difusión tenía como objetivo acelerar el descubrimiento científico y maximizar los beneficios sociales.
  2. Acceso Libre y Sin Restricciones: Los datos debían estar disponibles gratuitamente para la comunidad científica mundial y el público, sin restricciones en su uso para fines de investigación o desarrollo.
  3. Prevención de Reclamaciones de Propiedad Intelectual: Los participantes acordaron que no se reclamarían derechos de propiedad intelectual sobre los datos de secuencia genómica primaria, promoviendo un espíritu de ciencia abierta y previniendo posibles obstáculos a la investigación debido a las patentes.

En términos de gobernanza, el PGH fue una iniciativa científica colaborativa y coordinada, no una organización o corporación independiente. Fue un esfuerzo descentralizado financiado a través de subvenciones y contratos gubernamentales a varias instituciones de investigación. Una parte de su presupuesto (3-5%) se dedicó a estudiar y abordar las preocupaciones éticas, legales y sociales relacionadas con la secuenciación del genoma humano.

Uniendo la Seguridad de la IA y la IA de Código Abierto

Otra ventaja crucial de la IA de código abierto es su papel en la investigación de la seguridad de la IA.

La Cumbre de IA de Seúl en 2024 se centró exclusivamente en los riesgos existenciales en un momento en que las AIC tenían una ventaja significativa sobre el resto del mundo. Tan recientemente como en mayo de 2024, el ex CEO de Google, Eric Schmidt, afirmó que EE. UU. estaba 2-3 años por delante de China en IA, mientras que Europa estaba demasiado preocupada por la regulación para ser relevante. Si la Cumbre hubiera tenido éxito, habría cedido efectivamente el control de las decisiones de seguridad de la IA a estas corporaciones. Afortunadamente, no fue así.

Ahora que la IA de código abierto está cerrando la brecha tecnológica, las discusiones sobre seguridad ya no serán dictadas únicamente por un puñado de actores dominantes. En cambio, un grupo más amplio y diverso de partes interesadas, incluidos investigadores, legisladores y laboratorios de IA de Europa, India, China y Abu Dhabi, tienen la oportunidad de dar forma a la discusión junto con las AIC.

Además, la IA de código abierto mejora las capacidades de disuasión global, asegurando que ningún actor individual pueda monopolizar o hacer un mal uso de los sistemas de IA avanzados sin rendir cuentas. Este enfoque descentralizado de la seguridad de la IA ayudará a mitigar las posibles amenazas existenciales al distribuir tanto las capacidades como la supervisión de manera más equitativa en todo el ecosistema global de la IA.

Un Proyecto de IA Humana con los Principios de París

¿Qué papel puede desempeñar la Cumbre de Acción de IA en París la próxima semana en la configuración del futuro de la IA?

Esto presenta una oportunidad crucial para establecer un Proyecto de IA Humana, modelado a partir del Proyecto Genoma Humano, para avanzar y apoyar el desarrollo de IA de código abierto a escala global. Las contribuciones actuales de código abierto, desde los pioneros laboratorios europeos de IA hasta DeepSeek, ya están acelerando el campo y ayudando a cerrar la brecha con las AIC.

Las capacidades de la IA se ven significativamente mejoradas por la madurez del ecosistema general de código abierto, con miles de proyectos maduros, modelos de gobernanza dedicados y una profunda integración en la empresa, la academia y el gobierno.

El ecosistema de IA de código abierto también se beneficia de plataformas como Github y Gitlab. Más recientemente, las plataformas dedicadas a la IA de código abierto, como Hugging Face, una corporación estadounidense cofundada por tres empresarios franceses, han comenzado a desempeñar un papel vital como plataformas de distribución para la comunidad.

Dada la relativa madurez del ecosistema de IA de código abierto en comparación con la secuenciación del genoma humano a principios de la década de 1990, ¿cómo podría la IA de código abierto beneficiarse de un Proyecto de IA Humana?

Por un lado, la Unión Europea a menudo es criticada por las AIC y sus propios laboratorios de IA de vanguardia por su regulación del código abierto. Un Proyecto de IA Humana podría dedicar un esfuerzo conjunto para desarrollar la alineación regulatoria y los estándares en los países y regiones participantes. Un enfoque coordinado, con contribuciones iniciales de Europa, India, Abu Dhabi y China, podría facilitar la difusión de modelos de código abierto en esta región regulatoria compartida (una especie de área de libre comercio para el código abierto).

Si bien no se ha demostrado definitivamente, existen paralelismos con la dinámica impulsada por la rivalidad que dio forma a la reacción a DeepSeek en el JLF. De manera similar, la regulación de la IA podría elaborarse con un enfoque en fomentar la innovación y maximizar el beneficio público, tanto para las empresas como para los consumidores, en lugar de servir como un mecanismo potencial para impedir el progreso de las AIC u obstaculizar a los campeones de IA locales que se esfuerzan por cerrar la brecha.

El proyecto también podría facilitar el intercambio de talentos y financiar una infraestructura informática compartida (vinculada a la infraestructura energética) para la IA de código abierto. Es evidente en el gráfico a continuación que los graduados STEM talentosos en algunas partes del mundo podrían tener dificultades para acceder a la infraestructura de IA de clase mundial que le falta a su país.

Otra área de colaboración sería establecer las mejores prácticas sobre estándares de acceso abierto para modelos y conjuntos de datos, que abarquen pesos, código y documentación.

El proyecto también podría fomentar la colaboración global en la Investigación de Seguridad de la IA. En lugar de competir en secreto para solucionar los problemas de alineación, los investigadores de París a Beijing y Bangalore podrían trabajar juntos para evaluar modelos y mitigar riesgos. Todos los hallazgos de seguridad (por ejemplo, métodos para reducir los resultados dañinos o herramientas para la interpretabilidad) podrían compartirse rápidamente en el dominio público.

Este principio reconocería que la seguridad de la IA es un bien público global: un avance en un laboratorio (digamos, un nuevo algoritmo para hacer transparente el razonamiento de la IA) debería beneficiar a todos, no mantenerse como propietario. Se podrían organizar puntos de referencia de seguridad conjuntos y eventos de desafío para fomentar una cultura de responsabilidad colectiva. Al agrupar la investigación de seguridad, el proyecto tendría como objetivo adelantarse al posible mal uso o accidentes de la IA, asegurando al público que los poderosos sistemas de IA se están administrando con cuidado.

El enfoque en el riesgo existencial en la Cumbre de Seguridad de la IA del Reino Unido de 2023 en Bletchley Park, al enfatizar demasiado la analogía de la proliferación nuclear, perdió la oportunidad de examinar otras áreas donde la seguridad se considera un bien público: ciberseguridad, antibióticos e inmunología (con varias iniciativas interesantes después de Covid-19) y seguridad de la aviación.

El proyecto también podría asociarse y promover el trabajo que actualmente lleva a cabo la Fundación privada ARC Prize para fomentar el desarrollo de sistemas de IA seguros y avanzados. El Premio ARC, cofundado por François Chollet, creador de la biblioteca de código abierto Keras, y Mike Knoop, cofundador de la empresa de software Zapier, es una organización sin fines de lucro que organiza concursos públicos para avanzar en la investigación de la inteligencia artificial general (AGI). Su evento insignia, la competencia ARC Prize, ofrece más de $1 millón a los participantes que puedan desarrollar y abrir soluciones de código abierto para el punto de referencia ARC-AGI, una prueba diseñada para evaluar la capacidad de un sistema de IA para generalizar y adquirir nuevas habilidades de manera eficiente.

El énfasis de la Fundación ARC Prize en las soluciones de código abierto y las competiciones públicas se alinea perfectamente con los objetivos del Proyecto de IA Humana de fomentar la colaboración internacional y la transparencia en el desarrollo de la IA, como se indica en el sitio web de la Fundación ARC Prize en ‘AGI’:

‘Los LLM se entrenan con cantidades inimaginablemente grandes de datos, pero siguen siendo incapaces de adaptarse a problemas simples para los que no han sido entrenados, o de hacer invenciones novedosas, sin importar cuán básicas sean. Los fuertes incentivos del mercado han impulsado la investigación de la IA de vanguardia a ser de código cerrado. La atención y los recursos de la investigación se están desviando hacia un callejón sin salida. ARC Prize está diseñado para inspirar a los investigadores a descubrir nuevos enfoques técnicos que impulsen el progreso de la AGI abierta’.

Al igual que el PGH, el Proyecto de IA Humana dedicaría parte de su financiación a la gobernanza y supervisión éticas. Esto incluiría discusiones sobre los derechos de autor. El Proyecto podría ayudar a la sociedad a considerar la ética de acceder a la mejor fuente de información en la formación de forma gratuita mientras se desarrollan modelos propietarios sobre ella. En el espacio de la biología, es bien sabido que el Protein Data Bank, que fue fundamental para que el modelo AlphaFold de Google DeepMind predijera la estructura de las proteínas, probablemente requirió el equivalente a $10 mil millones de financiación durante un período de 50 años. El Proyecto podría ayudar a pensar en cómo seguimos financiando el desarrollo de la IA o cómo las AIC propietarias deberían compartir los ingresos con los creadores de obras originales.

Juntos, estos Principios de París y el Proyecto de IA Humana ayudarían a avanzar en la IA a nivel mundial de una manera más abierta, colaborativa y ética. Se basarían en los logros de los principales contribuyentes de código abierto desde Europa hasta Oriente Medio, India y ahora China, dentro de los marcos y plataformas existentes de software de código abierto y específicos de la IA.

La Historia Rima con la IA

La oportunidad que tenemos ante nosotros es inmensa. Mistral AI, kyutai, BFL, Stability y, más recientemente, DeepSeek han dado al público la esperanza de que un futuro donde la cooperación rivalice o incluso supere a las AIC propietarias es posible.

Todavía estamos en las primeras etapas de este avance tecnológico. Deberíamos estar agradecidos por las contribuciones que las AIC han hecho al campo. La Cumbre de Acción de IA debería ser una oportunidad para fomentar la innovación cooperativa a una escala sin precedentes y llevar a tantos actores como sea posible al lado correcto de la historia.

Es 1789 de nuevo. Estamos presenciando una lucha por la soberanía tecnológica, una descentralización del poder y un llamado a la IA como bien público. Y al igual que en 1789, esta revolución no será contenida.