Revolución IA Open Source: GOSIM AI París 2025

El panorama de la IA ha experimentado una transformación dramática en el último año, impulsada por el espíritu colaborativo del desarrollo de código abierto. Los modelos de lenguaje grandes (LLM), que ya no son dominio exclusivo de los gigantes tecnológicos, ahora están evolucionando a través de esfuerzos comunitarios y el intercambio abierto, lo que impacta todo, desde la infraestructura hasta la optimización y la implementación de algoritmos. Este movimiento de código abierto está acelerando el progreso de la IA, haciéndola más accesible y democratizando la oportunidad de contribuir a la próxima generación de sistemas inteligentes.

En este contexto, la conferencia GOSIM AI París 2025, organizada conjuntamente por GOSIM, CSDN y 1ms.ai, comenzó el 6 de mayo en París, Francia. El evento sirve como una plataforma crucial, que conecta a profesionales e investigadores de tecnología global para explorar los últimos avances y las direcciones futuras en la IA de código abierto.

La conferencia cuenta con una impresionante lista de más de 80 expertos y académicos en tecnología de organizaciones líderes como Alibaba, Hugging Face, BAAI, MiniMax, Neo4j, Dify, MetaGPT, Zhipu AI, Eigent.AI, Docker, Inflow, Peking University, Fraunhofer, Oxford University y la comunidad francesa openLLM. Socios clave, incluidos Huawei, la Asociación de Jóvenes de China para la Innovación y el Emprendimiento en Francia, la Asociación Sino-Francesa de Inteligencia Artificial, la Apache Software Foundation, la Eclipse Foundation, The Khronos Group, WasmEdgeRuntime, LF Generative AI Commons, la Linux Foundation Research, la OpenWallet Foundation, la Open Source Initiative (OSI), Software Heritage y K8SUG, también participan activamente. La conferencia presenta más de 60 sesiones técnicas centradas en temas centrales como modelos de IA, infraestructura, implementación de aplicaciones e inteligencia incorporada, lo que proporciona una visión integral de la evolución del ecosistema de código abierto y las tendencias emergentes.

La relación simbiótica entre la IA y el código abierto

Michael Yuan, cofundador de GOSIM, dio inicio a la conferencia con un discurso de apertura titulado “El código abierto se ha puesto al día, ¿qué sigue?”. Compartió sus ideas sobre el estado actual y la trayectoria futura de la IA de código abierto, enfatizando que ha llegado a un momento crucial.

“Una vez predijimos que el código abierto tardaría entre 5 y 10 años en alcanzar a los modelos de código cerrado, pero parece que este objetivo se ha logrado antes de lo previsto”, afirmó Yuan. Citó el reciente lanzamiento de Qwen 3 como ejemplo, y señaló que los modelos de código abierto ya no solo compiten entre sí, sino que ahora desafían directamente a los modelos insignia patentados, incluso superándolos en ciertos puntos de referencia. Yuan también sugirió que este progreso no se debe únicamente a los avances del código abierto, sino también al hecho de que el desarrollo de código cerrado no cumple con las expectativas y encuentra cuellos de botella en el rendimiento. En contraste, los modelos de código abierto están evolucionando rápidamente, exhibiendo una curva de crecimiento de rendimiento pronunciada y demostrando un verdadero fenómeno de “recuperación”.

Esta observación plantea una pregunta fundamental: ¿Qué tan lejos estamos de lograr la Inteligencia Artificial General (AGI)? Yuan cree que el futuro de la AGI puede no residir en un solo modelo que lo abarque todo, sino más bien en una red de modelos, bases de conocimiento y herramientas especializadas implementadas en hardware privado o dispositivos robóticos.

Además, explicó que la arquitectura de la IA está pasando de un paradigma centralizado a uno descentralizado. Destacó la transición de OpenAI de la API Completion a la nueva API Responses, que tiene como objetivo construir una plataforma de agentes inteligentes a gran escala. Casi 600,000 usuarios y desarrolladores ya se han unido a esta transformación, contribuyendo al desarrollo de aplicaciones de IA distribuidas.

“El futuro de la AGI no debe ser desarrollado exclusivamente por una sola empresa bien financiada”, afirmó Yuan. “En cambio, debe construirse a través de la colaboración global, creando una red de ecosistema que abarque modelos, bases de conocimiento, robots y sistemas de ejecución”.

Después del discurso de Yuan, Daniel Goldscheider, Director Ejecutivo de la OpenWallet Foundation, realizó una presentación sobre “GDC Wallets & Credentials”, centrándose en el proyecto Global Digital Compact (GDC), adoptado por la Asamblea General de las Naciones Unidas. Explicó que el GDC tiene dos objetivos centrales:

  • Reconocer que las tecnologías digitales han transformado profundamente nuestras vidas y el desarrollo social, trayendo tanto oportunidades sin precedentes como riesgos imprevistos.
  • Enfatizar que para realizar todo el potencial de las tecnologías digitales en beneficio de toda la humanidad se requiere la cooperación global, rompiendo las barreras entre países, industrias e incluso sectores públicos y privados.

Con base en esta comprensión compartida, el GDC ha generado la iniciativa “Colaboración Digital Global”, con el objetivo de fomentar la colaboración genuina entre gobiernos, empresas, organizaciones sin fines de lucro y otras partes interesadas.

Al discutir los aspectos operativos, Goldscheider enfatizó que esta colaboración no está dictada por ninguna organización en particular, sino que adopta un enfoque de “convocatoria conjunta”, invitando a todas las organizaciones internacionales interesadas, organismos de normalización, comunidades de código abierto y organizaciones intergubernamentales a participar. Aclaró que no se trata de un proyecto de “¿quién lidera a quién?”, sino de una plataforma de colaboración equitativa donde cada parte tiene voz y nadie es más importante que otro.

Además, explicó que la Colaboración Digital Global no tiene como objetivo desarrollar directamente estándares o tecnologías, sino facilitar un diálogo entre organizaciones de diversos orígenes, permitiéndoles presentar sus perspectivas y necesidades para llegar a un consenso. Posteriormente, los organismos especializados relevantes avanzarán en los estándares específicos y el trabajo técnico. Citó la “identidad digital” y la “tecnología biométrica” como ejemplos, y señaló que muchas organizaciones ya están trabajando en estas áreas, destacando la necesidad de una plataforma neutral para reunir a todos, evitar la duplicación, los conflictos y el desperdicio de recursos.

Cuatro foros dedicados: un análisis exhaustivo de la IA de código abierto

La conferencia contó con cuatro foros especializados: Modelos de IA, Infraestructura de IA, Aplicaciones de IA e Inteligencia Incorporada. Estos foros cubrieron temas críticos que van desde la arquitectura subyacente hasta la implementación de aplicaciones, y desde las capacidades del modelo hasta las prácticas de agentes inteligentes. Cada foro contó con expertos líderes de empresas e instituciones de investigación globales, que proporcionaron tanto un análisis profundo de las últimas tendencias tecnológicas como la presentación de casos prácticos de ingeniería ricos, que demuestran la integración integral y la evolución de la IA de código abierto en múltiples campos.

Deconstruyendo la lógica subyacente de los grandes modelos de IA

El foro de Modelos de IA reunió a expertos de comunidades de código abierto e instituciones de investigación para compartir ideas sobre innovaciones arquitectónicas, colaboración de código abierto y evolución del ecosistema en el ámbito de los grandes modelos.

Guilherme Penedo, ingeniero de investigación de aprendizaje automático en Hugging Face, presentó “Open-R1: una reproducción de código abierto completo de DeepSeek-R1”, mostrando los esfuerzos del proyecto Open-R1 para replicar el modelo DeepSeek-R1, con un enfoque en promover la apertura y la estandarización de los datos relacionados con las tareas de inferencia. Guang Liu, líder tecnológico del equipo de investigación de datos en el Instituto de Investigación Zhiyuan, compartió “OpenSeek: innovación colaborativa hacia la próxima generación de grandes modelos”, enfatizando la importancia de la colaboración global para impulsar avances en el rendimiento del modelo a nivel de algoritmo, datos y sistema, con el objetivo de desarrollar la próxima generación de grandes modelos que superen a DeepSeek.

Jason Li, vicepresidente sénior de CSDN, presentó “Decodificando DeepSeek: innovación tecnológica y su impacto en el ecosistema de IA”, proporcionando un análisis profundo de las innovaciones de DeepSeek en paradigmas técnicos, arquitectura de modelos y ecología industrial, así como su impacto potencial en el ecosistema global de IA. Yiran Zhong, director sénior de investigación en MiniMax, presentó “Futuro lineal: la evolución de las arquitecturas de modelos de lenguaje grandes”, presentando el mecanismo Lightning Attention propuesto por el equipo, que ofrece una alternativa potencial a las arquitecturas Transformer en términos de eficiencia y rendimiento. Shiwei Liu, Royal Society Newton International Fellow en la Universidad de Oxford, discutió “La maldición de la profundidad en los modelos de lenguaje grandes”, explorando las contribuciones decrecientes de las redes neuronales profundas a medida que los modelos se profundizan, y proponiendo el uso de LayerNorm Scaling para mejorar el mecanismo Pre-LN para mejorar la utilización de la capa profunda y la eficiencia general. Diego Rojas, ingeniero de investigación en Zhipu AI, señaló en “Modelos de lenguaje grandes de código: explorando más allá de los tokens” que los modelos grandes actuales, aunque poderosos, todavía dependen de la tokenización, que es ineficiente, y compartió nuevos métodos para omitir la tokenización para hacer que los modelos sean más rápidos y fuertes. Nicolas Flores-Herr, jefe del equipo de modelos básicos en Fraunhofer IAIS, concluyó el foro con “¿Cómo construir modelos de lenguaje grandes "hechos en Europa" globalmente competitivos?”, enfatizando que Europa está superando los desafíos de datos, diversidad y regulatorios a través de proyectos de modelos grandes multilingües, de código abierto y localizados confiables, para construir la próxima generación de IA que refleje los valores europeos.

La tríada de la infraestructura de IA: datos, potencia informática y evolución algorítmica

Centrándose en la construcción de una base más abierta, eficiente e inclusiva para los grandes modelos, el foro de Infraestructura de IA reunió a expertos líderes de instituciones de investigación y empresas para participar en debates profundos sobre cuestiones clave como los datos, la potencia informática y la arquitectura del sistema.

Yonghua Lin, vicepresidente del Instituto de Investigación Zhiyuan (BAAI), lanzó el Corpus de Internet chino CCI 4.0 en “IA de código abierto para el bien: aplicaciones inclusivas, datos justos y potencia informática universal”, que cubre tres conjuntos de datos principales: CCI4.0-M2-Base V1, CCI4.0-M2-CoT V1 y CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 tiene un volumen de datos de 35000 GB, es bilingüe en chino e inglés, con 5000 GB de datos chinos, un aumento de 5 veces en la escala de datos en comparación con CCI3.0. CCI4.0-M2-CoT V1 contiene 450 millones de datos de trayectoria de pensamiento humano sintetizados inversos para mejorar la capacidad de razonamiento, con un número total de tokens de 425B (425 mil millones), casi 20 veces el tamaño de Cosmopedia (de código abierto por Hugging Face), el conjunto de datos sintéticos de código abierto más grande disponible actualmente a nivel mundial.

Xiyuan Wang, ingeniero de software sénior de Huawei, luego presentó cómo la arquitectura CANN conecta los marcos de IA y el hardware Ascend en “Mejores prácticas para el entrenamiento y la inferencia basadas en Ascend CANN”, y logra una inferencia de entrenamiento óptima a través de ecosistemas de soporte como PyTorch y vLLM. Guillaume Blaquiere, arquitecto de datos de Carrefour, demostró cómo implementar instancias de modelos grandes sin servidor que admiten GPU a través de Google Cloud Run para reducir los costos y mejorar la eficiencia de la utilización de los recursos en “Hacer que su LLM sea sin servidor”. Yinping Ma, ingeniero de la Universidad de Pekín, pronunció un discurso de apertura sobre “Software básico de programación y gestión integrada de computación inteligente de código abierto - SCOW y CraneSched”, presentando los dos principales software básicos de código abierto desarrollados por la Universidad de Pekín, SCOW y CraneSched, que se han implementado en docenas de universidades y empresas de todo el país, apoyando la gestión unificada y la programación de alto rendimiento de los recursos de computación inteligente. Yaowei Zheng, candidato a doctorado en la Universidad de Beihang, compartió el concepto de diseño de la arquitectura de controlador híbrido en el sistema Verl en el discurso “verl: un sistema RLHF basado en un controlador híbrido”, y discutió sus ventajas de eficiencia en el entrenamiento de aprendizaje por refuerzo a gran escala. Greg Schoeninger, CEO de Oxen.ai, presentó los “Conjuntos de datos de entrenamiento e infraestructura para el aprendizaje por refuerzo al estilo DeepSeek-R1 (GRPO)” y detalló la ruta práctica para los procesos de entrenamiento de aprendizaje por refuerzo para los LLM de razonamiento, incluida la construcción de conjuntos de datos, la construcción de infraestructura y los modelos de generación de código de entrenamiento local.

De “¿Se puede usar?” a “¿Se usa bien?”: las aplicaciones de IA entran en la etapa práctica

En el foro de Aplicaciones de IA, los profesionales de I+D y los responsables de la toma de decisiones tecnológicas de las empresas líderes compartieron una amplia gama de ideas, mostrando las rutas de implementación en el mundo real y las posibilidades futuras de las aplicaciones de IA impulsadas por grandes modelos.

Yongbin Li, investigador jefe de Alibaba Tongyi Lab, compartió los últimos avances de Tongyi Lingma en la evolución técnica y la aplicación de productos en “Tongyi Lingma: de copiloto de codificación a agente de codificación”. Dongjie Chen, ingeniero de software de Huawei, pronunció un discurso de apertura sobre “Cangjie Magic: una nueva opción para los desarrolladores en la era de los grandes modelos”, presentando el marco de desarrollo de agentes de modelos grandes de IA basado en el lenguaje de programación Cangjie, que puede mejorar significativamente la eficiencia de los desarrolladores en la construcción de aplicaciones inteligentes HarmonyOS y brindar una excelente experiencia de desarrollo. Xinrui Liu, director del ecosistema de desarrolladores de LangGenius, se centró en “Trabajando juntos, potencia técnica habilitada por Dify”, enfatizando el ecosistema de código abierto de Dify y su papel en la aceleración de la popularización de las aplicaciones de IA.

Con respecto a la combinación de la IA y la ingeniería de sistemas, Rik Arends, cofundador de Makepad, realizó una presentación única: “Usando la codificación ambiental, use la IA para crear una interfaz de usuario Rust para dispositivos móviles, páginas web y realidad mixta”, explorando cómo usar la codificación ambiental para construir un nuevo paradigma para la interfaz de usuario. Christian Tzolov, ingeniero de software de I+D del equipo de Broadcom Spring, se centró en demostrar cómo integrar eficientemente los modelos de IA con los sistemas y recursos existentes a través del MCP Java SDK y Spring AI MCP en “Un paradigma unificado para la integración de la IA a través de MCP”. Wenjing Chu, director sénior de estrategia tecnológica de Futurewei, elevó aún más la perspectiva en “La ‘T’ en MCP y A2A significa confianza”, analizando profundamente cómo construir sistemas de IA verdaderamente confiables en aplicaciones basadas en agentes. Además, Hong-Thai Nguyen, gerente de ingeniería de software de Cegid, presentó cómo los agentes múltiples pueden remodelar los procesos comerciales y lograr una toma de decisiones y una operación empresarial más inteligentes en combinación con escenarios prácticos en el discurso “Cegid Pulse: plataforma de gestión empresarial multiagente”.

Cuando los grandes modelos están equipados con “cuerpos”: llega la inteligencia incorporada

La inteligencia incorporada se está convirtiendo en una de las direcciones de desarrollo más desafiantes y prometedoras en el campo de la IA. En este foro, muchos de los principales expertos técnicos de la industria participaron en debates profundos en torno al tema de la “inteligencia incorporada”, compartiendo sus exploraciones prácticas en el diseño arquitectónico, la aplicación de modelos y la implementación de escenarios.

Angelo Corsaro, CEO y CTO de ZettaScale, presentó cómo el protocolo Zenoh puede romper las barreras entre la percepción, la ejecución y la cognición en la era de los robots inteligentes en “Mente, cuerpo y Zenoh”. Philipp Oppermann, gerente de proyecto del proyecto Dora, trajo “Usando Zenoh en Dora para implementar el flujo de datos distribuido”, explicando la importante aplicación del protocolo Zenoh en Dora para implementar el flujo de datos distribuido. James Yang, profesor de la Universidad de Ciencia y Tecnología de China, pronunció un discurso sobre “Generación de escenarios adversarios de seguridad crítica en la conducción autónoma”, presentando cómo mejorar la seguridad de la tecnología de conducción autónoma generando escenarios adversarios para garantizar la estabilidad y la confiabilidad en entornos complejos.

Además, Minglan Lin, investigador de inteligencia incorporada en el Instituto de Investigación Zhiyuan, también se centró enel tema de “RoboBrain: un modelo de cerebro unificado para la operación de robots y RoboOS: un marco de colaboración jerárquica para RoboBrain y agentes inteligentes de robots”, demostrando cómo RoboBrain puede mejorar el nivel de inteligencia de los robots y el importante papel de RoboOS en la colaboración de robots. Ville Kuosmanen, fundador de Voyage Robotics, pronunció un discurso maravilloso sobre “Construyendo aplicaciones de robots con modelos VLA de código abierto”, explicando cómo usar modelos VLA de código abierto para brindar un fuerte apoyo a las aplicaciones de robots. Finalmente, Huy Hoang Ha, investigador de modelos de lenguaje grandes en Menlo Research, discutió cómo el razonamiento espacial puede ayudar a los robots a comprender mejor los entornos 2D y 3D complejos, mejorando así sus capacidades de operación y navegación en el discurso de apertura de “LLM de razonamiento espacial: mejorando la comprensión de 2D y 3D para apoyar la operación y la navegación de robots”.

Charlas destacadas: iluminando tecnologías de vanguardia y aplicaciones innovadoras

Las Charlas destacadas del Día 1 presentaron presentaciones interesantes de expertos de la industria sobre tecnologías de vanguardia y aplicaciones innovadoras. Este segmento sirvió como una plataforma para que los profesionales de la tecnología de varios dominios discutan los últimos avances y las aplicaciones prácticas de la IA. Cyril Moineau, ingeniero de investigación de la Comisión de Energía Atómica Francesa (CEA), presentó cómo el proyecto Eclipse Aidge admite la implementación y la optimización de redes neuronales profundas en plataformas integradas al proporcionar una cadena de herramientas completa en el discurso de “Aidge”, acelerando así el desarrollo de sistemas inteligentes de borde.

Paweł Kiszczak, científico de datos de Bielik.ai, compartió públicamente los últimos avances del proyecto de IA nativo polaco Bielik por primera vez en esta conferencia y pronunció un discurso titulado “El auge de Bielik.AI”, contando cómo el proyecto promueve la construcción de un sistema de IA autónomo local a través de modelos de lenguaje de código abierto y un ecosistema de herramientas completo. El proyecto Bielik no solo ha lanzado múltiples modelos de lenguaje de código abierto (escalas de parámetros que cubren 1.5B, 4.5B y 11B), sino que también ha creado una cadena de herramientas de extremo a extremo que cubre conjuntos de datos, evaluación, entrenamiento y ajuste fino, que respalda a los equipos de investigación y los desarrolladores para que ajusten o preentrenen continuamente basándose en modelos básicos, lo que reduce en gran medida el umbral de I+D para los modelos grandes y estimula las capacidades locales de innovación tecnológica.

Hung-Ying Tai, líder técnico de Second State, compartió “Ejecutando modelos GenAI en dispositivos de borde con LlamaEdge”, demostrando las capacidades livianas y de alto rendimiento de LlamaEdge para implementar modelos de IA generativos en dispositivos de borde, brindando una experiencia de razonamiento local más flexible y eficiente. Tianyu Chen, candidato a doctorado en la Universidad de Pekín, presentó cómo el marco SAFE alivia el problema de la escasez de datos de entrenamiento a través del mecanismo de autoevolución de la “síntesis de datos: ajuste fino del modelo”, mejorando así significativamente la eficiencia y la precisión de la verificación formal del código Rust en “Lograr la verificación formal automática del código Rust basada en el marco de autoevolución”. Gautier Viaud, director de I+D de Illuin Technology, compartió cómo el sistema ColPali, construido por el equipo basándose en la arquitectura ColBERT y el modelo PaliGemma, mejora eficazmente la precisión y la eficiencia de la recuperación de documentos combinando información gráfica y de texto en el discurso “ColPali: recuperación eficiente de documentos basada en el modelo de lenguaje visual”. Finalmente, Xiao Zhang, CEO de Dynamia.ai, presentó cómo administrar y programar mejor los recursos heterogéneos de GPU con la ayuda de HAMi y mejorar la tasa de utilización y la observabilidad de la infraestructura de IA en “Desbloqueando las capacidades del clúster K8s de la infraestructura de IA heterogénea: liberando el poder de HAMi”.

Interacciones diversas y aspectos destacados del primer día

Además de los discursos de apertura de alta densidad, la conferencia también contó con varias unidades especiales. La unidad de reunión a puerta cerrada se centró en los diálogos estratégicos y los intercambios profundos de la industria para promover la cooperación transfronteriza. Las sesiones de presentación se centraron en presentar los últimos productos de tecnología de IA de empresas e instituciones de investigación, atrayendo a una gran cantidad de visitantes para que se detuvieran y se comunicaran. En las sesiones de competencia, los desarrolladores de IA y robótica, los ingenieros y los entusiastas de la robótica de todo el mundo se centraron en el kit de brazo robótico SO-ARM100 de código abierto para llevar a cabo la exploración práctica del aprendizaje por imitación. El kit integra el marco LeRobot de Hugging Face y combina las tecnologías de IA y robótica de NVIDIA para admitir arquitecturas de IA de vanguardia, incluidas ACT y Diffusion Policy, lo que proporciona a los participantes una base técnica sólida. Los participantes realizaron exploraciones prácticas en escenarios reales para evaluar exhaustivamente sus efectos y su viabilidad.

Las sesiones de taller tomaron el ecosistema OpenHarmony como tema central y exploraron el proyecto de código abierto incubado y operado por la Open Atom Open Source Foundation. OpenHarmony se compromete a construir un marco de sistema operativo de terminal inteligente para la era de todos los escenarios, toda la conexión y toda la inteligencia, creando una plataforma de sistema operativo distribuido líder abierta, globalizada e innovadora, que sirve a diversos dispositivos inteligentes y ayuda al desarrollo de la industria del Internet de todo. En el sitio de la conferencia, los participantes comprendieron profundamente las ventajas centrales de OpenHarmony en la colaboración multidispositivo y el diseño de sistemas livianos a través de una serie de talleres prácticos, participando personalmente en procesos clave desde el desarrollo de controladores hasta la implementación de aplicaciones. La práctica práctica no solo ayuda a los desarrolladores a abrir la ruta técnica “de abajo hacia arriba”, sino que también mejora de manera integral las capacidades de desarrollo y depuración a nivel de sistema.

La agenda del primer día de GOSIM AI París 2025 ha llegado a una conclusión exitosa, pero la emoción continúa. Mañana, la conferencia continuará avanzando en torno a los cuatro foros principales de modelos de IA, infraestructura de IA, aplicaciones de IA e inteligencia incorporada, y dará la bienvenida al tan esperado PyTorch Day, con más invitados de peso y contenido práctico de primera línea en breve, ¡así que estad atentos!