GOSIM AI Paris 2025: Open-Source KI Revolution

Die KI-Landschaft hat im vergangenen Jahr eine dramatische Transformation erfahren, angetrieben durch den kollaborativen Geist der Open-Source-Entwicklung. Nicht mehr nur die Domäne von Tech-Giganten, entwickeln sich große Sprachmodelle (LLMs) nun durch gemeinschaftliche Bemühungen und offene Weitergabe, was sich auf alles von der Infrastruktur bis zur Algorithmusoptimierung und Bereitstellung auswirkt. Diese Open-Source-Bewegung beschleunigt den Fortschritt der KI, macht sie zugänglicher und demokratisiert die Möglichkeit, zur nächsten Generation intelligenter Systeme beizutragen.

Vor diesem Hintergrund begann am 6. Mai in Paris, Frankreich, die GOSIM AI Paris 2025 Konferenz, die von GOSIM, CSDN und 1ms.ai gemeinsam veranstaltet wird. Die Veranstaltung dient als wichtige Plattform, die globale Technologiepraktiker und Forscher verbindet, um die neuesten Durchbrüche und zukünftigen Richtungen der Open-Source-KI zu erkunden.

Die Konferenz bietet eine beeindruckende Aufstellung von über 80 Technologieexperten und Wissenschaftlern führender Organisationen wie Alibaba, Hugging Face, BAAI, MiniMax, Neo4j, Dify, MetaGPT, Zhipu AI, Eigent.AI, Docker, Inflow, Peking University, Fraunhofer, Oxford University und der französischen openLLM-Community. Wichtige Partner, darunter Huawei, die All-China Youth Innovation and Entrepreneurship Association in Frankreich, die Sino-French Artificial Intelligence Association, die Apache Software Foundation, die Eclipse Foundation, The Khronos Group, WasmEdgeRuntime, LF Generative AI Commons, die Linux Foundation Research, die OpenWallet Foundation, die Open Source Initiative (OSI), Software Heritage und K8SUG, beteiligen sich ebenfalls aktiv. Die Konferenz umfasst über 60 technische Sitzungen, die sich auf Kernthemen wie KI-Modelle, Infrastruktur, Anwendungsbereitstellung und verkörperte Intelligenz konzentrieren und einen umfassenden Überblick über die Entwicklung und die aufkommenden Trends des Open-Source-Ökosystems bieten.

Die symbiotische Beziehung zwischen KI und Open Source

Michael Yuan, Mitbegründer von GOSIM, eröffnete die Konferenz mit einer Keynote-Rede mit dem Titel "Open Source hat aufgeholt, was kommt als Nächstes?" Er teilte seine Einsichten über den aktuellen Stand und die zukünftige Entwicklung der Open-Source-KI und betonte, dass sie einen entscheidenden Moment erreicht hat.

"Wir hatten einst vorhergesagt, dass es 5-10 Jahre dauern würde, bis Open Source zu Closed-Source-Modellen aufschließt, aber es scheint, dass dieses Ziel früher als geplant erreicht wurde", sagte Yuan. Er nannte die kürzliche Veröffentlichung von Qwen 3 als Beispiel und stellte fest, dass Open-Source-Modelle nicht mehr nur miteinander konkurrieren, sondern nun direkt proprietäre Flaggschiffmodelle herausfordern und diese sogar in bestimmten Benchmarks übertreffen. Yuan deutete auch an, dass dieser Fortschritt nicht nur auf Open-Source-Fortschritten beruht, sondern auch darauf, dass die Closed-Source-Entwicklung die Erwartungen nicht erfüllt und auf Leistungsengpässe stößt. Im Gegensatz dazu entwickeln sich Open-Source-Modelle rasant, weisen eine steile Leistungswachstumskurve auf und zeigen ein echtes "Aufholphänomen".

Diese Beobachtung wirft eine grundlegende Frage auf: Wie weit sind wir von der Erreichung der künstlichen allgemeinen Intelligenz (AGI) entfernt? Yuan glaubt, dass die Zukunft der AGI möglicherweise nicht in einem einzigen, allumfassenden Modell liegt, sondern in einem Netzwerk spezialisierter Modelle, Wissensdatenbanken und Tools, die auf privater Hardware oder Robotergeräten bereitgestellt werden.

Er führte weiter aus, dass sich die KI-Architektur von einem zentralisierten zu einem dezentralisierten Paradigma verschiebt. Er hob den Übergang von OpenAI von der Completion API zur neuen Responses API hervor, die darauf abzielt, eine groß angelegte intelligente Agentenplattform aufzubauen. Fast 600.000 Benutzer und Entwickler haben sich dieser Transformation bereits angeschlossen und tragen zur Entwicklung verteilter KI-Anwendungen bei.

"Die Zukunft der AGI sollte nicht ausschließlich von einem einzigen, gut finanzierten Unternehmen entwickelt werden", betonte Yuan. "Stattdessen sollte sie durch globale Zusammenarbeit aufgebaut werden, wodurch ein Ökosystem-Netzwerk entsteht, das Modelle, Wissensdatenbanken, Roboter und Ausführungssysteme umfasst."

Im Anschluss an Yuans Rede hielt Daniel Goldscheider, Executive Director der OpenWallet Foundation, einen Vortrag über "GDC Wallets & Credentials", der sich auf das Global Digital Compact (GDC)-Projekt konzentrierte, das von der Generalversammlung der Vereinten Nationen verabschiedet wurde. Er erklärte, dass der GDC zwei Kernziele hat:

  • Anerkennung, dass digitale Technologien unser Leben und die gesellschaftliche Entwicklung tiefgreifend verändert haben und sowohl beispiellose Chancen als auch unvorhergesehene Risiken mit sich bringen.
  • Betonung, dass die Verwirklichung des vollen Potenzials digitaler Technologien zum Wohle der gesamten Menschheit globale Zusammenarbeit erfordert, die Barrieren zwischen Ländern, Branchen und sogar öffentlichen und privaten Sektoren abbaut.

Auf der Grundlage dieses gemeinsamen Verständnisses hat der GDC die Initiative "Global Digital Collaboration" ins Leben gerufen, die darauf abzielt, eine echte Zusammenarbeit zwischen Regierungen, Unternehmen, gemeinnützigen Organisationen und anderen Interessengruppen zu fördern.

Bei der Erörterung der operativen Aspekte betonte Goldscheider, dass diese Zusammenarbeit nicht von einer einzelnen Organisation diktiert wird, sondern einen "gemeinsamen Einberufungsansatz" verfolgt und alle interessierten internationalen Organisationen, Normungsgremien, Open-Source-Gemeinschaften und zwischenstaatlichen Organisationen zur Teilnahme einlädt. Er stellte klar, dass dies kein "Wer führt wen"-Projekt ist, sondern eine gleichberechtigte Kollaborationsplattform, auf der jede Partei eine Stimme hat und niemand wichtiger ist als der andere.

Er erklärte weiter, dass die Global Digital Collaboration nicht darauf abzielt, direkt Standards oder Technologien zu entwickeln, sondern vielmehr einen Dialog zwischen Organisationen unterschiedlicher Herkunft zu ermöglichen, damit diese ihre Perspektiven und Bedürfnisse darlegen können, um einen Konsens zu erzielen. Anschließend werden die spezifischen Standards und technischen Arbeiten von den zuständigen Fachgremien vorangetrieben. Er nannte "digitale Identität" und "biometrische Technologie" als Beispiele und wies darauf hin, dass viele Organisationen bereits in diesen Bereichen tätig sind, was die Notwendigkeit einer neutralen Plattform unterstreicht, um alle zusammenzubringen, Doppelarbeit, Konflikte und Ressourcenverschwendung zu vermeiden.

Vier dedizierte Foren: Eine umfassende Analyse der Open-Source-KI

Die Konferenz umfasste vier spezialisierte Foren: KI-Modelle, KI-Infrastruktur, KI-Anwendungen und verkörperte Intelligenz. Diese Foren deckten kritische Themen ab, die von der zugrunde liegenden Architektur bis zur Anwendungsbereitstellung und von den Modellfähigkeiten bis zu den Praktiken intelligenter Agenten reichten. Jedes Forum beherbergte führende Experten aus globalen Unternehmen und Forschungseinrichtungen, die sowohl eine detaillierte Analyse der neuesten Technologietrends als auch eine Präsentation umfangreicher technischer Praxisbeispiele boten und die umfassende Integration und Entwicklung von Open-Source-KI in verschiedenen Bereichen demonstrierten.

Dekonstruktion der zugrunde liegenden Logik von KI-Großmodellen

Das KI-Modelle-Forum brachte Experten aus Open-Source-Gemeinschaften und Forschungseinrichtungen zusammen, um Einblicke in architektonische Innovationen, Open-Source-Zusammenarbeit und Ökosystementwicklung im Bereich großer Modelle auszutauschen.

Guilherme Penedo, Machine Learning Research Engineer bei Hugging Face, präsentierte "Open-R1: Eine vollständig Open-Source-Reproduktion von DeepSeek-R1" und demonstrierte die Bemühungen des Open-R1-Projekts bei der Replikation des DeepSeek-R1-Modells, wobei der Schwerpunkt auf der Förderung der Offenheit und Standardisierung von Daten im Zusammenhang mit Inferenzaufgaben lag. Guang Liu, Technology Leader des Data Research Teams am Zhiyuan Research Institute, teilte "OpenSeek: Kollaborative Innovation auf dem Weg zur nächsten Generation großer Modelle" und betonte die Bedeutung der globalen Zusammenarbeit bei der Förderung von Durchbrüchen in der Modellleistung auf Algorithmus-, Daten- und Systemebene, mit dem Ziel, die nächste Generation großer Modelle zu entwickeln, die DeepSeek übertreffen.

Jason Li, Senior Vice President von CSDN, hielt "Decoding DeepSeek: Technologische Innovation und ihre Auswirkungen auf das KI-Ökosystem" und bot eine detaillierte Analyse der DeepSeek-Innovationen in Bezug auf technische Paradigmen, Modellarchitektur und industrielle Ökologie sowie deren potenziellen Auswirkungen auf das globale KI-Ökosystem. Yiran Zhong, Senior Research Director bei MiniMax, präsentierte "Lineare Zukunft: Die Entwicklung großer Sprachmodellarchitekturen" und stellte den vom Team vorgeschlagenen Lightning Attention-Mechanismus vor, der eine potenzielle Alternative zu Transformer-Architekturen in Bezug auf Effizienz und Leistung bietet. Shiwei Liu, Royal Society Newton International Fellow an der Oxford University, diskutierte "Der Tiefenfluch in großen Sprachmodellen" und untersuchte die abnehmenden Beiträge tiefer neuronaler Netze mit zunehmender Modelltiefe. Er schlug die Verwendung von LayerNorm Scaling zur Verbesserung des Pre-LN-Mechanismus vor, um die Nutzung tiefer Schichten und die Gesamteffizienz zu verbessern. Diego Rojas, Research Engineer bei Zhipu AI, wies in "Code Large Language Models: Exploring Beyond Tokens" darauf hin, dass aktuelle große Modelle zwar leistungsstark sind, aber immer noch auf Tokenisierung angewiesen sind, was ineffizient ist, und teilte neue Methoden zum Überspringen der Tokenisierung, um Modelle schneller und stärker zu machen. Nicolas Flores-Herr, Leiter des Basic Models Teams am Fraunhofer IAIS, schloss das Forum mit "Wie baut man global wettbewerbsfähige ‘European-Made’ Large Language Models?" und betonte, dass Europa Daten-, Diversitäts- und regulatorische Herausforderungen durch mehrsprachige, Open-Source- und vertrauenswürdige lokalisierte Großmodellprojekte überwindet, um die nächste Generation von KI aufzubauen, die europäische Werte widerspiegelt.

Die Triade der KI-Infrastruktur: Daten, Rechenleistung und algorithmische Entwicklung

Mit dem Fokus auf den Aufbau einer offeneren, effizienteren und inklusiveren Grundlage für große Modelle brachte das KI-Infrastruktur-Forum führende Experten aus Forschungseinrichtungen und Unternehmen zusammen, um sich eingehend mit Schlüsselfragen wie Daten, Rechenleistung und Systemarchitektur auseinanderzusetzen.

Yonghua Lin, Vice President des Zhiyuan Research Institute (BAAI), startete das chinesische Internet Corpus CCI 4.0 in "AI Open Source for Good: Inklusive Anwendungen, faire Daten und universelle Rechenleistung" und deckte drei wichtige Datensätze ab: CCI4.0-M2-Base V1, CCI4.0-M2-CoT V1 und CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 hat ein Datenvolumen von 35000 GB, ist zweisprachig in Chinesisch und Englisch, mit 5000 GB chinesischer Daten, einer fünffachen Erhöhung des Datenumfangs im Vergleich zu CCI3.0. CCI4.0-M2-CoT V1 enthält 450 Millionen umgekehrt synthetisierter Daten über den Denkprozess des Menschen zur Verbesserung der Argumentationsfähigkeit, mit einer Gesamtanzahl von Token von 425B (425 Milliarden), fast dem 20-fachen der Größe von Cosmopedia (Open Source von Hugging Face), dem größten Open-Source-Synthetik-Datensatz, der derzeit weltweit verfügbar ist.

Xiyuan Wang, Senior Software Engineer bei Huawei, stellte dann vor, wie die CANN-Architektur KI-Frameworks und Ascend-Hardware in "Best Practices für Training und Inferenz basierend auf Ascend CANN" verbindet und durch die Unterstützung von Ökosystemen wie PyTorch und vLLM optimale Trainingsinferenz erreicht. Guillaume Blaquiere, Data Architect bei Carrefour, demonstrierte, wie Serverless-Großmodellinstanzen, die GPUs unterstützen, über Google Cloud Run bereitgestellt werden, um Kosten zu senken und die Ressourcenauslastungseffizienz in "Making Your LLM Serverless" zu verbessern. Yinping Ma, Engineer an der Peking University, hielt eine Keynote-Rede über "Open Source Intelligent Computing Integrated Management and Scheduling Basic Software - SCOW and CraneSched" und stellte die beiden wichtigsten Open-Source-Basissoftware vor, die von der Peking University entwickelt wurden, SCOW und CraneSched, die in Dutzenden von Universitäten und Unternehmen im ganzen Land eingesetzt werden und die einheitliche Verwaltung und Hochleistungsplanung intelligenter Rechenressourcen unterstützen. Yaowei Zheng, PhD-Kandidat an der Beihang University, teilte das Designkonzept der hybriden Controller-Architektur im Verl-System in der Rede "verl: Ein RLHF-System basierend auf einem hybriden Controller" und erörterte seine Effizienzvorteile im groß angelegten Verstärkungslern-Training. Greg Schoeninger, CEO von Oxen.ai, präsentierte die "Training Datasets and Infrastructure for DeepSeek-R1 Style Reinforcement Learning (GRPO)" und erläuterte den praktischen Weg für Verstärkungslern-Trainingsprozesse für argumentationsfähige LLMs, einschließlich Dataset-Konstruktion, Infrastrukturaufbau und lokale Codegenerierungsmodelle.

Von "Kann es verwendet werden" zu "Wird es gut verwendet": KI-Anwendungen treten in die praktische Phase ein

Im AI Applications Forum tauschten F&E-Praktiker und Technologieentscheidungsträger führender Unternehmen vielfältige Einblicke aus und zeigten die realen Bereitstellungspfade und zukünftigen Möglichkeiten von KI-Anwendungen, die von großen Modellen angetrieben werden.

Yongbin Li, Chief Researcher am Alibaba Tongyi Lab, teilte die neuesten Fortschritte von Tongyi Lingma in der technischen Entwicklung und Produktanwendung in "Tongyi Lingma: Vom Coding Copilot zum Coding Agent". Dongjie Chen, Software Engineer bei Huawei, hielt eine Keynote-Rede über "Cangjie Magic: Eine neue Wahl für Entwickler im Zeitalter großer Modelle" und stellte das AI-Großmodell-Agent-Entwicklungsframework vor, das auf der Cangjie-Programmiersprache basiert, die die Effizienz von Entwicklern beim Aufbau intelligenter HarmonyOS-Anwendungen erheblich verbessern und eine hervorragende Entwicklungserfahrung bieten kann. Xinrui Liu, Direktor des LangGenius Developer Ecosystem, konzentrierte sich auf "Working Together, Technical Power Enabled by Dify" und betonte das Open-Source-Ökosystem von Dify und seine Rolle bei der Beschleunigung der Popularisierung von KI-Anwendungen.

In Bezug auf die Kombination von KI und Systemtechnik hielt Rik Arends, Mitbegründer von Makepad, einen einzigartigen Vortrag: "Using Ambient Coding, Use AI to Create Rust UI for Mobile Devices, Web Pages, and Mixed Reality" und untersuchte, wie man mit Ambient Coding ein neues Paradigma für UI aufbauen kann. Christian Tzolov, F&E-Software Engineer aus dem Broadcom Spring-Team, konzentrierte sich darauf zu demonstrieren, wie man KI-Modelle mit dem MCP Java SDK und Spring AI MCP effizient in bestehende Systeme und Ressourcen integriert in "A Unified Paradigm for AI Integration Through MCP". Wenjing Chu, Senior Director of Technology Strategy bei Futurewei, erweiterte die Perspektive in "The ‘T’ in MCP and A2A Stands for Trust" und analysierte eingehend, wie man wirklich vertrauenswürdige KI-Systeme in agentenbasierten Anwendungen aufbaut. Darüber hinaus stellte Hong-Thai Nguyen, Software Engineering Manager bei Cegid, vor, wie Multi-Agent Geschäftsprozesse umgestalten und in Kombination mit praktischen Szenarien intelligentere Unternehmensentscheidungen und -abläufe erzielen kann in der Rede "Cegid Pulse: Multi-Agent Business Management Platform".

Wenn große Modelle mit "Körpern" ausgestattet werden: Verkörperte Intelligenz kommt an

Verkörperte Intelligenz wird zu einer der anspruchsvollsten und vielversprechendsten Entwicklungsrichtungen im Bereich der KI. In diesem Forum führten viele der führenden technischen Experten der Branche eingehende Diskussionen rund um das Thema "Verkörperte Intelligenz" und tauschten ihre praktischen Erkundungen in den Bereichen Architekturentwurf, Modellanwendung und Szenariobereitstellung aus.

Angelo Corsaro, CEO und CTO von ZettaScale, stellte vor, wie das Zenoh-Protokoll die Barrieren zwischen Wahrnehmung, Ausführung und Kognition im Zeitalter intelligenter Roboter abbauen kann in "Mind, Body, and Zenoh". Philipp Oppermann, Projektmanager des Dora-Projekts, brachte "Using Zenoh in Dora to Implement Distributed Data Flow" und erklärte die wichtige Anwendung des Zenoh-Protokolls in Dora zur Implementierung von Distributed Data Flow. James Yang, Professor an der University of Science and Technology of China, hielt einen Vortrag über "Generation of Adversarial Safety-Critical Scenarios in Autonomous Driving" und stellte vor, wie die Sicherheit autonomer Fahrtechnologie durch die Erzeugung adversarieller Szenarien verbessert werden kann, um Stabilität und Zuverlässigkeit in komplexen Umgebungen zu gewährleisten.

Darüber hinaus konzentrierte sich Minglan Lin, eine Forscherin für verkörperte Intelligenz am Zhiyuan Research Institute, auch auf das Thema "RoboBrain: A Unified Brain Model for Robot Operation & RoboOS: A Hierarchical Collaboration Framework forRoboBrain and Robot Intelligent Agents" und demonstrierte, wie RoboBrain das Intelligenzniveau von Robotern verbessern kann und welche wichtige Rolle RoboOS bei der Roboterzusammenarbeit spielt. Ville Kuosmanen, Gründer von Voyage Robotics, hielt einen wunderbaren Vortrag über "Building Robot Applications with Open Source VLA Models" und erklärte, wie man Open-Source-VLA-Modelle verwenden kann, um Roboteranwendungen stark zu unterstützen. Schließlich erörterte Huy Hoang Ha, ein Forscher für große Sprachmodelle bei Menlo Research, wie räumliches Denken Robotern helfen kann, komplexe 2D- und 3D-Umgebungen besser zu verstehen und dadurch ihre Betriebs- und Navigationsfähigkeiten in der Keynote-Rede "Spatial Reasoning LLM: Enhancing Understanding of 2D and 3D to Support Robot Operation and Navigation" zu verbessern.

Spotlight Talks: Beleuchtung von Spitzentechnologien und innovativen Anwendungen

Die Spotlight Talks Day 1 boten fesselnde Präsentationen von Branchenexperten zu Spitzentechnologien und innovativen Anwendungen. Dieses Segment diente als Plattform für Technologiepraktiker aus verschiedenen Bereichen, um die neuesten Fortschritte und praktischen Anwendungen von KI zu diskutieren. Cyril Moineau, Research Engineer bei der französischen Atomenergiekommission (CEA), stellte vor, wie das Eclipse Aidge-Projekt die Bereitstellung und Optimierung tiefer neuronaler Netze auf eingebetteten Plattformen unterstützt, indem es in der Rede "Aidge" eine komplette Toolchain bereitstellt und so die Entwicklung von Edge-Intelligence-Systemen beschleunigt.

Paweł Kiszczak, Data Scientist bei Bielik.ai, teilte auf dieser Konferenz zum ersten Mal öffentlich die neuesten Fortschritte des polnischen nativen KI-Projekts Bielik und hielt eine Rede mit dem Titel "The Rise of Bielik.AI", in der er erzählte, wie das Projekt den Aufbau eines lokalen autonomen KI-Systems durch Open-Source-Sprachmodelle und ein komplettes Tool-Ökosystem fördert. Das Bielik-Projekt hat nicht nur mehrere Open-Source-Sprachmodelle veröffentlicht (Parameterskalen von 1,5B, 4,5B und 11B), sondern auch eine End-to-End-Toolchain erstellt, die Datensätze, Bewertung, Training und Feinabstimmung umfasst und Forschungsteams und Entwickler bei der Feinabstimmung oder kontinuierlichen Vorabtrainierung auf der Grundlage von Basismodellen unterstützt, was die F&E-Schwelle für große Modelle erheblich reduziert und lokale Technologieinnovationsfähigkeiten stimuliert.

Hung-Ying Tai, Technical Lead von Second State, teilte "Running GenAI Models on Edge Devices with LlamaEdge" und demonstrierte die leichten und leistungsstarken Fähigkeiten von LlamaEdge bei der Bereitstellung generativer KI-Modelle auf Edge-Geräten, was eine flexiblere und effizientere lokale Argumentationserfahrung ermöglicht. Tianyu Chen, ein PhD-Kandidat an der Peking University, stellte vor, wie das SAFE-Framework das Problem knapper Trainingsdaten durch den Selbstentwicklungsmechanismus der "Datensynthese-Modellfeinabstimmung" lindert und so die Effizienz und Genauigkeit der formalen Verifikation von Rust-Code in "Achieving Automatic Formal Verification for Rust Code Based on Self-Evolution Framework" deutlich verbessert. Gautier Viaud, F&E-Direktor bei Illuin Technology, teilte mit, wie das ColPali-System, das vom Team auf der Grundlage der ColBERT-Architektur und des PaliGemma-Modells aufgebaut wurde, die Genauigkeit und Effizienz des Dokumentenabrufs effektiv verbessert, indem es grafische und textuelle Informationen in der Rede "ColPali: Efficient Document Retrieval Based on Visual Language Model" kombiniert. Schließlich stellte Xiao Zhang, CEO von Dynamia.ai, vor, wie man heterogene GPU-Ressourcen mit Hilfe von HAMi besser verwalten und planen und die Auslastung und Beobachtbarkeit der KI-Infrastruktur in "Unlocking the K8s Cluster Capabilities of Heterogeneous AI Infrastructure: Releasing the Power of HAMi" verbessern kann.

Vielfältige Interaktionen und Highlights des ersten Tages

Neben den hochdichten Keynote-Reden umfasste die Konferenz auch mehrere spezielle Einheiten. Die Closed-door Meeting-Einheit konzentrierte sich auf strategische Dialoge und eingehende Branchenaustausche, um die grenzüberschreitende Zusammenarbeit zu fördern. Die Showcase Sessions konzentrierten sich auf die Präsentation der neuesten KI-Technologieprodukte von Unternehmen und Forschungseinrichtungen und zogen eine große Anzahl von Besuchern an, die anhielten und sich austauschten. In den Competition Sessions konzentrierten sich KI- und Robotikentwickler, Ingenieure und Robotik-Enthusiasten aus aller Welt auf das Open-Source-SO-ARM100-Roboterarm-Kit, um praktische Erkundungen des Imitationslernens durchzuführen. Das Kit integriert das LeRobot-Framework von Hugging Face und kombiniert die KI- und Robotertechnologien von NVIDIA, um hochmoderne KI-Architekturen wie ACT und Diffusion Policy zu unterstützen und den Teilnehmern eine solide technische Grundlage zu bieten. Die Teilnehmer führten praktische Erkundungen in realen Szenarien durch, um ihre Auswirkungen und Machbarkeit umfassend zu bewerten.

Die Workshop Sessions nahmen das OpenHarmony-Ökosystem als Kernthema und untersuchten das Open-Source-Projekt, das von der Open Atom Open Source Foundation inkubiert und betrieben wird. OpenHarmony hat sich zum Ziel gesetzt, ein intelligentes Terminalbetriebssystem-Framework für das Zeitalter der All-Szenario-, All-Connection- und All-Intelligence-Konnektivität aufzubauen und eine offene, globalisierte und innovative führende verteilte Betriebssystemplattform zu schaffen, die verschiedene intelligente Geräte bedient und die Entwicklung der Internet of Everything-Branche unterstützt. Am Konferenzort verstanden die Teilnehmer die Kernvorteile von OpenHarmony in Bezug auf die Zusammenarbeit mehrerer Geräte und das leichtgewichtige Systemdesign durch eine Reihe praktischer Workshops tiefgreifend und beteiligten sich persönlich an Schlüsselprozessen von der Treiberentwicklung bis zur Anwendungsbereitstellung. Die praktische Übung hilft den Entwicklern nicht nur, den "Bottom-to-End"-Technikpfad zu eröffnen, sondern verbessert auch umfassend die Entwicklungs- und Debugging-Fähigkeiten auf Systemebene.

Die GOSIM AI Paris 2025 Day 1 Agenda ist zu einem erfolgreichen Abschluss gekommen, aber die Begeisterung geht weiter. Morgen wird die Konferenz weiterhin um die vier Hauptforen KI-Modelle, KI-Infrastruktur, KI-Anwendungen und verkörperte Intelligenz fortschreiten und den mit Spannung erwarteten PyTorch Day begrüßen, bei dem weitere hochkarätige Gäste und praktische Inhalte aus erster Hand in Kürze folgen werden, also bleiben Sie dran!