Rewolucja AI Open Source: GOSIM AI Paris 2025

Krajobraz AI przeszedł dramatyczną transformację w ciągu ostatniego roku, napędzaną duchem współpracy w rozwoju open source. Modele językowe (LLM) nie są już wyłącznie domeną gigantów technologicznych, ale ewoluują dzięki wysiłkom społeczności i otwartemu dzieleniu się, wpływając na wszystko, od infrastruktury po optymalizację algorytmów i wdrażanie. Ten ruch open source przyspiesza postęp AI, czyniąc go bardziej dostępnym i demokratyzując możliwość wnoszenia wkładu w następną generację inteligentnych systemów.

Na tym tle konferencja GOSIM AI Paris 2025, współorganizowana przez GOSIM, CSDN i 1ms.ai, rozpoczęła się 6 maja w Paryżu, we Francji. Wydarzenie to służy jako kluczowa platforma, łącząca globalnych praktyków technologii i badaczy w celu zbadania najnowszych przełomów i przyszłych kierunków rozwoju AI open source.

Konferencja szczyci się imponującym składem ponad 80 ekspertów i naukowców z wiodących organizacji, takich jak Alibaba, Hugging Face, BAAI, MiniMax, Neo4j, Dify, MetaGPT, Zhipu AI, Eigent.AI, Docker, Inflow, Uniwersytet Pekiński, Fraunhofer, Uniwersytet Oksfordzki i francuska społeczność openLLM. Kluczowi partnerzy, w tym Huawei, Ogólnochińskie Stowarzyszenie Młodzieży ds. Innowacji i Przedsiębiorczości we Francji, Chińsko-Francuskie Stowarzyszenie Sztucznej Inteligencji, Apache Software Foundation, Eclipse Foundation, The Khronos Group, WasmEdgeRuntime, LF Generative AI Commons, Linux Foundation Research, OpenWallet Foundation, Open Source Initiative (OSI), Software Heritage i K8SUG, również aktywnie uczestniczą. Konferencja obejmuje ponad 60 sesji technicznych skoncentrowanych wokół podstawowych tematów, takich jak modele AI, infrastruktura, wdrażanie aplikacji i inteligencja ucieleśniona, zapewniając kompleksowy przegląd ewolucji i nowych trendów ekosystemu open source.

Symbiotyczny związek między AI i Open Source

Michael Yuan, współzałożyciel GOSIM, rozpoczął konferencję przemówieniem programowym zatytułowanym "Open Source Nadrobił Zaległości, Co Dalej?". Podzielił się swoimi spostrzeżeniami na temat obecnego stanu i przyszłej trajektorii AI open source, podkreślając, że osiągnął on punkt zwrotny.

"Kiedyś przewidywaliśmy, że zajmie to 5-10 lat, zanim open source dogoni modele zamknięte, ale wydaje się, że cel ten został osiągnięty przed czasem", stwierdził Yuan. Jako przykład podał niedawne wydanie Qwen 3, zauważając, że modele open source nie tylko konkurują ze sobą, ale teraz bezpośrednio rzucają wyzwanie zastrzeżonym flagowym modelom, a nawet przewyższają je w niektórych testach porównawczych. Yuan zasugerował również, że ten postęp wynika nie tylko z postępów open source, ale także z tego, że rozwój zamknięty nie spełnia oczekiwań i napotyka na wąskie gardła wydajności. W przeciwieństwie do tego, modele open source szybko ewoluują, wykazując stromą krzywą wzrostu wydajności i demonstrując prawdziwe zjawisko "doganiania".

Ta obserwacja rodzi fundamentalne pytanie: Jak daleko jesteśmy od osiągnięcia Artificial General Intelligence (AGI)? Yuan uważa, że przyszłość AGI może nie leżeć w jednym, wszechobejmującym modelu, ale raczej w sieci wyspecjalizowanych modeli, baz wiedzy i narzędzi wdrożonych na prywatnym sprzęcie lub urządzeniach robotycznych.

Wyjaśnił ponadto, że architektura AI zmienia się z scentralizowanej na zdecentralizowaną. Podkreślił przejście OpenAI z Completion API na nowe Responses API, którego celem jest zbudowanie platformy inteligentnych agentów na dużą skalę. Niemal 600 000 użytkowników i programistów dołączyło już do tej transformacji, przyczyniając się do rozwoju rozproszonych aplikacji AI.

"Przyszłość AGI nie powinna być rozwijana wyłącznie przez jedną, dobrze finansowaną firmę", stwierdził Yuan. "Zamiast tego powinna być budowana poprzez globalną współpracę, tworząc sieć ekosystemu obejmującą modele, bazy wiedzy, roboty i systemy wykonawcze".

Po przemówieniu Yuana, Daniel Goldscheider, dyrektor wykonawczy OpenWallet Foundation, wygłosił prezentację na temat "GDC Wallets & Credentials", koncentrując się na projekcie Global Digital Compact (GDC), przyjętym przez Zgromadzenie Ogólne Narodów Zjednoczonych. Wyjaśnił, że GDC ma dwa podstawowe cele:

  • Uznanie, że technologie cyfrowe głęboko przekształciły nasze życie i rozwój społeczny, przynosząc zarówno bezprecedensowe możliwości, jak i nieprzewidziane ryzyka.
  • Podkreślenie, że realizacja pełnego potencjału technologii cyfrowych dla dobra całej ludzkości wymaga globalnej współpracy, przełamywania barier między krajami, branżami, a nawet sektorem publicznym i prywatnym.

W oparciu o to wspólne zrozumienie, GDC zapoczątkował inicjatywę "Global Digital Collaboration", której celem jest wspieranie prawdziwej współpracy między rządami, przedsiębiorstwami, organizacjami non-profit i innymi zainteresowanymi stronami.

Omawiając aspekty operacyjne, Goldscheider podkreślił, że ta współpraca nie jest dyktowana przez żadną pojedynczą organizację, ale raczej przyjmuje podejście "wspólnego zwoływania", zapraszając wszystkie zainteresowane organizacje międzynarodowe, organy normalizacyjne, społeczności open source i organizacje międzyrządowe do udziału. Wyjaśnił, że nie jest to projekt typu "kto kim kieruje", ale platforma równej współpracy, w której każda strona ma głos i nikt nie jest ważniejszy od drugiego.

Wyjaśnił ponadto, że Global Digital Collaboration nie ma na celu bezpośredniego opracowywania standardów lub technologii, ale raczej ułatwianie dialogu między organizacjami z różnych środowisk, umożliwiając im przedstawianie swoich perspektyw i potrzeb w celu osiągnięcia konsensusu. Następnie konkretne standardy i prace techniczne będą rozwijane przez odpowiednie wyspecjalizowane organy. Jako przykłady wymienił "tożsamość cyfrową" i "technologię biometryczną", zauważając, że wiele organizacji już pracuje w tych obszarach, podkreślając potrzebę neutralnej platformy, która połączy wszystkich, uniknie powielania, konfliktów i marnotrawstwa zasobów.

Cztery dedykowane fora: Kompleksowa analiza AI Open Source

Konferencja obejmowała cztery wyspecjalizowane fora: Modele AI, Infrastruktura AI, Aplikacje AI i Inteligencja Ucieleśniona. Fora te obejmowały kluczowe tematy, od podstawowej architektury po wdrażanie aplikacji, a od możliwości modeli po praktyki inteligentnych agentów. Każde forum gościło wiodących ekspertów z globalnych przedsiębiorstw i instytucji badawczych, zapewniając zarówno dogłębną analizę najnowszych trendów technologicznych, jak i prezentując bogate przypadki praktyk inżynierskich, demonstrując kompleksową integrację i ewolucję AI open source w wielu dziedzinach.

Dekonstrukcja podstawowej logiki dużych modeli AI

Forum Modeli AI zgromadziło ekspertów ze społeczności open source i instytucji badawczych, aby podzielić się spostrzeżeniami na temat innowacji architektonicznych, współpracy open source i ewolucji ekosystemu w dziedzinie dużych modeli.

Guilherme Penedo, inżynier ds. badań nad uczeniem maszynowym w Hugging Face, zaprezentował "Open-R1: W pełni otwarte odtworzenie DeepSeek-R1", prezentując wysiłki projektu Open-R1 w replikacji modelu DeepSeek-R1, koncentrując się na promowaniu otwartości i standaryzacji danych związanych z zadaniami wnioskowania. Guang Liu, lider technologiczny zespołu ds. badań danych w Zhiyuan Research Institute, podzielił się "OpenSeek: Innowacje oparte na współpracy w kierunku następnej generacji dużych modeli", podkreślając znaczenie globalnej współpracy w napędzaniu przełomów w wydajności modeli na poziomie algorytmu, danych i systemu, w celu opracowania następnej generacji dużych modeli, które przewyższają DeepSeek.

Jason Li, starszy wiceprezes CSDN, wygłosił "Dekodowanie DeepSeek: Innowacje technologiczne i ich wpływ na ekosystem AI", zapewniając dogłębną analizę innowacji DeepSeek w paradygmatach technicznych, architekturze modeli i ekologii przemysłowej, a także jego potencjalny wpływ na globalny ekosystem AI. Yiran Zhong, starszy dyrektor ds. badań w MiniMax, zaprezentował "Linearna przyszłość: Ewolucja architektur dużych modeli językowych", przedstawiając proponowany przez zespół mechanizm Lightning Attention, który oferuje potencjalną alternatywę dla architektur Transformer pod względem wydajności i wydajności. Shiwei Liu, Royal Society Newton International Fellow na Uniwersytecie Oksfordzkim, omówił "Klątwę głębokości w dużych modelach językowych", badając zmniejszający się wkład głębokich sieci neuronowych wraz z pogłębianiem się modeli i proponując wykorzystanie LayerNorm Scaling w celu poprawy mechanizmu Pre-LN w celu zwiększenia wykorzystania głębokiej warstwy i ogólnej wydajności. Diego Rojas, inżynier ds. badań w Zhipu AI, zwrócił uwagę w "Kodowych dużych modelach językowych: Odkrywanie poza tokenami", że obecne duże modele, choć potężne, nadal opierają się na tokenizacji, która jest nieefektywna, i podzielił się nowymi metodami pomijania tokenizacji, aby modele były szybsze i mocniejsze. Nicolas Flores-Herr, szef zespołu ds. modeli podstawowych w Fraunhofer IAIS, zakończył forum "Jak budować globalnie konkurencyjne ‘Europejskie’ duże modele językowe?", podkreślając, że Europa pokonuje wyzwania związane z danymi, różnorodnością i regulacjami dzięki wielojęzycznym, open source i godnym zaufania zlokalizowanym projektom dużych modeli, aby zbudować następną generację AI, która odzwierciedla europejskie wartości.

Triada infrastruktury AI: Dane, moc obliczeniowa i ewolucja algorytmiczna

Koncentrując się na budowaniu bardziej otwartego, wydajnego i inkluzywnego fundamentu dla dużych modeli, forum Infrastruktury AI zgromadziło wiodących ekspertów z instytucji badawczych i przedsiębiorstw, aby zaangażować się w dogłębne dyskusje na temat kluczowych kwestii, takich jak dane, moc obliczeniowa i architektura systemu.

Yonghua Lin, wiceprezes Zhiyuan Research Institute (BAAI), uruchomił chiński korpus internetowy CCI 4.0 w "AI Open Source for Good: Inkluzywne aplikacje, uczciwe dane i uniwersalna moc obliczeniowa", obejmujący trzy główne zbiory danych: CCI4.0-M2-Base V1, CCI4.0-M2-CoT V1 i CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 ma objętość danych 35000 GB, jest dwujęzyczny w języku chińskim i angielskim, z 5000 GB danych chińskich, co stanowi 5-krotny wzrost skali danych w porównaniu z CCI3.0. CCI4.0-M2-CoT V1 zawiera 450 milionów odwróconych zsyntetyzowanych danych trajektorii myśli ludzkiej w celu poprawy zdolności rozumowania, z całkowitą liczbą tokenów 425B (425 miliardów), prawie 20 razy większą niż Cosmopedia (open sourced by Hugging Face), największy dostępny obecnie globalnie zbiór danych syntetycznych open source.

Xiyuan Wang, starszy inżynier oprogramowania w Huawei, przedstawił następnie, jak architektura CANN łączy ramy AI i sprzęt Ascend w "Najlepszych praktykach szkolenia i wnioskowania w oparciu o Ascend CANN" i osiąga optymalne wnioskowanie szkoleniowe poprzez wspieranie ekosystemów, takich jak PyTorch i vLLM. Guillaume Blaquiere, architekt danych w Carrefour, zademonstrował, jak wdrażać bezserwerowe instancje dużych modeli obsługujące GPU za pośrednictwem Google Cloud Run, aby obniżyć koszty i poprawić efektywność wykorzystania zasobów w "Uczynieniu LLM Bezserwerowym". Yinping Ma, inżynier na Uniwersytecie Pekińskim, wygłosił przemówienie programowe na temat "Open Source Intelligent Computing Integrated Management and Scheduling Basic Software - SCOW and CraneSched", przedstawiając dwa główne podstawowe oprogramowania open source opracowane przez Uniwersytet Pekiński, SCOW i CraneSched, które zostały wdrożone w dziesiątkach uniwersytetów i przedsiębiorstw w całym kraju, wspierając ujednolicone zarządzanie i wysokowydajne planowanie zasobów inteligentnego przetwarzania. Yaowei Zheng, doktorant na Uniwersytecie Beihang, podzielił się koncepcją projektową architektury kontrolera hybrydowego w systemie Verl w przemówieniu "verl: System RLHF oparty na kontrolerze hybrydowym" i omówił jego zalety wydajności w szkoleniach wzmacniających uczenie na dużą skalę. Greg Schoeninger, dyrektor generalny Oxen.ai, zaprezentował "Zbiory danych szkoleniowych i infrastrukturę do uczenia się ze wzmocnieniem w stylu DeepSeek-R1 (GRPO)" i szczegółowo opisał ścieżkę praktyki procesów uczenia się ze wzmocnieniem dla rozumowania LLM, w tym tworzenie zbiorów danych, budowanie infrastruktury i modele generowania lokalnego kodu szkoleniowego.

Od "Czy można go użyć" do "Czy jest dobrze używany": Aplikacje AI wkraczają w etap praktyczny

Na forumAplikacji AI praktycy ds. badań i rozwoju oraz osoby decyzyjne w zakresie technologii z wiodących firm podzielili się różnorodnym zakresem spostrzeżeń, prezentując ścieżki wdrażania w świecie rzeczywistym i przyszłe możliwości aplikacji AI napędzanych przez duże modele.

Yongbin Li, główny badacz w Alibaba Tongyi Lab, podzielił się najnowszymi postępami Tongyi Lingma w ewolucji technicznej i zastosowaniu produktu w "Tongyi Lingma: Od asystenta kodowania do agenta kodowania". Dongjie Chen, inżynier oprogramowania w Huawei, wygłosił przemówienie programowe na temat "Cangjie Magic: Nowy wybór dla programistów w erze dużych modeli", przedstawiając ramy rozwoju agenta dużego modelu AI oparte na języku programowania Cangjie, które mogą znacznie poprawić wydajność programistów w budowaniu inteligentnych aplikacji HarmonyOS i zapewnić doskonałe doświadczenie programistyczne. Xinrui Liu, dyrektor ekosystemu programistów LangGenius, skupił się na "Współpracy, Potęga techniczna włączona przez Dify", podkreślając ekosystem open source Dify i jego rolę w przyspieszeniu popularyzacji aplikacji AI.

Jeśli chodzi o połączenie AI i inżynierii systemów, Rik Arends, współzałożyciel Makepad, wygłosił wyjątkową prezentację: "Używanie kodowania otoczenia, używanie AI do tworzenia interfejsu użytkownika Rust dla urządzeń mobilnych, stron internetowych i mieszanej rzeczywistości", badając, jak używać kodowania otoczenia do budowania nowego paradygmatu interfejsu użytkownika. Christian Tzolov, inżynier oprogramowania ds. badań i rozwoju z zespołu Broadcom Spring, skupił się na zademonstrowaniu, jak wydajnie integrować modele AI z istniejącymi systemami i zasobami za pomocą MCP Java SDK i Spring AI MCP w "Ujednoliconym paradygmacie integracji AI za pomocą MCP". Wenjing Chu, starszy dyrektor ds. strategii technologicznej w Futurewei, podniósł perspektywę w "‘T’ w MCP i A2A oznacza zaufanie", głęboko analizując, jak budować naprawdę godne zaufania systemy AI w aplikacjach opartych na agentach. Ponadto Hong-Thai Nguyen, menedżer inżynierii oprogramowania w Cegid, przedstawił, w jaki sposób multi-agent może zmienić procesy biznesowe i osiągnąć inteligentniejsze podejmowanie decyzji i operacje w przedsiębiorstwie w połączeniu z praktycznymi scenariuszami w przemówieniu "Cegid Pulse: Platforma zarządzania biznesem multi-agent".

Gdy duże modele są wyposażone w "ciała": Nadchodzi inteligencja ucieleśniona

Inteligencja ucieleśniona staje się jednym z najbardziej wymagających i obiecujących kierunków rozwoju w dziedzinie AI. Na tym forum wielu czołowych ekspertów technicznych z branży zaangażowało się w dogłębne dyskusje wokół tematu "inteligencji ucieleśnionej", dzieląc się swoimi praktycznymi badaniami w zakresie projektowania architektury, zastosowania modeli i wdrażania scenariuszy.

Angelo Corsaro, dyrektor generalny i dyrektor ds. technologii w ZettaScale, przedstawił, jak protokół Zenoh może przełamać bariery między percepcją, wykonaniem i poznaniem w erze inteligentnych robotów w "Umysł, ciało i Zenoh". Philipp Oppermann, kierownik projektu Dora, przedstawił "Używanie Zenoh w Dora do implementacji rozproszonego przepływu danych", wyjaśniając ważne zastosowanie protokołu Zenoh w Dora do implementacji rozproszonego przepływu danych. James Yang, profesor na Uniwersytecie Nauki i Technologii Chin, wygłosił przemówienie na temat "Generowanie wrogich scenariuszy o krytycznym znaczeniu dla bezpieczeństwa w autonomicznym prowadzeniu pojazdów", przedstawiając, jak poprawić bezpieczeństwo technologii autonomicznego prowadzenia pojazdów poprzez generowanie wrogich scenariuszy w celu zapewnienia stabilności i niezawodności w złożonych środowiskach.

Ponadto Minglan Lin, badacz inteligencji ucieleśnionej w Zhiyuan Research Institute, skupił się również na temacie "RoboBrain: Ujednolicony model mózgu dla operacji robotów i RoboOS: Hierarchiczne ramy współpracy dla RoboBrain i inteligentnych agentów robotów", demonstrując, jak RoboBrain może poprawić poziom inteligencji robotów i ważną rolę RoboOS we współpracy robotów. Ville Kuosmanen, założyciel Voyage Robotics, wygłosił wspaniałe przemówienie na temat "Budowanie aplikacji robotów za pomocą modeli Open Source VLA", wyjaśniając, jak używać modeli open source VLA, aby zapewnić silne wsparcie dla aplikacji robotów. Wreszcie Huy Hoang Ha, badacz dużych modeli językowych w Menlo Research, omówił, w jaki sposób rozumowanie przestrzenne może pomóc robotom lepiej zrozumieć złożone środowiska 2D i 3D, poprawiając w ten sposób ich możliwości operacyjne i nawigacyjne w przemówieniu programowym "Przestrzenne rozumowanie LLM: Poprawa zrozumienia 2D i 3D w celu wspierania operacji i nawigacji robotów".

Prezentacje Spotlight: Oświetlanie najnowocześniejszych technologii i innowacyjnych aplikacji

Pierwszy dzień Prezentacji Spotlight obejmował angażujące prezentacje ekspertów branżowych na temat najnowocześniejszych technologii i innowacyjnych aplikacji. Ten segment służył jako platforma dla praktyków technologii z różnych dziedzin do omówienia najnowszych postępów i praktycznych zastosowań AI. Cyril Moineau, inżynier ds. badań w Francuskiej Komisji Energii Atomowej (CEA), przedstawił, w jaki sposób projekt Eclipse Aidge wspiera wdrażanie i optymalizację głębokich sieci neuronowych na platformach wbudowanych, zapewniając kompletny łańcuch narzędzi w przemówieniu "Aidge", przyspieszając w ten sposób rozwój inteligentnych systemów brzegowych.

Paweł Kiszczak, Data Scientist w Bielik.ai, po raz pierwszy publicznie podzielił się najnowszymi postępami polskiego natywnego projektu AI Bielik na tej konferencji i wygłosił przemówienie zatytułowane "Powstanie Bielik.AI", opowiadając, jak projekt promuje budowę lokalnego autonomicznego systemu AI poprzez modele językowe open source i kompletny ekosystem narzędzi. Projekt Bielik nie tylko wydał wiele modeli językowych open source (skale parametrów obejmujące 1,5B, 4,5B i 11B), ale także stworzył kompleksowy łańcuch narzędzi obejmujący zbiory danych, ocenę, szkolenie i dostrajanie, wspierając zespoły badawcze i programistów w dostrajaniu lub ciągłym wstępnym szkoleniu w oparciu o podstawowe modele, co znacznie obniża próg badań i rozwoju dla dużych modeli i stymuluje lokalne możliwości innowacji technologicznych.

Hung-Ying Tai, lider techniczny z Second State, podzielił się "Uruchamianiem modeli GenAI na urządzeniach brzegowych z LlamaEdge", demonstrując lekkie i wysokowydajne możliwości LlamaEdge we wdrażaniu generatywnych modeli AI na urządzeniach brzegowych, zapewniając bardziej elastyczne i wydajne lokalne doświadczenie rozumowania. Tianyu Chen, doktorant na Uniwersytecie Pekińskim, przedstawił, w jaki sposób ramy SAFE łagodzą problem niedoboru danych szkoleniowych dzięki mechanizmowi samoewolucji "synteza danych - dostrajanie modelu", znacznie poprawiając w ten sposób wydajność i dokładność formalnej weryfikacji kodu Rust w "Osiągnięcie automatycznej formalnej weryfikacji kodu Rust w oparciu o ramy samoewolucji". Gautier Viaud, dyrektor ds. badań i rozwoju w Illuin Technology, podzielił się, w jaki sposób system ColPali, zbudowany przez zespół w oparciu o architekturę ColBERT i model PaliGemma, skutecznie poprawia dokładność i wydajność wyszukiwania dokumentów, łącząc informacje graficzne i tekstowe w przemówieniu "ColPali: Wydajne wyszukiwanie dokumentów w oparciu o wizualny model językowy". Wreszcie Xiao Zhang, dyrektor generalny Dynamia.ai, przedstawił, jak lepiej zarządzać i planować heterogeniczne zasoby GPU za pomocą HAMi oraz poprawić stopień wykorzystania i obserwowalność infrastruktury AI w "Odblokowywanie możliwości klastra K8s heterogenicznej infrastruktury AI: Uwalnianie mocy HAMi".

Różnorodne interakcje i najważniejsze wydarzenia pierwszego dnia

Oprócz przemówień programowych o wysokiej gęstości, konferencja obejmowała również kilka specjalnych jednostek. Jednostka Zamknięte spotkanie koncentrowała się na dialogach strategicznych i dogłębnych wymianach branżowych w celu promowania współpracy transgranicznej. Sesje pokazowe koncentrowały się na prezentacji najnowszych produktów technologii AI przedsiębiorstw i instytucji badawczych, przyciągając dużą liczbę zwiedzających, którzy zatrzymywali się i komunikowali. W sesjach konkursowych programiści AI i robotyki, inżynierowie i entuzjaści robotyki z całego świata skupili się na zestawie ramienia robota open source SO-ARM100, aby przeprowadzić praktyczne eksploracje uczenia się przez naśladowanie. Zestaw integruje ramy LeRobot firmy Hugging Face i łączy technologie AI i robotyki firmy NVIDIA, aby wspierać najnowocześniejsze architektury AI, w tym ACT i Diffusion Policy, zapewniając uczestnikom solidne podstawy techniczne. Uczestnicy przeprowadzili praktyczne eksploracje w rzeczywistych scenariuszach, aby kompleksowo ocenić jego skutki i wykonalność.

Sesje warsztatowe przyjęły ekosystem OpenHarmony jako główny temat i zbadały projekt open source inkubowany i obsługiwany przez Open Atom Open Source Foundation. OpenHarmony angażuje się w budowanie inteligentnych terminalowych ram systemu operacyjnego dla ery wszystkich scenariuszy, wszystkich połączeń i całej inteligencji, tworząc otwartą, zglobalizowaną i innowacyjną wiodącą rozproszoną platformę systemu operacyjnego, obsługując różnorodne inteligentne urządzenia i pomagając w rozwoju przemysłu Internetu Wszystkiego. Na miejscu konferencji uczestnicy głęboko zrozumieli podstawowe zalety OpenHarmony w zakresie współpracy między wieloma urządzeniami i lekkiej konstrukcji systemu poprzez serię praktycznych warsztatów, osobiście uczestnicząc w kluczowych procesach, od rozwoju sterowników po wdrażanie aplikacji. Praktyczne ćwiczenia nie tylko pomagają programistom otworzyć ścieżkę techniczną "od dołu do końca", ale także kompleksowo poprawiają możliwości rozwoju i debugowania na poziomie systemu.

Pierwszy dzień programu GOSIM AI Paris 2025 dobiegł pomyślnego zakończenia, ale emocje trwają nadal. Jutro konferencja będzie kontynuowana wokół czterech głównych forów modeli AI, infrastruktury AI, aplikacji AI i inteligencji ucieleśnionej i powita bardzo oczekiwany Dzień PyTorch, z kolejnymi gośćmi o wysokiej randze i praktycznymi treściami z pierwszej linii, więc bądźcie czujni!