Revolusi AI Open Source: GOSIM AI Paris 2025

Lanskap AI telah mengalami transformasi dramatis dalam setahun terakhir, didorong oleh semangat kolaborasi pengembangan open source. Tidak lagi hanya menjadi domain raksasa teknologi, large language models (LLM) kini berkembang melalui upaya komunitas dan berbagi terbuka, memengaruhi segalanya mulai dari infrastruktur hingga optimalisasi dan penerapan algoritma. Gerakan open source ini mempercepat kemajuan AI, membuatnya lebih mudah diakses dan mendemokratisasi peluang untuk berkontribusi pada generasi sistem cerdas berikutnya.

Dengan latar belakang ini, konferensi GOSIM AI Paris 2025, yang diselenggarakan bersama oleh GOSIM, CSDN, dan 1ms.ai, dimulai pada 6 Mei di Paris, Prancis. Acara ini berfungsi sebagai platform penting, menghubungkan praktisi dan peneliti teknologi global untuk menjelajahi terobosan terbaru dan arah masa depan dalam AI open source.

Konferensi ini membanggakan jajaran yang mengesankan dari lebih dari 80 pakar dan cendekiawan teknologi dari organisasi terkemuka seperti Alibaba, Hugging Face, BAAI, MiniMax, Neo4j, Dify, MetaGPT, Zhipu AI, Eigent.AI, Docker, Inflow, Peking University, Fraunhofer, Oxford University, dan komunitas openLLM Prancis. Mitra utama, termasuk Huawei, Asosiasi Inovasi dan Kewirausahaan Pemuda Seluruh Tiongkok di Prancis, Asosiasi Kecerdasan Buatan Sino-Prancis, Apache Software Foundation, Eclipse Foundation, The Khronos Group, WasmEdgeRuntime, LF Generative AI Commons, Linux Foundation Research, OpenWallet Foundation, Open Source Initiative (OSI), Software Heritage, dan K8SUG, juga berpartisipasi aktif. Konferensi ini menampilkan lebih dari 60 sesi teknis yang berpusat di sekitar tema inti seperti model AI, infrastruktur, penerapan aplikasi, dan kecerdasan embodied, memberikan pandangan komprehensif tentang evolusi ekosistem open source dan tren yang muncul.

Hubungan Simbiosis Antara AI dan Open Source

Michael Yuan, salah satu pendiri GOSIM, membuka konferensi dengan pidato utama berjudul “Open Source Has Caught Up, What’s Next?” Dia berbagi wawasannya tentang keadaan saat ini dan lintasan masa depan AI open source, menekankan bahwa itu telah mencapai momen penting.

"Kami pernah memprediksi akan membutuhkan waktu 5-10 tahun bagi open source untuk mengejar model closed-source, tetapi tampaknya tujuan ini telah tercapai lebih cepat dari jadwal," kata Yuan. Dia mengutip rilis terbaru Qwen 3 sebagai contoh, mencatat bahwa model open source tidak lagi hanya bersaing satu sama lain tetapi sekarang secara langsung menantang model unggulan milik sendiri, bahkan melampaui mereka dalam tolok ukur tertentu. Yuan juga menyarankan bahwa kemajuan ini tidak hanya disebabkan oleh kemajuan open source tetapi juga hasil dari pengembangan closed-source yang gagal memenuhi harapan dan menghadapi hambatan kinerja. Sebaliknya, model open source berkembang pesat, menunjukkan kurva pertumbuhan kinerja yang curam dan menunjukkan fenomena "mengejar" yang sebenarnya.

Pengamatan ini menimbulkan pertanyaan mendasar: Seberapa jauh kita dari mencapai Artificial General Intelligence (AGI)? Yuan percaya bahwa masa depan AGI mungkin tidak terletak pada satu model yang mencakup semua tetapi lebih pada jaringan model khusus, basis pengetahuan, dan alat yang digunakan pada perangkat keras pribadi atau perangkat robot.

Dia lebih lanjut menjelaskan bahwa arsitektur AI bergeser dari paradigma terpusat ke paradigma terdesentralisasi. Dia menyoroti transisi OpenAI dari Completion API ke Responses API baru, yang bertujuan untuk membangun platform agen cerdas skala besar. Hampir 600.000 pengguna dan pengembang telah bergabung dengan transformasi ini, berkontribusi pada pengembangan aplikasi AI terdistribusi.

"Masa depan AGI seharusnya tidak dikembangkan secara eksklusif oleh satu perusahaan yang didanai dengan baik," tegas Yuan. "Sebaliknya, itu harus dibangun melalui kolaborasi global, menciptakan jaringan ekosistem yang mencakup model, basis pengetahuan, robot, dan sistem eksekusi."

Setelah pidato Yuan, Daniel Goldscheider, Direktur Eksekutif OpenWallet Foundation, menyampaikan presentasi tentang “GDC Wallets & Credentials,” yang berfokus pada proyek Global Digital Compact (GDC), yang diadopsi oleh Majelis Umum Perserikatan Bangsa-Bangsa. Dia menjelaskan bahwa GDC memiliki dua tujuan inti:

  • Menyadari bahwa teknologi digital telah mengubah secara mendalam kehidupan kita dan perkembangan masyarakat, membawa peluang yang belum pernah terjadi sebelumnya dan risiko yang tak terduga.
  • Menekankan bahwa mewujudkan potensi penuh teknologi digital untuk kepentingan seluruh umat manusia membutuhkan kerja sama global, menghilangkan hambatan antara negara, industri, dan bahkan sektor publik dan swasta.

Berdasarkan pemahaman bersama ini, GDC telah memunculkan inisiatif “Global Digital Collaboration”, yang bertujuan untuk mendorong kolaborasi sejati antara pemerintah, bisnis, organisasi nirlaba, dan pemangku kepentingan lainnya.

Ketika membahas aspek operasional, Goldscheider menekankan bahwa kolaborasi ini tidak didikte oleh organisasi tunggal mana pun tetapi lebih mengadopsi pendekatan "pertemuan bersama", mengundang semua organisasi internasional yang tertarik, badan penetapan standar, komunitas open source, dan organisasi antarpemerintah untuk berpartisipasi. Dia mengklarifikasi bahwa ini bukan proyek "siapa memimpin siapa" tetapi platform kolaborasi yang setara di mana setiap pihak memiliki suara dan tidak ada yang lebih penting dari yang lain.

Dia lebih lanjut menjelaskan bahwa Global Digital Collaboration tidak bertujuan untuk secara langsung mengembangkan standar atau teknologi tetapi lebih untuk memfasilitasi dialog di antara organisasi dari berbagai latar belakang, memungkinkan mereka untuk menyajikan perspektif dan kebutuhan mereka untuk mencapai konsensus. Selanjutnya, standar khusus dan pekerjaan teknis akan ditingkatkan oleh badan khusus yang relevan. Dia mengutip "identitas digital" dan "teknologi biometrik" sebagai contoh, mencatat bahwa banyak organisasi telah bekerja di bidang ini, menyoroti perlunya platform netral untuk menyatukan semua orang, menghindari duplikasi, konflik, dan pemborosan sumber daya.

Empat Forum Khusus: Analisis Komprehensif AI Open Source

Konferensi ini menampilkan empat forum khusus: Model AI, Infrastruktur AI, Aplikasi AI, dan Kecerdasan Embodied. Forum-forum ini mencakup topik-topik penting mulai dari arsitektur yang mendasari hingga penerapan aplikasi, dan dari kemampuan model hingga praktik agen cerdas. Setiap forum menyelenggarakan para ahli terkemuka dari perusahaan global dan lembaga penelitian, memberikan analisis mendalam tentang tren teknologi terbaru dan menampilkan studi kasus praktik rekayasa yang kaya, menunjukkan integrasi komprehensif dan evolusi AI open source di berbagai bidang.

Mendekonstruksi Logika yang Mendasari Model Besar AI

Forum Model AI mempertemukan para ahli dari komunitas open source dan lembaga penelitian untuk berbagi wawasan tentang inovasi arsitektur, kolaborasi open source, dan evolusi ekosistem di ranah model besar.

Guilherme Penedo, Machine Learning Research Engineer di Hugging Face, mempresentasikan “Open-R1: A Fully Open Source Reproduction of DeepSeek-R1,” menampilkan upaya proyek Open-R1 dalam mereplikasi model DeepSeek-R1, dengan fokus pada mempromosikan keterbukaan dan standarisasi data yang terkait dengan tugas inferensi. Guang Liu, Technology Leader dari Data Research Team di Zhiyuan Research Institute, berbagi “OpenSeek: Collaborative Innovation Towards the Next Generation of Large Models,” menekankan pentingnya kolaborasi global dalam mendorong terobosan dalam kinerja model di tingkat algoritma, data, dan sistem, dengan tujuan mengembangkan generasi model besar berikutnya yang melampaui DeepSeek.

Jason Li, Senior Vice President CSDN, menyampaikan “Decoding DeepSeek: Technological Innovation and its Impact on the AI Ecosystem,” memberikan analisis mendalam tentang inovasi DeepSeek dalam paradigma teknis, arsitektur model, dan ekologi industri, serta potensi dampaknya pada ekosistem AI global. Yiran Zhong, Senior Research Director di MiniMax, mempresentasikan “Linear Future: The Evolution of Large Language Model Architectures,” memperkenalkan mekanisme Lightning Attention yang diusulkan tim, yang menawarkan alternatif potensial untuk arsitektur Transformer dalam hal efisiensi dan kinerja. Shiwei Liu, Royal Society Newton International Fellow di Oxford University, membahas “The Depth Curse in Large Language Models,” mengeksplorasi kontribusi yang semakin berkurang dari jaringan saraf dalam seiring dengan semakin dalamnya model, dan mengusulkan penggunaan LayerNorm Scaling untuk meningkatkan mekanisme Pre-LN untuk meningkatkan pemanfaatan lapisan dalam dan efisiensi keseluruhan. Diego Rojas, Research Engineer di Zhipu AI, menunjukkan dalam “Code Large Language Models: Exploring Beyond Tokens” bahwa model besar saat ini, meskipun kuat, masih bergantung pada tokenisasi, yang tidak efisien, dan berbagi metode baru untuk melewati tokenisasi untuk membuat model lebih cepat dan lebih kuat. Nicolas Flores-Herr, Head of the Basic Models Team di Fraunhofer IAIS, menutup forum dengan “How to Build Globally Competitive ‘European-Made’ Large Language Models?” menekankan bahwa Eropa mengatasi tantangan data, keragaman, dan peraturan melalui proyek model besar multibahasa, open source, dan terpercaya yang dilokalkan, untuk membangun generasi AI berikutnya yang mencerminkan nilai-nilai Eropa.

Triad Infrastruktur AI: Data, Daya Komputasi, dan Evolusi Algoritma

Berfokus pada membangun fondasi yang lebih terbuka, efisien, dan inklusif untuk model besar, forum Infrastruktur AI mempertemukan para ahli terkemuka dari lembaga penelitian dan perusahaan untuk terlibat dalam diskusi mendalam tentang isu-isu utama seperti data, daya komputasi, dan arsitektur sistem.

Yonghua Lin, Vice President Zhiyuan Research Institute (BAAI), meluncurkan Chinese Internet Corpus CCI 4.0 dalam “AI Open Source for Good: Inclusive Applications, Fair Data, and Universal Computing Power,” yang mencakup tiga set data utama: CCI4.0-M2-Base V1, CCI4.0-M2-CoT V1, dan CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 memiliki volume data 35000GB, dwibahasa dalam bahasa Cina dan Inggris, dengan 5000GB data Cina, peningkatan 5 kali lipat dalam skala data dibandingkan dengan CCI3.0. CCI4.0-M2-CoT V1 berisi 450 juta data lintasan pemikiran manusia yang disintesis terbalik untuk meningkatkan kemampuan penalaran, dengan jumlah token total 425B (425 miliar), hampir 20 kali ukuran Cosmopedia (open sourced oleh Hugging Face), set data sintetis open source terbesar yang tersedia secara global saat ini.

Xiyuan Wang, Senior Software Engineer di Huawei, kemudian memperkenalkan bagaimana arsitektur CANN menghubungkan kerangka kerja AI dan perangkat keras Ascend dalam “Best Practices for Training and Inference Based on Ascend CANN,” dan mencapai inferensi pelatihan optimal melalui mendukung ekosistem seperti PyTorch dan vLLM. Guillaume Blaquiere, Data Architect di Carrefour, menunjukkan cara menggunakan instans model besar serverless yang mendukung GPU melalui Google Cloud Run untuk mengurangi biaya dan meningkatkan efisiensi pemanfaatan sumber daya dalam “Making Your LLM Serverless.” Yinping Ma, Engineer di Peking University, memberikan pidato utama tentang “Open Source Intelligent Computing Integrated Management and Scheduling Basic Software - SCOW and CraneSched,” memperkenalkan dua perangkat lunak dasar open source utama yang dikembangkan oleh Peking University, SCOW dan CraneSched, yang telah digunakan di lusinan universitas dan perusahaan di seluruh negeri, mendukung manajemen terpadu dan penjadwalan kinerja tinggi sumber daya komputasi cerdas. Yaowei Zheng, kandidat PhD di Beihang University, berbagi konsep desain arsitektur pengontrol hibrida dalam sistem Verl dalam pidato “verl: A RLHF System Based on Hybrid Controller”, dan membahas keuntungan efisiensinya dalam pelatihan pembelajaran penguatan skala besar. Greg Schoeninger, CEO Oxen.ai, mempresentasikan “Training Datasets and Infrastructure for DeepSeek-R1 Style Reinforcement Learning (GRPO)” dan merinci jalur praktik untuk proses pelatihan pembelajaran penguatan untuk penalaran LLM, termasuk konstruksi set data, pembangunan infrastruktur, dan model generasi kode pelatihan lokal.

Dari “Bisakah Digunakan” hingga “Apakah Digunakan dengan Baik”: Aplikasi AI Memasuki Tahap Praktis

Di forum Aplikasi AI, praktisi R&D dan pengambil keputusan teknologi dari perusahaan terkemuka berbagi beragam wawasan, menampilkan jalur penerapan dunia nyata dan kemungkinan masa depan aplikasi AI yang didorong oleh model besar.

Yongbin Li, Chief Researcher di Alibaba Tongyi Lab, berbagi kemajuan terbaru Tongyi Lingma dalam evolusi teknis dan aplikasi produk dalam “Tongyi Lingma: From Coding Copilot to Coding Agent.” Dongjie Chen, Software Engineer di Huawei, memberikan pidato utama tentang “Cangjie Magic: A New Choice for Developers in the Era of Large Models,” memperkenalkan kerangka kerja pengembangan Agen model besar AI berdasarkan bahasa pemrograman Cangjie, yang secara signifikan dapat meningkatkan efisiensi pengembang dalam membangun aplikasi HarmonyOS cerdas dan menghadirkan pengalaman pengembangan yang luar biasa. Xinrui Liu, Director LangGenius Developer Ecosystem, berfokus pada “Working Together, Technical Power Enabled by Dify,” menekankan ekosistem open source Dify dan perannya dalam mempercepat popularisasi aplikasi AI.

Mengenai kombinasi AI dan rekayasa sistem, Rik Arends, salah satu pendiri Makepad, memberikan presentasi unik: “Using Ambient Coding, Use AI to Create Rust UI for Mobile Devices, Web Pages, and Mixed Reality,” mengeksplorasi cara menggunakan ambient coding untuk membangun paradigma baru untuk UI. Christian Tzolov, R&D Software Engineer dari tim Broadcom Spring, berfokus pada demonstrasi cara mengintegrasikan model AI secara efisien dengan sistem dan sumber daya yang ada melalui MCP Java SDK dan Spring AI MCP dalam “A Unified Paradigm for AI Integration Through MCP.” Wenjing Chu, Senior Director of Technology Strategy di Futurewei, lebih lanjut meningkatkan perspektif dalam “The ‘T’ in MCP and A2A Stands for Trust,” menganalisis secara mendalam cara membangun sistem AI yang benar-benar dapat dipercaya dalam aplikasi berbasis agen. Selain itu, Hong-Thai Nguyen, Software Engineering Manager di Cegid, memperkenalkan cara multi-agen dapat membentuk kembali proses bisnis dan mencapai pengambilan keputusan dan operasi perusahaan yang lebih cerdas dalam kombinasi dengan skenario praktis dalam pidato “Cegid Pulse: Multi-Agent Business Management Platform”.

Ketika Model Besar Dilengkapi dengan “Tubuh”: Kecerdasan Embodied Tiba

Kecerdasan Embodied menjadi salah satu arah pengembangan yang paling menantang dan menjanjikan di bidang AI. Dalam forum ini, banyak pakar teknis terkemuka di industri terlibat dalam diskusi mendalam seputar tema “kecerdasan embodied”, berbagi eksplorasi praktis mereka dalam desain arsitektur, aplikasi model, dan penerapan skenario.

Angelo Corsaro, CEO dan CTO ZettaScale, memperkenalkan bagaimana protokol Zenoh dapat mendobrak hambatan antara persepsi, eksekusi, dan kognisi di era robot cerdas dalam “Mind, Body, and Zenoh.” Philipp Oppermann, Project Manager dari proyek Dora, membawakan “Using Zenoh in Dora to Implement Distributed Data Flow,” menjelaskan aplikasi penting dari protokol Zenoh di Dora untuk mengimplementasikan aliran data terdistribusi. James Yang, Professor University of Science and Technology of China, memberikan pidato tentang “Generation of Adversarial Safety-Critical Scenarios in Autonomous Driving,” memperkenalkan cara meningkatkan keamanan teknologi mengemudi otonom dengan menghasilkan skenario permusuhan untuk memastikan stabilitas dan keandalan di lingkungan yang kompleks.

Selain itu, Minglan Lin, seorang peneliti kecerdasan embodied di Zhiyuan Research Institute, juga berfokus pada topik “RoboBrain: A Unified Brain Model for Robot Operation & RoboOS: A Hierarchical Collaboration Framework forRoboBrain and Robot Intelligent Agents,” menunjukkan bagaimana RoboBrain dapat meningkatkan tingkat kecerdasan robot dan peran penting RoboOS dalam kolaborasi robot. Ville Kuosmanen, pendiri Voyage Robotics, memberikan pidato yang luar biasa tentang “Building Robot Applications with Open Source VLA Models,” menjelaskan cara menggunakan model VLA open source untuk memberikan dukungan kuat untuk aplikasi robot. Akhirnya, Huy Hoang Ha, seorang peneliti model bahasa besar di Menlo Research, membahas bagaimana penalaran spasial dapat membantu robot lebih memahami lingkungan 2D dan 3D yang kompleks, sehingga meningkatkan kemampuan operasi dan navigasi mereka dalam pidato utama “Spatial Reasoning LLM: Enhancing Understanding of 2D and 3D to Support Robot Operation and Navigation.”

Spotlight Talks: Menerangi Teknologi Mutakhir dan Aplikasi Inovatif

Spotlight Talks Day 1 menampilkan presentasi menarik dari para ahli industri tentang teknologi mutakhir dan aplikasi inovatif. Segmen ini berfungsi sebagai platform bagi praktisi teknologi dari berbagai domain untuk membahas kemajuan terbaru dan aplikasi praktis AI. Cyril Moineau, Research Engineer di French Atomic Energy Commission (CEA), memperkenalkan bagaimana proyek Eclipse Aidge mendukung penerapan dan optimalisasi jaringan saraf dalam pada platform yang disematkan dengan menyediakan toolchain lengkap dalam pidato “Aidge”, sehingga mempercepat pengembangan sistem cerdas edge.

Paweł Kiszczak, Data Scientist di Bielik.ai, secara publik berbagi kemajuan terbaru dari proyek AI asli Polandia Bielik untuk pertama kalinya di konferensi ini, dan memberikan pidato berjudul “The Rise of Bielik.AI,” menceritakan bagaimana proyek ini mempromosikan pembangunan sistem AI otonom lokal melalui model bahasa open source dan ekosistem alat lengkap. Proyek Bielik tidak hanya merilis beberapa model bahasa open source (skala parameter yang mencakup 1.5B, 4.5B dan 11B), tetapi juga membuat toolchain ujung ke ujung yang mencakup set data, evaluasi, pelatihan dan fine-tuning, mendukung tim peneliti dan pengembang untuk melakukan fine-tuning atau terus melakukan pre-training berdasarkan model dasar, yang sangat mengurangi ambang R&D untuk model besar dan merangsang kemampuan inovasi teknologi lokal.

Hung-Ying Tai, Technical Lead dari Second State, berbagi “Running GenAI Models on Edge Devices with LlamaEdge,” menunjukkan kemampuan LlamaEdge yang ringan dan berkinerja tinggi dalam menggunakan model AI generatif pada perangkat edge, menghadirkan pengalaman penalaran lokal yang lebih fleksibel dan efisien. Tianyu Chen, seorang kandidat PhD di Peking University, memperkenalkan bagaimana kerangka kerja SAFE meringankan masalah data pelatihan yang langka melalui mekanisme swa-evolusi “sintesis data-fine-tuning model”, sehingga secara signifikan meningkatkan efisiensi dan akurasi verifikasi formal kode Rust dalam “Achieving Automatic Formal Verification for Rust Code Based on Self-Evolution Framework.” Gautier Viaud, R&D Director di Illuin Technology, berbagi bagaimana sistem ColPali, yang dibangun oleh tim berdasarkan arsitektur ColBERT dan model PaliGemma, secara efektif meningkatkan akurasi dan efisiensi pengambilan dokumen dengan menggabungkan informasi grafis dan teks dalam pidato “ColPali: Efficient Document Retrieval Based on Visual Language Model.” Akhirnya, Xiao Zhang, CEO Dynamia.ai, memperkenalkan cara mengelola dan menjadwalkan sumber daya GPU heterogen dengan lebih baik dengan bantuan HAMi dan meningkatkan tingkat pemanfaatan dan observabilitas infrastruktur AI dalam “Unlocking the K8s Cluster Capabilities of Heterogeneous AI Infrastructure: Releasing the Power of HAMi.”

Interaksi Beragam dan Sorotan Hari Pertama

Selain pidato utama dengan kepadatan tinggi, konferensi ini juga menampilkan beberapa unit khusus. Unit Rapat Tertutup berfokus pada dialog strategis dan pertukaran industri yang mendalam untuk mempromosikan kerja sama lintas batas. Sesi Showcase berfokus pada presentasi produk teknologi AI terbaru dari perusahaan dan lembaga penelitian, menarik banyak pengunjung untuk berhenti dan berkomunikasi. Dalam Sesi Kompetisi, pengembang AI dan robotika, insinyur, dan penggemar robotika dari seluruh dunia berfokus pada kit lengan robot open source SO-ARM100 untuk melakukan eksplorasi praktis pembelajaran imitasi. Kit ini mengintegrasikan kerangka kerja LeRobot Hugging Face dan menggabungkan teknologi AI dan robotika NVIDIA untuk mendukung arsitektur AI mutakhir termasuk ACT dan Diffusion Policy, memberikan peserta fondasi teknis yang kuat. Peserta melakukan eksplorasi praktis dalam skenario nyata untuk mengevaluasi secara komprehensif efek dan kelayakannya.

Sesi Workshop mengambil ekosistem OpenHarmony sebagai topik inti dan mengeksplorasi proyek open source yang diinkubasi dan dioperasikan oleh Open Atom Open Source Foundation. OpenHarmony berkomitmen untuk membangun kerangka kerja sistem operasi terminal cerdas untuk era semua skenario, semua koneksi, dan semua kecerdasan, menciptakan platform sistem operasi terdistribusi terkemuka yang terbuka, global, dan inovatif, melayani berbagai perangkat cerdas, dan membantu pengembangan industri Internet of Everything. Di lokasi konferensi, peserta sangat memahami keunggulan inti OpenHarmony dalam kolaborasi multi-perangkat dan desain sistem yang ringan melalui serangkaian lokakarya praktis, secara pribadi berpartisipasi dalam proses-proses utama dari pengembangan driver hingga penerapan aplikasi. Praktik langsung tidak hanya membantu pengembang membuka jalur teknis “bottom-to-end”, tetapi juga secara komprehensif meningkatkan kemampuan pengembangan dan debugging tingkat sistem.

Agenda GOSIM AI Paris 2025 Hari 1 telah mencapai kesimpulan yang sukses, tetapi kegembiraan terus berlanjut. Besok, konferensi akan terus maju di sekitar empat forum utama model AI, infrastruktur AI, aplikasi AI, dan kecerdasan embodied, dan akan menyambut PyTorch Day yang sangat dinanti, dengan lebih banyak tamu kelas berat dan konten praktis lini pertama segera hadir, jadi tetaplah menantikan!