Phong cảnh AI đã trải qua một sự chuyển đổi mạnh mẽ trong năm qua, được thúc đẩy bởi tinh thần hợp tác của phát triển mã nguồn mở. Không còn chỉ là lãnh địa của các gã khổng lồ công nghệ, các mô hình ngôn ngữ lớn (LLM) giờ đây đang phát triển thông qua các nỗ lực cộng đồng và chia sẻ mở, tác động đến mọi thứ từ cơ sở hạ tầng đến tối ưu hóa và triển khai thuật toán. Phong trào mã nguồn mở này đang tăng tốc tiến bộ của AI, làm cho nó dễ tiếp cận hơn và dân chủ hóa cơ hội đóng góp vào thế hệ hệ thống thông minh tiếp theo.
Trong bối cảnh đó, hội nghị GOSIM AI Paris 2025, do GOSIM, CSDN và 1ms.ai đồng tổ chức, đã khai mạc vào ngày 6 tháng 5 tại Paris, Pháp. Sự kiện này đóng vai trò là một nền tảng quan trọng, kết nối các nhà thực hành và nhà nghiên cứu công nghệ toàn cầu để khám phá những đột phá mới nhất và các hướng đi tương lai trong AI mã nguồn mở.
Hội nghị tự hào có một đội hình ấn tượng với hơn 80 chuyên gia và học giả công nghệ từ các tổ chức hàng đầu như Alibaba, Hugging Face, BAAI, MiniMax, Neo4j, Dify, MetaGPT, Zhipu AI, Eigent.AI, Docker, Inflow, Đại học Bắc Kinh, Fraunhofer, Đại học Oxford và cộng đồng openLLM của Pháp. Các đối tác quan trọng, bao gồm Huawei, Hiệp hội Đổi mới và Khởi nghiệp Thanh niên Toàn Trung Quốc tại Pháp, Hiệp hội Trí tuệ Nhân tạo Sino-French, Tổ chức Phần mềm Apache, Tổ chức Eclipse, Tập đoàn Khronos, WasmEdgeRuntime, LF Generative AI Commons, Nghiên cứu của Linux Foundation, OpenWallet Foundation, Open Source Initiative (OSI), Software Heritage và K8SUG, cũng đang tích cực tham gia. Hội nghị có hơn 60 phiên kỹ thuật tập trung vào các chủ đề cốt lõi như mô hình AI, cơ sở hạ tầng, triển khai ứng dụng và trí tuệ thể hiện, cungcấp một cái nhìn toàn diện về sự phát triển và các xu hướng mới nổi của hệ sinh thái mã nguồn mở.
Mối Quan Hệ Cộng Sinh Giữa AI và Mã Nguồn Mở
Michael Yuan, đồng sáng lập của GOSIM, đã khai mạc hội nghị với một bài phát biểu quan trọng có tiêu đề "Mã Nguồn Mở Đã Bắt Kịp, Điều Gì Tiếp Theo?" Ông chia sẻ những hiểu biết sâu sắc của mình về trạng thái hiện tại và quỹ đạo tương lai của AI mã nguồn mở, nhấn mạnh rằng nó đã đạt đến một thời điểm then chốt.
"Chúng tôi đã từng dự đoán rằng sẽ mất 5-10 năm để mã nguồn mở bắt kịp các mô hình nguồn đóng, nhưng có vẻ như mục tiêu này đã đạt được trước thời hạn," Yuan tuyên bố. Ông trích dẫn việc phát hành gần đây của Qwen 3 như một ví dụ, lưu ý rằng các mô hình mã nguồn mở không còn chỉ cạnh tranh với nhau mà giờ đây đang trực tiếp thách thức các mô hình hàng đầu độc quyền, thậm chí vượt trội hơn chúng trong một số điểm chuẩn nhất định. Yuan cũng gợi ý rằng tiến bộ này không chỉ do những tiến bộ của mã nguồn mở mà còn là kết quả của việc phát triển nguồn đóng không đáp ứng được kỳ vọng và gặp phải các nút thắt hiệu suất. Ngược lại, các mô hình mã nguồn mở đang phát triển nhanh chóng, thể hiện một đường cong tăng trưởng hiệu suất dốc và thể hiện một hiện tượng "bắt kịp" thực sự.
Quan sát này đặt ra một câu hỏi cơ bản: Chúng ta còn cách bao xa để đạt được Trí tuệ Nhân tạo Tổng quát (AGI)? Yuan tin rằng tương lai của AGI có thể không nằm ở một mô hình duy nhất, bao trùm tất cả mà là ở một mạng lưới các mô hình chuyên dụng, cơ sở kiến thức và công cụ được triển khai trên phần cứng riêng hoặc các thiết bị robot.
Ông tiếp tục giải thích rằng kiến trúc AI đang chuyển từ một mô hình tập trung sang một mô hình phi tập trung. Ông nhấn mạnh sự chuyển đổi của OpenAI từ API Completion sang API Responses mới, nhằm mục đích xây dựng một nền tảng đại lý thông minh quy mô lớn. Gần 600.000 người dùng và nhà phát triển đã tham gia vào sự chuyển đổi này, đóng góp vào sự phát triển của các ứng dụng AI phân tán.
"Tương lai của AGI không nên được phát triển độc quyền bởi một công ty duy nhất, được tài trợ tốt," Yuan khẳng định. "Thay vào đó, nó nên được xây dựng thông qua sự hợp tác toàn cầu, tạo ra một mạng lưới hệ sinh thái bao gồm các mô hình, cơ sở kiến thức, robot và hệ thống thực thi."
Sau bài phát biểu của Yuan, Daniel Goldscheider, Giám đốc Điều hành của OpenWallet Foundation, đã trình bày về "GDC Wallets & Credentials," tập trung vào dự án Global Digital Compact (GDC), được Đại hội đồng Liên Hợp Quốc thông qua. Ông giải thích rằng GDC có hai mục tiêu cốt lõi:
- Thừa nhận rằng các công nghệ kỹ thuật số đã biến đổi sâu sắc cuộc sống và sự phát triển xã hội của chúng ta, mang lại cả những cơ hội chưa từng có và những rủi ro không lường trước được.
- Nhấn mạnh rằng việc nhận ra toàn bộ tiềm năng của các công nghệ kỹ thuật số vì lợi ích của toàn nhân loại đòi hỏi sự hợp tác toàn cầu, phá vỡ các rào cản giữa các quốc gia, ngành công nghiệp và thậm chí cả khu vực công và tư nhân.
Dựa trên sự hiểu biết chung này, GDC đã tạo ra sáng kiến "Hợp tác Kỹ thuật số Toàn cầu", nhằm mục đích thúc đẩy sự hợp tác thực sự giữa các chính phủ, doanh nghiệp, tổ chức phi lợi nhuận và các bên liên quan khác.
Khi thảo luận về các khía cạnh hoạt động, Goldscheider nhấn mạnh rằng sự hợp tác này không bị bất kỳ tổ chức đơn lẻ nào ra lệnh mà thay vào đó áp dụng một phương pháp "triệu tập chung", mời tất cả các tổ chức quốc tế, cơ quan thiết lập tiêu chuẩn, cộng đồng mã nguồn mở và tổ chức liên chính phủ quan tâm tham gia. Ông làm rõ rằng đây không phải là một dự án "ai lãnh đạo ai" mà là một nền tảng hợp tác bình đẳng, nơi mọi bên đều có tiếng nói và không ai quan trọng hơn ai.
Ông tiếp tục giải thích rằng Hợp tác Kỹ thuật số Toàn cầu không nhằm mục đích trực tiếp phát triển các tiêu chuẩn hoặc công nghệ mà thay vào đó là tạo điều kiện cho một cuộc đối thoại giữa các tổ chức từ các nền tảng đa dạng, cho phép họ trình bày quan điểm và nhu cầu của mình để đạt được sự đồng thuận. Sau đó, các tiêu chuẩn cụ thể và công việc kỹ thuật sẽ được thúc đẩy bởi các cơ quan chuyên môn có liên quan. Ông trích dẫn "nhận dạng kỹ thuật số" và "công nghệ sinh trắc học" như những ví dụ, lưu ý rằng nhiều tổ chức đã làm việc trong các lĩnh vực này, nhấn mạnh sự cần thiết của một nền tảng trung lập để tập hợp mọi người lại với nhau, tránh trùng lặp, xung đột và lãng phí tài nguyên.
Bốn Diễn Đàn Chuyên Dụng: Phân Tích Toàn Diện về AI Mã Nguồn Mở
Hội nghị có bốn diễn đàn chuyên biệt: Mô hình AI, Cơ sở hạ tầng AI, Ứng dụng AI và Trí tuệ Thể hiện. Các diễn đàn này bao gồm các chủ đề quan trọng từ kiến trúc cơ bản đến triển khai ứng dụng và từ khả năng mô hình đến thực hành đại lý thông minh. Mỗi diễn đàn đều có các chuyên gia hàng đầu từ các doanh nghiệp và tổ chức nghiên cứu toàn cầu, cung cấp cả phân tích chuyên sâu về các xu hướng công nghệ mới nhất và giới thiệu các trường hợp thực hành kỹ thuật phong phú, thể hiện sự tích hợp và phát triển toàn diện của AI mã nguồn mở trên nhiều lĩnh vực.
Giải Mã Logic Cơ Bản của Các Mô Hình Lớn AI
Diễn đàn Mô hình AI đã tập hợp các chuyên gia từ các cộng đồng mã nguồn mở và các tổ chức nghiên cứu để chia sẻ những hiểu biết sâu sắc về các đổi mới kiến trúc, hợp tác mã nguồn mở và sự phát triển hệ sinh thái trong lĩnh vực các mô hình lớn.
Guilherme Penedo, Kỹ sư Nghiên cứu Học máy tại Hugging Face, đã trình bày "Open-R1: Tái Tạo Mã Nguồn Mở Hoàn Toàn của DeepSeek-R1", giới thiệu những nỗ lực của dự án Open-R1 trong việc sao chép mô hình DeepSeek-R1, tập trung vào việc thúc đẩy tính mở và tiêu chuẩn hóa dữ liệu liên quan đến các tác vụ suy luận. Guang Liu, Lãnh đạo Công nghệ của Nhóm Nghiên cứu Dữ liệu tại Viện Nghiên cứu Zhiyuan, đã chia sẻ "OpenSeek: Đổi mới Hợp tác Hướng tới Thế Hệ Mô Hình Lớn Tiếp Theo", nhấn mạnh tầm quan trọng của sự hợp tác toàn cầu trong việc thúc đẩy các đột phá trong hiệu suất mô hình ở cấp độ thuật toán, dữ liệu và hệ thống, với mục tiêu phát triển thế hệ mô hình lớn tiếp theo vượt qua DeepSeek.
Jason Li, Phó Chủ tịch Cấp cao của CSDN, đã trình bày "Giải Mã DeepSeek: Đổi Mới Công Nghệ và Tác Động của Nó đến Hệ Sinh Thái AI", cung cấp một phân tích chuyên sâu về những đổi mới của DeepSeek trong các mô hình kỹ thuật, kiến trúc mô hình và sinh thái công nghiệp, cũng như tác động tiềm tàng của nó đối với hệ sinh thái AI toàn cầu. Yiran Zhong, Giám đốc Nghiên cứu Cấp cao tại MiniMax, đã trình bày "Tương Lai Tuyến Tính: Sự Phát Triển của Kiến Trúc Mô Hình Ngôn Ngữ Lớn", giới thiệu cơ chế Lightning Attention do nhóm đề xuất, cung cấp một giải pháp thay thế tiềm năng cho kiến trúc Transformer về hiệu quả và hiệu suất. Shiwei Liu, Nghiên cứu sinh Quốc tế Newton của Hiệp hội Hoàng gia tại Đại học Oxford, đã thảo luận về "Lời Nguyền Độ Sâu trong Mô Hình Ngôn Ngữ Lớn", khám phá những đóng góp giảm dần của mạng nơ-ron sâu khi các mô hình sâu hơn và đề xuất sử dụng LayerNorm Scaling để cải thiện cơ chế Pre-LN để tăng cường việc sử dụng lớp sâu và hiệu quả tổng thể. Diego Rojas, Kỹ sư Nghiên cứu tại Zhipu AI, đã chỉ ra trong "Các Mô Hình Ngôn Ngữ Lớn Mã: Khám Phá Vượt Ra Ngoài Mã Thông Báo" rằng các mô hình lớn hiện tại, mặc dù mạnh mẽ, vẫn dựa vào mã thông báo, điều này không hiệu quả và chia sẻ các phương pháp mới để bỏ qua mã thông báo để làm cho các mô hình nhanh hơn và mạnh hơn. Nicolas Flores-Herr, Trưởng nhóm Mô hình Cơ bản tại Fraunhofer IAIS, đã kết luận diễn đàn bằng câu hỏi "Làm thế nào để Xây dựng Các Mô Hình Ngôn Ngữ Lớn ‘Sản Xuất Tại Châu Âu’ Có Tính Cạnh Tranh Toàn Cầu?" nhấn mạnh rằng Châu Âu đang vượt qua các thách thức về dữ liệu, tính đa dạng và quy định thông qua các dự án mô hình lớn đa ngôn ngữ, mã nguồn mở và đáng tin cậy, để xây dựng thế hệ AI tiếp theo phản ánh các giá trị của Châu Âu.
Bộ Ba Cơ Sở Hạ Tầng AI: Dữ Liệu, Sức Mạnh Tính Toán và Sự Phát Triển Thuật Toán
Tập trung vào việc xây dựng một nền tảng mở, hiệu quả và toàn diện hơn cho các mô hình lớn, diễn đàn Cơ sở hạ tầng AI đã tậphợp các chuyên gia hàng đầu từ các tổ chức nghiên cứu và doanh nghiệp để tham gia vào các cuộc thảo luận chuyên sâu về các vấn đề chính như dữ liệu, sức mạnh tính toán và kiến trúc hệ thống.
Yonghua Lin, Phó Chủ tịch của Viện Nghiên cứu Zhiyuan (BAAI), đã ra mắt Chinese Internet Corpus CCI 4.0 trong "AI Mã Nguồn Mở vì Lợi ích Chung: Ứng Dụng Toàn Diện, Dữ Liệu Công Bằng và Sức Mạnh Tính Toán Phổ Quát", bao gồm ba bộ dữ liệu chính: CCI4.0-M2-Base V1, CCI4.0-M2-CoT V1 và CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 có dung lượng dữ liệu là 35000GB, song ngữ tiếng Trung và tiếng Anh, với 5000GB dữ liệu tiếng Trung, tăng gấp 5 lần quy mô dữ liệu so với CCI3.0. CCI4.0-M2-CoT V1 chứa 450 triệu dữ liệu quỹ đạo tư duy nhân tạo tổng hợp ngược để cải thiện khả năng suy luận, với tổng số mã thông báo là 425B (425 tỷ), gần 20 lần kích thước của Cosmopedia (mã nguồn mở bởi Hugging Face), bộ dữ liệu tổng hợp mã nguồn mở lớn nhất hiện có trên toàn cầu.
Xiyuan Wang, Kỹ sư Phần mềm Cấp cao tại Huawei, sau đó đã giới thiệu cách kiến trúc CANN kết nối các khung AI và phần cứng Ascend trong "Các Phương Pháp Hay Nhất để Đào Tạo và Suy Luận Dựa trên Ascend CANN" và đạt được suy luận đào tạo tối ưu thông qua hỗ trợ các hệ sinh thái như PyTorch và vLLM. Guillaume Blaquiere, Kiến trúc sư Dữ liệu tại Carrefour, đã chứng minh cách triển khai các phiên bản mô hình lớn không máy chủ hỗ trợ GPU thông qua Google Cloud Run để giảm chi phí và cải thiện hiệu quả sử dụng tài nguyên trong "Làm Cho LLM Của Bạn Không Máy Chủ". Yinping Ma, Kỹ sư tại Đại học Bắc Kinh, đã có một bài phát biểu quan trọng về "Phần Mềm Cơ Bản Quản Lý và Lập Lịch Trình Tính Toán Thông Minh Mã Nguồn Mở - SCOW và CraneSched", giới thiệu hai phần mềm cơ bản mã nguồn mở chính do Đại học Bắc Kinh phát triển, SCOW và CraneSched, đã được triển khai tại hàng chục trường đại học và doanh nghiệp trên toàn quốc, hỗ trợ quản lý thống nhất và lập lịch trình hiệu suất cao của tài nguyên tính toán thông minh. Yaowei Zheng, Nghiên cứu sinh Tiến sĩ tại Đại học Beihang, đã chia sẻ khái niệm thiết kế của kiến trúc bộ điều khiển kết hợp trong hệ thống Verl trong bài phát biểu "verl: Hệ Thống RLHF Dựa Trên Bộ Điều Khiển Kết Hợp" và thảo luận về những lợi thế hiệu quả của nó trong đào tạo học tăng cường quy mô lớn. Greg Schoeninger, Giám đốc điều hành của Oxen.ai, đã trình bày "Bộ Dữ Liệu Đào Tạo và Cơ Sở Hạ Tầng cho Học Tăng Cường Kiểu DeepSeek-R1 (GRPO)" và trình bày chi tiết con đường thực hành cho các quy trình đào tạo học tăng cường cho các LLM lý luận, bao gồm xây dựng bộ dữ liệu, xây dựng cơ sở hạ tầng và mô hình tạo mã đào tạo cục bộ.
Từ "Có Thể Sử Dụng" Đến "Có Được Sử Dụng Tốt Không": Ứng Dụng AI Bước Vào Giai Đoạn Thực Tế
Trong diễn đàn Ứng dụng AI, các nhà thực hành R&D và các nhà ra quyết định công nghệ từ các công ty hàng đầu đã chia sẻ một loạt các hiểu biết sâu sắc, giới thiệu các con đường triển khai thực tế và khả năng tương lai của các ứng dụng AI được thúc đẩy bởi các mô hình lớn.
Yongbin Li, Trưởng nhóm Nghiên cứu tại Alibaba Tongyi Lab, đã chia sẻ những tiến bộ mới nhất của Tongyi Lingma trong sự phát triển kỹ thuật và ứng dụng sản phẩm trong "Tongyi Lingma: Từ Trợ Lý Lập Mã Đến Đại Lý Lập Mã". Dongjie Chen, Kỹ sư Phần mềm tại Huawei, đã có một bài phát biểu quan trọng về "Cangjie Magic: Một Lựa Chọn Mới cho Các Nhà Phát Triển Trong Kỷ Nguyên Mô Hình Lớn", giới thiệu khung phát triển Đại lý mô hình lớn AI dựa trên ngôn ngữ lập trình Cangjie, có thể cải thiện đáng kể hiệu quả của các nhà phát triển trong việc xây dựng các ứng dụng HarmonyOS thông minh và mang lại trải nghiệm phát triển tuyệt vời. Xinrui Liu, Giám đốc Hệ sinh thái Nhà phát triển LangGenius, đã tập trung vào "Làm Việc Cùng Nhau, Sức Mạnh Kỹ Thuật Được Kích Hoạt Bởi Dify", nhấn mạnh hệ sinh thái mã nguồn mở của Dify và vai trò của nó trong việc đẩy nhanh sự phổ biến của các ứng dụng AI.
Về sự kết hợp giữa AI và kỹ thuật hệ thống, Rik Arends, đồng sáng lập của Makepad, đã có một bài thuyết trình độc đáo: "Sử Dụng Mã Hóa Xung Quanh, Sử Dụng AI để Tạo Giao Diện Người Dùng Rust cho Thiết Bị Di Động, Trang Web và Thực Tế Hỗn Hợp", khám phá cách sử dụng mã hóa xung quanh để xây dựng một mô hình mới cho giao diện người dùng. Christian Tzolov, Kỹ sư Phần mềm R&D từ nhóm Broadcom Spring, đã tập trung vào việc chứng minh cách tích hợp hiệu quả các mô hình AI với các hệ thống và tài nguyên hiện có thông qua MCP Java SDK và Spring AI MCP trong "Một Mô Hình Thống Nhất để Tích Hợp AI Thông Qua MCP". Wenjing Chu, Giám đốc Cấp cao về Chiến lược Công nghệ tại Futurewei, đã nâng cao hơn nữa quan điểm trong "‘T’ trong MCP và A2A Là Viết Tắt của Sự Tin Cậy", phân tích sâu sắc cách xây dựng các hệ thống AI thực sự đáng tin cậy trong các ứng dụng dựa trên đại lý. Ngoài ra, Hong-Thai Nguyen, Quản lý Kỹ thuật Phần mềm tại Cegid, đã giới thiệu cách đa đại lý có thể định hình lại các quy trình kinh doanh và đạt được việc ra quyết định và vận hành doanh nghiệp thông minh hơn kết hợp với các tình huống thực tế trong bài phát biểu "Cegid Pulse: Nền Tảng Quản Lý Kinh Doanh Đa Đại Lý".
Khi Các Mô Hình Lớn Được Trang Bị "Cơ Thể": Trí Tuệ Thể Hiện Đến
Trí tuệ thể hiện đang trở thành một trong những hướng phát triển đầy thách thức và hứa hẹn nhất trong lĩnh vực AI. Trong diễn đàn này, nhiều chuyên gia kỹ thuật hàng đầu trong ngành đã tham gia vào các cuộc thảo luận chuyên sâu xung quanh chủ đề "trí tuệ thể hiện", chia sẻ những khám phá thực tế của họ trong thiết kế kiến trúc, ứng dụng mô hình và triển khai kịch bản.
Angelo Corsaro, Giám đốc điều hành và CTO của ZettaScale, đã giới thiệu cách giao thức Zenoh có thể phá vỡ các rào cản giữa nhận thức, thực thi và nhận thức trong kỷ nguyên robot thông minh trong "Tâm Trí, Cơ Thể và Zenoh". Philipp Oppermann, Giám đốc Dự án của dự án Dora, đã mang đến "Sử Dụng Zenoh trong Dora để Triển Khai Luồng Dữ Liệu Phân Tán", giải thích ứng dụng quan trọng của giao thức Zenoh trong Dora để triển khai luồng dữ liệu phân tán. James Yang, Giáo sư tại Đại học Khoa học và Công nghệ Trung Quốc, đã có một bài phát biểu về "Tạo Ra Các Tình Huống An Toàn Quan Trọng Nguy Hiểm trong Lái Xe Tự Động", giới thiệu cách cải thiện sự an toàn của công nghệ lái xe tự động bằng cách tạo ra các tình huống nguy hiểm để đảm bảo sự ổn định và độ tin cậy trong môi trường phức tạp.
Ngoài ra, Minglan Lin, một nhà nghiên cứu trí tuệ thể hiện tại Viện Nghiên cứu Zhiyuan, cũng tập trung vào chủ đề "RoboBrain: Mô Hình Não Thống Nhất cho Vận Hành Robot & RoboOS: Khung Hợp Tác Phân Cấp cho RoboBrain và Đại Lý Thông Minh Robot", chứng minh cách RoboBrain có thể cải thiện mức độ thông minh của robot và vai trò quan trọng của RoboOS trong sự hợp tác của robot. Ville Kuosmanen, người sáng lập Voyage Robotics, đã có một bài phát biểu tuyệt vời về "Xây Dựng Ứng Dụng Robot Với Mô Hình VLA Mã Nguồn Mở", giải thích cách sử dụng mô hình VLA mã nguồn mở để cung cấp hỗ trợ mạnh mẽ cho các ứng dụng robot. Cuối cùng, Huy Hoang Ha, một nhà nghiên cứu mô hình ngôn ngữ lớn tại Menlo Research, đã thảo luận về cách lý luận không gian có thể giúp robot hiểu rõ hơn về môi trường 2D và 3D phức tạp, từ đó cải thiện khả năng vận hành và điều hướng của chúng trong bài phát biểu quan trọng "LLM Lý Luận Không Gian: Nâng Cao Hiểu Biết về 2D và 3D để Hỗ Trợ Vận Hành và Điều Hướng Robot".
Các Bài Thuyết Trình Spotlight: Chiếu Sáng Các Công Nghệ Tiên Tiến và Ứng Dụng Sáng Tạo
Ngày 1 của Spotlight Talks có các bài thuyết trình hấp dẫn từ các chuyên gia trong ngành về các công nghệ tiên tiến và các ứng dụng sáng tạo. Phân đoạn này đóng vai trò là một nền tảng để các nhà thực hành công nghệ từ nhiều lĩnh vực khác nhau thảo luận về những tiến bộ mới nhất và các ứng dụng thực tế của AI. Cyril Moineau, Kỹ sư Nghiên cứu tại Ủy ban Năng lượng Nguyên tử Pháp (CEA), đã giới thiệu cách dự án Eclipse Aidge hỗ trợ việc triển khai và tối ưu hóa các mạng nơ-ron sâu trên các nền tảng nhúng bằng cách cung cấp một chuỗi công cụ hoàn chỉnh trong bài phát biểu “Aidge”, từ đó đẩy nhanh sự phát triển của các hệ thống thông minh biên.
Paweł Kiszczak, Nhà khoa học Dữ liệu tại Bielik.ai, lần đầu tiên chia sẻ công khai những tiến bộ mới nhất của dự án AI bản địa Ba Lan Bielik tại hội nghị này và có một bài phát biểu có tiêu đề "Sự Trỗi Dậy của Bielik.AI", kể về cách dự án thúc đẩy việc xây dựng một hệ thống AI tự trị cục bộ thông qua các mô hình ngôn ngữ mã nguồn mở và một hệ sinh thái công cụ hoàn chỉnh. Dự án Bielik không chỉ phát hành nhiều mô hình ngôn ngữ mã nguồn mở (quy mô tham số bao gồm 1,5B, 4,5B và 11B), mà còn tạo ra một chuỗi công cụ từ đầu đến cuối bao gồm bộ dữ liệu, đánh giá, đào tạo và tinh chỉnh, hỗ trợ các nhóm nghiên cứu và nhà phát triển tinh chỉnh hoặc liên tục đào tạo trước dựa trên các mô hình cơ bản, điều này làm giảm đáng kể ngưỡng R&D cho các mô hình lớn và kích thích khả năng đổi mới công nghệ cục bộ.
Hung-Ying Tai, Trưởng nhóm Kỹ thuật từ Second State, đã chia sẻ "Chạy Các Mô Hình GenAI trên Thiết Bị Biên với LlamaEdge", chứng minh khả năng nhẹ và hiệu suất cao của LlamaEdge trong việc triển khai các mô hình AI tạo sinh trên các thiết bị biên, mang lại trải nghiệm lý luận cục bộ linh hoạt và hiệu quả hơn. Tianyu Chen, một nghiên cứu sinh Tiến sĩ tại Đại học Bắc Kinh, đã giới thiệu cách khung SAFE giảm bớt vấn đề khan hiếm dữ liệu đào tạo thông qua cơ chế tự phát triển của "tổng hợp dữ liệu - tinh chỉnh mô hình", từ đó cải thiện đáng kể hiệu quả và độ chính xác của việc xác minh hình thức mã Rust trong "Đạt Được Xác Minh Hình Thức Tự Động cho Mã Rust Dựa Trên Khung Tự Phát Triển". Gautier Viaud, Giám đốc R&D tại Illuin Technology, đã chia sẻ cách hệ thống ColPali, được nhóm xây dựng dựa trên kiến trúc ColBERT và mô hình PaliGemma, cải thiện hiệu quả độ chính xác và hiệu quả của việc truy xuất tài liệu bằng cách kết hợp thông tin đồ họa và văn bản trong bài phát biểu "ColPali: Truy Xuất Tài Liệu Hiệu Quả Dựa Trên Mô Hình Ngôn Ngữ Trực Quan". Cuối cùng, Xiao Zhang, Giám đốc điều hành của Dynamia.ai, đã giới thiệu cách quản lý và lập lịch trình tốt hơn các tài nguyên GPU không đồng nhất với sự trợ giúp của HAMi và cải thiện tỷ lệ sử dụng và khả năng quan sát của cơ sở hạ tầng AI trong "Mở Khóa Khả Năng Cụm K8s của Cơ Sở Hạ Tầng AI Không Đồng Nhất: Giải Phóng Sức Mạnh của HAMi".
Tương Tác Đa Dạng và Điểm Nổi Bật Của Ngày Đầu Tiên
Ngoài các bài phát biểu quan trọng mật độ cao, hội nghị còn có một số đơn vị đặc biệt. Đơn vị Cuộc Họp Kín tập trung vào các cuộc đối thoại chiến lược và trao đổi ngành chuyên sâu để thúc đẩy hợp tác xuyên biên giới. Các Phiên Giới Thiệu tập trung vào việc giới thiệu các sản phẩm công nghệ AI mới nhất của các doanh nghiệp và tổ chức nghiên cứu, thu hút một số lượng lớn khách tham quan dừng lại và giao tiếp. Trong các Phiên Cạnh Tranh, các nhà phát triển, kỹ sư và những người đam mê robot AI từ khắp nơi trên thế giới đã tập trung vào bộ dụng cụ cánh tay robot mã nguồn mở SO-ARM100 để thực hiện khám phá thực tế về học tập bắt chước. Bộ dụng cụ tích hợp khung LeRobot của Hugging Face và kết hợp công nghệ AI và robot của NVIDIA để hỗ trợ kiến trúc AI tiên tiến bao gồm ACT và Diffusion Policy, cung cấp cho người tham gia một nền tảng kỹ thuật vững chắc. Những người tham gia đã tiến hành khám phá thực tế trong các tình huống thực tế để đánh giá toàn diện các hiệu ứng và tính khả thi của nó.
Các Phiên Hội Thảo lấy hệ sinh thái OpenHarmony làm chủ đề cốt lõi và khám phá dự án mã nguồn mở được ươm tạo và vận hành bởi Open Atom Open Source Foundation. OpenHarmony cam kết xây dựng một khung hệ điều hành đầu cuối thông minh cho kỷ nguyên kết nối toàn diện, kết nối toàn diện và thông minh toàn diện, tạo ra một nền tảng hệ điều hành phân tán hàng đầu mở, toàn cầu hóa và sáng tạo, phục vụ các thiết bị thông minh đa dạng và giúp phát triển ngành Internet of Everything. Tại địa điểm hội nghị, những người tham gia đã hiểu sâu sắc về những ưu điểm cốt lõi của OpenHarmony trong hợp tác đa thiết bị và thiết kế hệ thống nhẹ thông qua một loạt các hội thảo thực tế, trực tiếp tham gia vào các quy trình chính từ phát triển trình điều khiển đến triển khai ứng dụng. Thực hành thực tế không chỉ giúp các nhà phát triển mở ra con đường kỹ thuật "từ dưới lên trên" mà còn cải thiện toàn diện khả năng gỡ lỗi và phát triển cấp hệ thống.
Chương trình nghị sự Ngày 1 của GOSIM AI Paris 2025 đã kết thúc thành công, nhưng sự phấn khích vẫn tiếp tục. Ngày mai, hội nghị sẽ tiếp tục tiến lên xung quanh bốn diễn đàn chính về mô hình AI, cơ sở hạ tầng AI, ứng dụng AI và trí tuệ thể hiện, và sẽ chào đón Ngày PyTorch rất được mong đợi, với nhiều khách mời hạng nặng và nội dung thực tế hàng đầu sắp ra mắt, vì vậy hãy theo dõi!