در سال گذشته، چشم انداز (AI) شاهد یک تغییر چشمگیر بوده است، که ناشی از روحیه همکاری توسعه منبع باز است. مدل های زبان بزرگ (LLMs) دیگر صرفاً حوزه غول های فناوری نیستند، بلکه اکنون از طریق تلاش های اجتماعی و به اشتراک گذاری باز در حال تحول هستند، که بر همه چیز از زیرساخت گرفته تا بهینه سازی الگوریتم و استقرار تأثیر می گذارد. این جنبش منبع باز، پیشرفت AI را تسریع می کند، دسترسی به آن را بیشتر می کند و فرصت مشارکت در نسل بعدی سیستم های هوشمند را دموکراتیک می کند.
در این میان، کنفرانس GOSIM AI Paris 2025، با همکاری GOSIM، CSDN، و 1ms.ai، در تاریخ 6 مه در پاریس، فرانسه آغاز شد. این رویداد به عنوان یک پلتفرم حیاتی، متخصصان و محققان فناوری جهانی را به هم متصل می کند تا آخرین پیشرفت ها و مسیرهای آینده در AI منبع باز را بررسی کنند.
این کنفرانس دارای مجموعه ای چشمگیر از بیش از 80 متخصص و محقق فناوری از سازمان های پیشرو مانند Alibaba، Hugging Face، BAAI، MiniMax، Neo4j، Dify، MetaGPT، Zhipu AI، Eigent.AI، Docker، Inflow، Peking University، Fraunhofer، Oxford University، و جامعه فرانسوی openLLM است. شرکای اصلی، از جمله Huawei، انجمن نوآوری و کارآفرینی جوانان سراسر چین در فرانسه، انجمن هوش مصنوعی چین و فرانسه، بنیاد نرم افزار آپاچی، بنیاد اکلیپس، گروه Khronos، WasmEdgeRuntime، LF Generative AI Commons، تحقیقات بنیاد لینوکس، بنیاد OpenWallet، ابتکار منبع باز (OSI)، میراث نرم افزاری، و K8SUG، نیز به طور فعال شرکت می کنند. این کنفرانس دارای بیش از 60 جلسه فنی است که حول محور موضوعات اصلی مانند مدل های AI، زیرساخت، استقرار برنامه و هوش تجسم یافته متمرکز است و یک دیدگاه جامع از تکامل اکوسیستم منبع باز و روندهای نوظهور ارائه می دهد.
رابطه همزیستی بین AI و منبع باز
مایکل یوان، یکی از بنیانگذاران GOSIM، کنفرانس را با سخنرانی اصلی با عنوان "منبع باز رسید، مرحله بعد چیست؟" آغاز کرد. او بینش های خود را در مورد وضعیت فعلی و مسیر آینده AI منبع باز به اشتراک گذاشت و تأکید کرد که این به یک لحظه محوری رسیده است.
یوان اظهار داشت: "ما زمانی پیش بینی کردیم که 5-10 سال طول می کشد تا منبع باز به مدل های منبع بسته برسد، اما به نظر می رسد که این هدف زودتر از موعد محقق شده است." او به انتشار اخیر Qwen 3 به عنوان مثال اشاره کرد و خاطرنشان کرد که مدل های منبع باز دیگر فقط با یکدیگر رقابت نمی کنند، بلکه اکنون مستقیماً مدل های پرچمدار اختصاصی را به چالش می کشند، حتی در برخی از معیارها از آنها پیشی می گیرند. یوان همچنین پیشنهاد کرد که این پیشرفت صرفاً به دلیل پیشرفت های منبع باز نیست، بلکه نتیجه عدم موفقیت توسعه منبع بسته در برآوردن انتظارات و مواجهه با تنگناهای عملکرد است. در مقابل، مدل های منبع باز به سرعت در حال تکامل هستند، یک منحنی رشد عملکرد شیب دار را نشان می دهند و یک پدیده "رسیدن" واقعی را نشان می دهند.
این مشاهده یک سوال اساسی را مطرح می کند: چقدر با دستیابی به هوش مصنوعی عمومی (AGI) فاصله داریم؟ یوان معتقد است که آینده AGI ممکن است در یک مدل واحد و فراگیر نباشد، بلکه در شبکه ای از مدل های تخصصی، پایگاه های دانش و ابزارهای مستقر بر روی سخت افزار خصوصی یا دستگاه های روباتیک باشد.
او بیشتر توضیح داد که معماری AI از یک الگوی متمرکز به یک الگوی غیرمتمرکز در حال تغییر است. او انتقال OpenAI از Completion API به Responses API جدید را برجسته کرد، که هدف آن ایجاد یک پلتفرم عامل هوشمند در مقیاس بزرگ است. نزدیک به 600000 کاربر و توسعه دهنده در حال حاضر به این تحول پیوسته اند و به توسعه برنامه های کاربردی AI توزیع شده کمک می کنند.
یوان تأکید کرد: "آینده AGI نباید منحصراً توسط یک شرکت واحد و با بودجه مناسب توسعه یابد." "در عوض، باید از طریق همکاری جهانی ساخته شود، و یک شبکه اکوسیستم شامل مدل ها، پایگاه های دانش، روبات ها و سیستم های اجرایی ایجاد کند."
پس از سخنرانی یوان، دانیل گلدشیدر، مدیر اجرایی بنیاد OpenWallet، سخنرانی ای در مورد "کیف پول ها و اعتبارات GDC" ارائه کرد، که بر روی پروژه Global Digital Compact (GDC) متمرکز بود، که توسط مجمع عمومی سازمان ملل متحد به تصویب رسید. او توضیح داد که GDC دو هدف اصلی دارد:
- تشخیص این که فناوری های دیجیتال عمیقاً زندگی ما و توسعه اجتماعی را متحول کرده اند و هم فرصت های بی سابقه و هم خطرات پیش بینی نشده را به ارمغان آورده اند.
- تأکید بر این که تحقق کامل پتانسیل فناوری های دیجیتال به نفع همه بشریت مستلزم همکاری جهانی، از بین بردن موانع بین کشورها، صنایع و حتی بخش های دولتی و خصوصی است.
بر اساس این درک مشترک، GDC ابتکار عمل "همکاری دیجیتال جهانی" را به وجود آورده است، که هدف آن تقویت همکاری واقعی بین دولت ها، مشاغل، سازمان های غیرانتفاعی و سایر ذینفعان است.
گلدشیدر هنگام بحث در مورد جنبه های عملیاتی، تأکید کرد که این همکاری توسط هیچ سازمان واحدی دیکته نمی شود، بلکه یک رویکرد "گردهمایی مشترک" را اتخاذ می کند، و از تمام سازمان های بین المللی علاقه مند، نهادهای تعیین کننده استاندارد، جوامع منبع باز و سازمان های بین دولتی برای شرکت دعوت می کند. او توضیح داد که این یک پروژه "چه کسی چه کسی را رهبری می کند" نیست، بلکه یک پلتفرم همکاری برابر است که در آن هر طرف صدا دارد و هیچ کس مهم تر از دیگری نیست.
او بیشتر توضیح داد که همکاری دیجیتال جهانی هدفش توسعه مستقیم استانداردها یا فناوری ها نیست، بلکه تسهیل گفتگو بین سازمان هایی با پیشینه های مختلف است، و به آنها اجازه می دهد دیدگاه ها و نیازهای خود را برای رسیدن به اجماع ارائه دهند. متعاقباً، استانداردهای خاص و کار فنی توسط نهادهای تخصصی مربوطه پیشرفت داده می شود. او "هویت دیجیتال" و "فناوری بیومتریک" را به عنوان مثال ذکر کرد، و خاطرنشان کرد که بسیاری از سازمان ها در حال حاضر در این زمینه ها کار می کنند، و بر نیاز به یک پلتفرم بی طرف برای گرد هم آوردن همه، جلوگیری از تکرار، درگیری ها و اتلاف منابع تأکید کرد.
چهار انجمن اختصاصی: یک تحلیل جامع از AI منبع باز
این کنفرانس دارای چهار انجمن تخصصی بود: مدل های AI، زیرساخت AI، برنامه های کاربردی AI و هوش تجسم یافته. این انجمن ها موضوعات مهمی را از معماری زیربنایی تا استقرار برنامه، و از قابلیت های مدل تا شیوه های عامل هوشمند پوشش دادند. هر انجمن میزبان کارشناسان برجسته ای از شرکت ها و موسسات تحقیقاتی جهانی بود و هم تحلیل های عمیق از آخرین روندهای فناوری و هم نمایش موارد غنی از شیوه های مهندسی ارائه می داد، که ادغام و تکامل جامع AI منبع باز را در چندین زمینه نشان می داد.
ساختارشکنی منطق زیربنایی مدل های بزرگ AI
انجمن مدل های AI کارشناسان جوامع منبع باز و موسسات تحقیقاتی را گرد هم آورد تا بینش هایی را در مورد نوآوری های معماری، همکاری منبع باز و تکامل اکوسیستم در قلمرو مدل های بزرگ به اشتراک بگذارند.
Guilherme Penedo، مهندس تحقیقات یادگیری ماشینی در Hugging Face، "Open-R1: یک بازتولید کاملاً منبع باز از DeepSeek-R1" را ارائه کرد، و تلاش های پروژه Open-R1 در تکرار مدل DeepSeek-R1 را به نمایش گذاشت، با تمرکز بر ترویج باز بودن و استانداردسازی داده های مربوط به وظایف استنتاج. Guang Liu، رهبر فناوری تیم تحقیقات داده در موسسه تحقیقات Zhiyuan، "OpenSeek: نوآوری مشارکتی به سوی نسل بعدی مدل های بزرگ" را به اشتراک گذاشت، و بر اهمیت همکاری جهانی در پیشبرد پیشرفت ها در عملکرد مدل در سطوح الگوریتم، داده و سیستم تأکید کرد، با هدف توسعه نسل بعدی مدل های بزرگ که از DeepSeek فراتر می روند.
Jason Li، معاون ارشد CSDN، "رمزگشایی DeepSeek: نوآوری فناوری و تأثیر آن بر اکوسیستم AI" را ارائه کرد، و یک تحلیل عمیق از نوآوری های DeepSeek در الگوهای فنی، معماری مدل و اکولوژی صنعتی، و همچنین تأثیر بالقوه آن بر اکوسیستم جهانی AI ارائه کرد. Yiran Zhong، مدیر ارشد تحقیقات در MiniMax، "آینده خطی: تکامل معماری مدل زبان بزرگ" را ارائه کرد، و مکانیسم Lightning Attention پیشنهادی تیم را معرفی کرد، که یک جایگزین بالقوه برای معماری Transformer از نظر کارایی و عملکرد ارائه می دهد. Shiwei Liu، عضو بین المللی انجمن سلطنتی نیوتن در دانشگاه آکسفورد، در مورد "نفرین عمق در مدل های زبان بزرگ" بحث کرد، و مشارکت های کاهشی شبکه های عصبی عمیق را با عمیق تر شدن مدل ها بررسی کرد، و پیشنهاد کرد از مقیاس بندی LayerNorm برای بهبود مکانیسم Pre-LN برای افزایش استفاده از لایه عمیق و کارایی کلی استفاده شود. Diego Rojas، مهندس تحقیقات در Zhipu AI، در "مدل های زبان بزرگ کد: کاوش فراتر از توکن ها" اشاره کرد که مدل های بزرگ فعلی، در حالی که قدرتمند هستند، هنوز به توکن سازی متکی هستند، که ناکارآمد است، و روش های جدیدی را برای رد کردن توکن سازی برای سریع تر و قوی تر کردن مدل ها به اشتراک گذاشت. Nicolas Flores-Herr، رئیس تیم مدل های پایه در Fraunhofer IAIS، انجمن را با "چگونه مدل های زبان بزرگ ‘ساخت اروپا’ رقابتی در سطح جهانی بسازیم؟" به پایان رساند و تأکید کرد که اروپا از طریق پروژه های مدل بزرگ چند زبانه، منبع باز و قابل اعتماد محلی سازی شده، بر چالش های داده، تنوع و نظارتی غلبه می کند، تا نسل بعدی AI را بسازد که منعکس کننده ارزش های اروپایی باشد.
سه گانه زیرساخت AI: داده، قدرت محاسباتی و تکامل الگوریتمی
انجمن زیرساخت AI با تمرکز بر ساختن یک پایه بازتر، کارآمدتر و فراگیرتر برای مدل های بزرگ، کارشناسان برجسته ای از موسسات تحقیقاتی و شرکت ها را گرد هم آورد تا در مورد مسائل کلیدی مانند داده، قدرت محاسباتی و معماری سیستم به بحث و گفتگو بپردازند.
Yonghua Lin، معاون رئیس موسسه تحقیقات Zhiyuan (BAAI)، بدنه اینترنتی چینی CCI 4.0 را در "AI منبع باز برای خیر: برنامه های کاربردی فراگیر، داده های منصفانه و قدرت محاسباتی جهانی" راه اندازی کرد، که سه مجموعه داده بزرگ را پوشش می دهد: CCI4.0-M2-Base V1، CCI4.0-M2-CoT V1 و CCI4.0-M2-Extra V1. CCI4.0-M2-Base V1 دارای حجم داده 35000GB است، به دو زبان چینی و انگلیسی است، با 5000GB داده چینی، 5 برابر افزایش در مقیاس داده در مقایسه با CCI3.0. CCI4.0-M2-CoT V1 حاوی 450 میلیون داده مسیر فکری انسانی سنتز شده معکوس برای بهبود توانایی استدلال است، با تعداد کل توکن 425B (425 میلیارد)، تقریباً 20 برابر اندازه Cosmopedia (منبع باز شده توسط Hugging Face)، بزرگترین مجموعه داده مصنوعی منبع باز که در حال حاضر در سطح جهانی در دسترس است.
Xiyuan Wang، مهندس ارشد نرم افزار در Huawei، سپس نحوه اتصال معماری CANN به چارچوب های AI و سخت افزار Ascend را در "بهترین شیوه ها برای آموزش و استنتاج مبتنی بر Ascend CANN" معرفی کرد، و از طریق پشتیبانی از اکوسیستم هایی مانند PyTorch و vLLM به آموزش استنتاج بهینه دست می یابد. Guillaume Blaquiere، معمار داده در Carrefour، نحوه استقرار نمونه های مدل بزرگ بدون سرور را که از GPU ها از طریق Google Cloud Run پشتیبانی می کنند، برای کاهش هزینه ها و بهبود راندمان استفاده از منابع در "ساختن LLM خود به صورت بدون سرور" نشان داد. Yinping Ma، مهندس در دانشگاه پکینگ، سخنرانی اصلی را با موضوع "نرم افزار پایه مدیریت و زمانبندی یکپارچه محاسبات هوشمند منبع باز - SCOW و CraneSched" ارائه داد و دو نرم افزار پایه منبع باز اصلی را که توسط دانشگاه پکینگ توسعه یافته اند، SCOW و CraneSched معرفی کرد، که در ده ها دانشگاه و شرکت در سراسر کشور مستقر شده اند و از مدیریت یکپارچه و زمانبندی با کارایی بالا از منابع محاسبات هوشمند پشتیبانی می کنند. Yaowei Zheng، دانشجوی دکترای دانشگاه Beihang، مفهوم طراحی معماری کنترلر هیبریدی را در سیستم Verl در سخنرانی "verl: یک سیستم RLHF مبتنی بر کنترلر هیبریدی" به اشتراک گذاشت و مزایای کارایی آن را در آموزش یادگیری تقویتی در مقیاس بزرگ مورد بحث قرار داد. Greg Schoeninger، مدیر عامل Oxen.ai، "مجموعه داده های آموزشی و زیرساخت برای یادگیری تقویتی به سبک DeepSeek-R1 (GRPO)" را ارائه کرد و مسیر عملی برای فرآیندهای آموزش یادگیری تقویتی برای استدلال LLM ها، از جمله ساخت مجموعه داده، ساخت زیرساخت و مدل های تولید کد آموزش محلی را شرح داد.
از "آیا می توان از آن استفاده کرد" به "آیا به خوبی از آن استفاده می شود": برنامه های کاربردی AI وارد مرحله عملی می شوند
در انجمن برنامه های کاربردی AI، متخصصان تحقیق و توسعه و تصمیم گیرندگان فناوری از شرکت های پیشرو طیف متنوعی از بینش ها را به اشتراک گذاشتند و مسیرهای استقرار در دنیای واقعی و امکانات آینده برنامه های کاربردی AI را که توسط مدل های بزرگ هدایت می شوند، به نمایش گذاشتند.
Yongbin Li، محقق ارشد در آزمایشگاه Alibaba Tongyi، آخرین پیشرفت های Tongyi Lingma در تکامل فنی و کاربرد محصول را در "Tongyi Lingma: از کمک خلبان کدنویسی تا عامل کدنویسی" به اشتراک گذاشت. Dongjie Chen، مهندس نرم افزار در Huawei، سخنرانی اصلی را با موضوع "Cangjie Magic: یک انتخاب جدید برای توسعه دهندگان در عصر مدل های بزرگ" ارائه داد و چارچوب توسعه عامل مدل بزرگ AI را بر اساس زبان برنامه نویسی Cangjie معرفی کرد، که می تواند به طور قابل توجهی کارایی توسعه دهندگان را در ساخت برنامه های هوشمند HarmonyOS بهبود بخشد و تجربه توسعه عالی را به ارمغان آورد. Xinrui Liu، مدیر اکوسیستم توسعه دهنده LangGenius، بر روی "همکاری، قدرت فنی فعال شده توسط Dify" تمرکز کرد و بر اکوسیستم منبع باز Dify و نقش آن در تسریع در رواج برنامه های کاربردی AI تأکید کرد.
در مورد ترکیب AI و مهندسی سیستم، Rik Arends، یکی از بنیانگذاران Makepad، یک ارائه منحصر به فرد ارائه داد: "استفاده از کدنویسی محیطی، از AI برای ایجاد رابط کاربری Rust برای دستگاه های تلفن همراه، صفحات وب و واقعیت ترکیبی استفاده کنید"، و نحوه استفاده از کدنویسی محیطی برای ساخت یک الگوی جدید برای رابط کاربری را بررسی کرد. Christian Tzolov، مهندس نرم افزار تحقیق و توسعه از تیم Broadcom Spring، بر نشان دادن چگونگی ادغام کارآمد مدل های AI با سیستم ها و منابع موجود از طریق MCP Java SDK و Spring AI MCP در "یک الگوی متحد برای ادغام AI از طریق MCP" تمرکز کرد. Wenjing Chu، مدیر ارشد استراتژی فناوری در Futurewei، چشم انداز را در "حرف ‘T’ در MCP و A2A به معنای اعتماد است" بیشتر ارتقا داد و عمیقاً تجزیه و تحلیل کرد که چگونه سیستم های AI واقعاً قابل اعتماد را در برنامه های کاربردی مبتنی بر عامل بسازیم. علاوه بر این، Hong-Thai Nguyen، مدیر مهندسی نرم افزار در Cegid، نحوه تغییر شکل فرآیندهای تجاری چند عاملی و دستیابی به تصمیم گیری و عملکرد سازمانی هوشمندتر را در ترکیب با سناریوهای عملی در سخنرانی "Cegid Pulse: پلتفرم مدیریت کسب و کار چند عاملی" معرفی کرد.
وقتی مدل های بزرگ مجهز به "بدن" هستند: هوش تجسم یافته فرا می رسد
هوش تجسم یافته در حال تبدیل شدن به یکی از چالش برانگیزترین و امیدوار کننده ترین مسیرهای توسعه در زمینه AI است. در این انجمن، بسیاری از کارشناسان فنی برتر صنعت در بحث های عمیق پیرامون موضوع "هوش تجسم یافته" شرکت کردند و اکتشافات عملی خود را در طراحی معماری، کاربرد مدل و استقرار سناریو به اشتراک گذاشتند.
Angelo Corsaro، مدیر عامل و مدیر ارشد فناوری ZettaScale، نحوه شکستن موانع بین ادراک، اجرا و شناخت را در عصر ربات هوشمند در "ذهن، بدن و Zenoh" معرفی کرد. Philipp Oppermann، مدیر پروژه پروژه Dora، "استفاده از Zenoh در Dora برای پیاده سازی جریان داده توزیع شده" را به ارمغان آورد و کاربرد مهم پروتکل Zenoh در Dora را برای پیاده سازی جریان داده توزیع شده توضیح داد. James Yang، استاد دانشگاه علم و فناوری چین، سخنرانی ای در مورد "تولید سناریوهای خصمانه ایمنی-بحرانی در رانندگی خودران" ارائه داد و نحوه بهبود ایمنی فناوری رانندگی خودران را با تولید سناریوهای خصمانه برای اطمینان از ثبات و قابلیت اطمینان در محیط های پیچیده معرفی کرد.
علاوه بر این، Minglan Lin، محقق هوش تجسم یافته در موسسه تحقیقات Zhiyuan، همچنین بر موضوع "RoboBrain: یک مدل مغزی متحد برای عملیات ربات و RoboOS: یک چارچوب همکاری سلسله مراتبی برای RoboBrain و عوامل هوشمند ربات" تمرکز کرد و نشان داد که چگونه RoboBrain می تواند سطح هوش ربات ها را بهبود بخشد و نقش مهم RoboOS در همکاری ربات. Ville Kuosmanen، بنیانگذار Voyage Robotics، سخنرانی فوق العاده ای در مورد "ساخت برنامه های کاربردی ربات با مدل های VLA منبع باز" ارائه داد و توضیح داد که چگونه از مدل های VLA منبع باز برای ارائه پشتیبانی قوی برای برنامه های کاربردی ربات استفاده می شود. در نهایت، Huy Hoang Ha، یک محقق مدل زبان بزرگ در Menlo Research، در سخنرانیاصلی "LLM استدلال فضایی: افزایش درک 2D و 3D برای پشتیبانی از عملیات و ناوبری ربات" در مورد اینکه چگونه استدلال فضایی می تواند به ربات ها کمک کند تا محیط های پیچیده 2D و 3D را بهتر درک کنند، و در نتیجه عملیات و قابلیت های ناوبری آنها را بهبود بخشند، بحث کرد.
گفتگوهای ویژه: روشن کردن فناوری های پیشرفته و برنامه های کاربردی نوآورانه
گفتگوهای ویژه روز 1 شامل ارائه های جذاب از کارشناسان صنعت در مورد فناوری های پیشرفته و برنامه های کاربردی نوآورانه بود. این بخش به عنوان یک پلتفرم برای متخصصان فناوری از حوزه های مختلف برای بحث در مورد آخرین پیشرفت ها و برنامه های کاربردی عملی AI عمل کرد. Cyril Moineau، مهندس تحقیقات در کمیسیون انرژی اتمی فرانسه (CEA)، نحوه پشتیبانی پروژه Eclipse Aidge از استقرار و بهینه سازی شبکه های عصبی عمیق بر روی پلتفرم های تعبیه شده را با ارائه یک زنجیره ابزار کامل در سخنرانی "Aidge" معرفی کرد، و در نتیجه توسعه سیستم های هوشمند لبه را تسریع کرد.
Paweł Kiszczak، دانشمند داده در Bielik.ai، آخرین پیشرفت های پروژه AI بومی لهستانی Bielik را برای اولین بار در این کنفرانس به طور عمومی به اشتراک گذاشت و سخنرانی ای با عنوان "ظهور Bielik.AI" ارائه داد و چگونگی ترویج ساخت یک سیستم AI خودمختار محلی را از طریق مدل های زبان منبع باز و یک اکوسیستم ابزار کامل بیان کرد. پروژه Bielik نه تنها چندین مدل زبان منبع باز (مقیاس پارامترهایی که 1.5B، 4.5B و 11B را پوشش می دهند) منتشر کرده است، بلکه یک زنجیره ابزار سرتاسری نیز ایجاد کرده است که مجموعه داده ها، ارزیابی، آموزش و تنظیم دقیق را پوشش می دهد و از تیم های تحقیقاتی و توسعه دهندگان برای تنظیم دقیق یا آموزش از پیش تعیین شده بر اساس مدل های اساسی پشتیبانی می کند، که تا حد زیادی آستانه تحقیق و توسعه را برای مدل های بزرگ کاهش می دهد و قابلیت های نوآوری فناوری محلی را تحریک می کند.
Hung-Ying Tai، سرپرست فنی از Second State، "اجرای مدل های GenAI بر روی دستگاه های لبه با LlamaEdge" را به اشتراک گذاشت، و قابلیت های سبک وزن و با کارایی بالای LlamaEdge را در استقرار مدل های AI مولد بر روی دستگاه های لبه نشان داد و تجربه استدلال محلی انعطاف پذیرتر و کارآمدتری را به ارمغان آورد. Tianyu Chen، دانشجوی دکترای دانشگاه پکینگ، نحوه کاهش مشکل داده های آموزشی کمیاب توسط چارچوب SAFE از طریق مکانیسم خود-تکاملی "سنتز داده-تنظیم دقیق مدل" را معرفی کرد، و در نتیجه کارایی و دقت تأیید رسمی کد Rust را در "دستیابی به تأیید رسمی خودکار برای کد Rust بر اساس چارچوب خود-تکاملی" به طور قابل توجهی بهبود بخشید. Gautier Viaud، مدیر تحقیق و توسعه در Illuin Technology، نحوه بهبود کارآمد دقت و کارایی بازیابی سند با ترکیب اطلاعات گرافیکی و متنی در سخنرانی "ColPali: بازیابی سند کارآمد بر اساس مدل زبان بصری" را به اشتراک گذاشت. در نهایت، Xiao Zhang، مدیر عامل Dynamia.ai، نحوه مدیریت و زمانبندی بهتر منابع GPU ناهمگن را با کمک HAMi و بهبود نرخ استفاده و قابلیت مشاهده زیرساخت AI در "باز کردن قابلیت های خوشه K8s زیرساخت AI ناهمگن: آزاد کردن قدرت HAMi" معرفی کرد.
تعاملات متنوع و نکات برجسته روز اول
علاوه بر سخنرانی های اصلی با تراکم بالا، این کنفرانس دارای چندین واحد ویژه نیز بود. واحد نشست دربسته بر گفت وگوهای استراتژیک و تبادلات عمیق صنعت برای ترویج همکاری فرامرزی متمرکز بود. جلسات نمایشگاهی بر ارائه آخرین محصولات فناوری AI شرکت ها و موسسات تحقیقاتی متمرکز بود و تعداد زیادی از بازدیدکنندگان را برای توقف و ارتباط جذب کرد. در جلسات رقابتی، توسعه دهندگان، مهندسان و علاقه مندان به رباتیک AI و رباتیک از سراسر جهان بر روی کیت بازوی رباتیک منبع باز SO-ARM100 برای انجام اکتشاف عملی یادگیری تقلیدی متمرکز شدند. این کیت چارچوب LeRobot Hugging Face را ادغام می کند و فناوری های AI و رباتیک NVIDIA را برای پشتیبانی از معماری های AI پیشرفته از جمله ACT و Diffusion Policy ترکیب می کند و یک پایه فنی محکم را در اختیار شرکت کنندگان قرار می دهد. شرکت کنندگان برای ارزیابی جامع اثرات و امکان سنجی آن، اکتشافات عملی را در سناریوهای واقعی انجام دادند.
جلسات کارگاهی اکوسیستم OpenHarmony را به عنوان موضوع اصلی در نظر گرفت و پروژه منبع باز را که توسط بنیاد منبع باز Open Atom ایجاد و اداره می شود، بررسی کرد. OpenHarmony متعهد به ساخت یک چارچوب سیستم عامل ترمینال هوشمند برای عصر همه سناریو، همه اتصال و همه هوش است، و یک پلتفرم سیستم عامل توزیع شده باز، جهانی شده و نوآورانه پیشرو ایجاد می کند، به دستگاه های هوشمند متنوع خدمت می کند و به توسعه صنعت اینترنت اشیا کمک می کند. در محل کنفرانس، شرکت کنندگان از طریق یک سری کارگاه های عملی، مزایای اصلی OpenHarmony را در همکاری چند دستگاهی و طراحی سیستم سبک وزن عمیقاً درک کردند و شخصاً در فرآیندهای کلیدی از توسعه درایور تا استقرار برنامه شرکت کردند. تمرین عملی نه تنها به توسعه دهندگان کمک می کند تا مسیر فنی "پایین به بالا" را باز کنند، بلکه قابلیت های توسعه و اشکال زدایی سطح سیستم را نیز به طور جامع بهبود می بخشد.
دستور کار روز 1 GOSIM AI Paris 2025 با موفقیت به پایان رسید، اما هیجان همچنان ادامه دارد. فردا، کنفرانس به پیشرفت خود در اطراف چهار انجمن اصلی مدل های AI، زیرساخت AI، برنامه های کاربردی AI و هوش تجسم یافته ادامه خواهد داد و از روز PyTorch بسیار مورد انتظار استقبال خواهد کرد، با مهمانان سنگین وزن بیشتر و محتوای عملی دست اول به زودی می آید، پس با ما همراه باشید!