همکاری سوپرا استریا و میسترال
سوپرا استریا و میسترال ایآی برای ارائه راهکارهای هوش مصنوعی پیشرفته و مستقل در اروپا با یکدیگر همکاری میکنند.
سوپرا استریا و میسترال ایآی برای ارائه راهکارهای هوش مصنوعی پیشرفته و مستقل در اروپا با یکدیگر همکاری میکنند.
محققان مونشات آِیآی موون و مونلایت را معرفی کردند بهینهسازی مدلهای زبانی بزرگ با تکنیکهای آموزشی کارآمد و مقیاسپذیر برای کاهش هزینهها.
با وجود سرمایهگذاریهای هنگفت در مدلهای زبانی بزرگ، چالش اصلی ادغام موثر این مدلها در برنامههای کاربردی و مفید است. این امر نیازمند غلبه بر محدودیتهای تنظیم دقیق، استفاده از RAG و پرداختن به مسائل مربوط به دادهها و سختافزار است.
بایچوان ام۱ یک سری جدید از مدلهای زبان بزرگ است که با تمرکز ویژه بر توانمندیهای پزشکی و آموزش بر روی ۲۰ تریلیون توکن توسعه یافته است
پروژه استارگیت با بودجه 500 میلیارد دلاری، تحولی عظیم در زیرساخت هوش مصنوعی ایجاد میکند. این پروژه با رهبری OpenAI و همکاری غولهای فناوری، به دنبال توسعه زیرساختی پیشرفته برای نسل بعدی مدلهای هوش مصنوعی است. هدف نهایی، دستیابی به هوش مصنوعی عمومی (AGI) و ایجاد فرصتهای شغلی در ایالات متحده است.
این مقاله 20 نکته کاربردی از اعضای شورای کسب و کار فوربس برای ورود به حوزه هوش مصنوعی و هوش مصنوعی مولد ارائه می دهد. این نکات شامل شروع کوچک، تحقیق، تسلط بر مفاهیم پایه، مشارکت در پروژه ها، توسعه مهارت های فنی و نرم، و درک ملاحظات اخلاقی است. با پیروی از این نکات، متخصصان می توانند در این زمینه پویا موفق شوند.
بازار چتباتهای هوش مصنوعی در چین شاهد تحولات چشمگیری است، بهطوری که Doubao متعلق به ByteDance به نیروی غالب تبدیل شده و از بازیگران مطرحی مانند علیبابا و بایدو پیشی گرفته است. این تغییر نشاندهنده پویایی بازار فناوری چین است، جایی که نوآوری سریع و رویکردهای کاربرمحور کلید موفقیت هستند. این مقاله به بررسی عوامل محرک رشد Doubao، چالشهای پیش روی رقبا و پیامدهای گستردهتر برای آینده هوش مصنوعی در چین میپردازد.
مدل Kimi k1.5 شرکت Moonshot AI با عملکردی مشابه مدل کامل o1 شرکت OpenAI، جهشی بزرگ در هوش مصنوعی محسوب میشود. این مدل در زمینههای مختلفی مانند ریاضیات، کدنویسی و استدلال چندوجهی عملکردی عالی دارد و در برخی موارد حتی از مدل o1 نیز بهتر عمل میکند. انتشار گزارش فنی این مدل، نشاندهنده رویکرد شفاف و مشارکتی Moonshot AI است.
خلاصه بهینه سازی شده برای سئو
این مقاله به بررسی مکانیسم توجه جدید چند ماتریسی فاکتوریزاسیون (MFA) و نوع آن MFA-KR می پردازد که با کاهش قابل توجه مصرف حافظه پنهان KV، هزینه استنتاج مدل های زبانی بزرگ را کاهش می دهد. MFA با حفظ عملکردی مشابه MHA سنتی، به میزان 93.7% در مصرف حافظه صرفه جویی می کند. این مکانیسم همچنین از نظر سادگی، سهولت بازتولید، حساسیت کم به ابرپارامترها و سازگاری با روش های مختلف تعبیه موقعیت برتری دارد. MFA با نوآوری هایی در افزایش تعداد و ابعاد سر توجه، استفاده از تجزیه رتبه پایین و طراحی یک سر کلید-مقدار، به این مهم دست یافته است. نتایج تجربی نشان می دهد که MFA در مقایسه با MQA و MLA، به حافظه پنهان KV کوچکتر و رتبه موثر کل بالاتری دست می یابد و در مقایسه با MHA سنتی، با وجود SLSD کوچکتر، TER بالاتری دارد. این مکانیسم جدید، با یک طراحی ساده، به طور موثر به مشکل گلوگاه حافظه در استنتاج LLM ها پرداخته و بدون ایجاد پیچیدگی های مهندسی اضافی، در اکوسیستم ترانسفورمر ادغام می شود.