ناامیدیهای LlamaCon و تغییر انتظارات
در LlamaCon، کنفرانس افتتاحیه متا که به مدلهای زبانی بزرگ متنباز آن اختصاص داشت، حسی از انتظارات برآورده نشده بر فضا حاکم بود. چندین توسعهدهنده حاضر در این کنفرانس اعتراف کردند که انتظار رونمایی از یک مدل استدلال پیچیده یا حداقل یک مدل سنتی را داشتند که قادر به عملکرد بهتر از رقبایی مانند V3 دیپسیک و Qwen باشد، مدلهایی که توسط بخش رایانش ابری علیبابا توسعه یافتهاند.
عدم وجود چنین اطلاعیههایی این نگرانی را دامن زد که Llama در مسابقه بر سر برتری هوش مصنوعی در حال عقبنشینی است. درست یک ماه قبل از کنفرانس، متا نسل چهارم خانواده Llama خود را عرضه کرده بود، از جمله مدلهای open-weight Llama 4 Scout و Llama 4 Maverick. Scout برای عملکرد کارآمد بر روی یک GPU واحد طراحی شده بود، در حالی که Maverick به عنوان یک مدل بزرگتر برای رقابت با سایر مدلهای پایه طراحی شده بود.
علاوه بر Scout و Maverick، متا نگاهی اجمالی به Llama 4 Behemoth نیز ارائه داد، یک “مدل معلم” بسیار بزرگتر که هنوز در حال آموزش است. هدف Behemoth تسهیل distillation است، تکنیکی برای ایجاد مدلهای کوچکتر و تخصصیتر از یک مدل بزرگتر و عمومیتر.
با این حال، گزارشها حاکی از تاخیر در انتشار Behemoth و چالشهایی در دستیابی به عملکرد رقابتی با مجموعه Llama 4 بود. علیرغم ادعاهای متا مبنی بر قابلیتهای پیشرفته، درک برخی از توسعهدهندگان این بود که Llama دیگر در صدر جدول قرار ندارد.
ظهور رقبا: Qwen و دیپسیک
ناامیدی پیرامون LlamaCon و مدلهای Llama 4 منعکس کننده این احساس گستردهتر است که مدلهای زبانی بزرگ متنباز متا هم از نظر عملکرد فنی و هم از نظر اشتیاق توسعهدهندگان در حال از دست دادن شتاب هستند. در حالی که متا بر تعهد خود به اصول متنباز، ایجاد اکوسیستم و نوآوری تاکید میکند، رقبایی مانند دیپسیک، Qwen و OpenAI به سرعت در زمینههای حیاتی مانند استدلال، استفاده از ابزار و استقرار در دنیای واقعی پیشرفت میکنند.
یکی از توسعهدهندگان، Vineeth Sai Varikuntla، ناامیدی خود را ابراز کرد و اظهار داشت که امیدوار بود Llama در موارد استفاده عمومی و استدلال از Qwen و دیپسیک فراتر رود، اما متوجه شد که Qwen به طور قابل توجهی جلوتر است.
این احساس چالشهایی را که متا در حفظ موقعیت Llama به عنوان یک مدل زبانی بزرگ متنباز پیشرو با آن روبروست، برجسته میکند. در حالی که نسخههای اولیه Llama توجه و تحسین قابل توجهی را به خود جلب کرد، ظهور جایگزینهای توانمندتر، چشمانداز رقابتی را تشدید کرده است.
یک شروع امیدوارکننده: تأثیر Llama 2
برای قدردانی کامل از روایت فعلی پیرامون Llama، ضروری است که منشاء آن و هیجان اولیهای که ایجاد کرد را به خاطر بیاوریم. در سال 2023، مدیرعامل Nvidia، جنسن هوانگ، عرضه Llama 2 را “احتمالاً بزرگترین رویداد هوش مصنوعی” آن سال ستود. تا جولای 2024، انتشار Llama 3 به عنوان یک پیشرفت محسوب شد و نشان دهنده اولین LLM متنباز است که قادر به به چالش کشیدن تسلط OpenAI است.
به گفته دیلن پاتل، تحلیلگر ارشد SemiAnalysis، ورود Llama 3 باعث افزایش فوری تقاضا برای قدرت محاسباتی و در نتیجه افزایش قیمت اجاره GPU شد. جستجوهای گوگل برای “Meta” و “Llama” نیز در این دوره به اوج خود رسید و نشان دهنده علاقه گسترده به مدل جدید است.
Llama 3 به عنوان یک LLM آمریکایی، متنباز و درجه یک جشن گرفته شد. در حالی که به طور مداوم در صدر معیارها قرار نگرفت، تأثیر و ارتباط قابل توجهی در جامعه هوش مصنوعی داشت. با این حال، این پویایی به تدریج تغییر کرده است.
تغییرات معماری و انتقادات
مدلهای Llama 4 معماری “mixture of experts” را معرفی کردند، طراحی که توسط دیپسیک محبوب شد. این معماری مدل را قادر میسازد تا فقط مرتبطترین تخصص را برای یک کار خاص فعال کند و در نتیجه کارایی را بهبود بخشد.
با این حال، عرضه Llama 4 با انتقاداتی مواجه شد، زمانی که توسعهدهندگان دریافتند نسخهای که برای بنچمارک عمومی استفاده میشود با نسخهای که برای دانلود و استقرار در دسترس است متفاوت است. این اختلاف منجر به اتهاماتی مبنی بر “بازی با لیدربورد” شد که متا آن را رد کرد و اظهار داشت که نوع مورد نظر آزمایشی بوده و ارزیابی چندین نسخه از یک مدل یک رویه استاندارد است.
علیرغم توضیحات متا، این جنجال به این تصور کمک کرد که Llama برای حفظ مزیت رقابتی خود در تلاش است. با ادامه پیشرفت مدلهای رقیب، به نظر میرسید که متا فاقد جهت گیری روشنی است.
اندازهگیری پذیرش توسعهدهندگان: یک کار پیچیده
تعیین اینکه کدام خانواده LLM در بین توسعهدهندگان محبوبتر است یک کار چالش برانگیز است. با این حال، دادههای موجود نشان میدهد که جدیدترین مدلهای Llama در بین رهبران نیستند.
Qwen، به طور خاص، به طور مداوم در رتبهبندیهای مختلف در سراسر اینترنت رتبه بالایی دارد. بر اساس گزارش Artificial Analysis، سایتی که مدلها را بر اساس عملکرد رتبهبندی میکند، Llama 4 Maverick و Scout درست بالاتر از مدل GPT-4 OpenAI (منتشر شده در پایان سال قبل) و پایینتر از Grok xAI و Claude Anthropic از نظر هوش قرار دارند.
OpenRouter، پلتفرمی که به توسعهدهندگان امکان دسترسی به مدلهای مختلف را میدهد و لیدربوردها را بر اساس استفاده از API منتشر میکند، Llama 3.3 را در بین 20 مدل برتر تا اوایل ماه می نشان میدهد، اما Llama 4 را نشان نمیدهد.
این نقاط داده، اگرچه قطعی نیستند، اما نشان میدهند که تکرارهای اخیر Llama به اندازه مدلهای قبلی خود با توسعهدهندگان طنینانداز نشده است.
فراتر از معیارها: استفاده از ابزار و استدلال
در حالی که ارزیابیهای استاندارد Llama 4 ممکن است کماثر بوده باشد، کارشناسان استدلال میکنند که اشتیاق خاموش ناشی از عواملی فراتر از معیارهای عملکرد خام است.
AJ Kourabi، تحلیلگر SemiAnalysis، بر اهمیت “tool calling” و توانایی مدل برای گسترش فراتر از عملکرد ساده چتبات تاکید میکند. Tool calling به ظرفیت یک مدل برای دسترسی و دستور دادن به سایر برنامهها در اینترنت یا در دستگاه کاربر اشاره دارد، یک ویژگی حیاتی برای عامل هوش مصنوعی، که قول میدهد کارهایی مانند رزرو سفر و مدیریت هزینهها را خودکار کند.
متا اعلام کرده است که مدلهای Llama از طریق API خود از tool calling پشتیبانی میکنند. با این حال، تئو براون، توسعهدهنده و یوتیوبر، استدلال میکند که با افزایش اهمیت ابزارهای عامل، tool calling به یک ضرورت برای ارتباط پیشرفته تبدیل شده است.
Anthropic به عنوان یک رهبر اولیه در استفاده از ابزار ظاهر شده است و مدلهای اختصاصی مانند OpenAI به سرعت در حال رسیدن به آن هستند. توانایی فراخوانی قابل اعتماد ابزار مناسب برای تولید پاسخ مناسب بسیار ارزشمند است و OpenAI تمرکز خود را به اولویتبندی این قابلیت معطوف کرده است.
کورابی استدلال میکند که عدم وجود یک مدل استدلال قوی یک شاخص مهم است که نشان میدهد متا عقب مانده است. استدلال به عنوان یک عنصر اساسی در معادله عامل هوش مصنوعی در نظر گرفته میشود و مدلها را قادر میسازد تا وظایف را تجزیه و تحلیل کرده و مسیر مناسب اقدام را تعیین کنند.
جایگاه Llama: کاربردهای عملی و پذیرش سازمانی
علیرغم نگرانیها در مورد موقعیت آن در خط مقدم تحقیقات هوش مصنوعی، Llama همچنان یک ابزار ارزشمند برای بسیاری از توسعهدهندگان و سازمانها است.
نیت جونز، رئیس محصول RockerBox، به توسعهدهندگان توصیه میکند که Llama را در رزومههای خود بگنجانند، زیرا آشنایی با این مدل احتمالاً در آینده مورد توجه قرار خواهد گرفت.
پل بایر، مدیرعامل و تحلیلگر اصلی GAI Insights، معتقد است که Llama به ویژه برای شرکتهای خارج از صنعت فناوری، همچنان یک جزء اصلی از استراتژیهای هوش مصنوعی برای بسیاری از شرکتها خواهد بود.
شرکتها اهمیت مدلهای متنباز، با Llama به عنوان یک نمونه برجسته، برای رسیدگی به وظایف کمپیچیدهتر و کنترل هزینهها را تشخیص میدهند. بسیاری از سازمانها ترکیبی از مدلهای بسته و باز را برای برآوردن نیازهای متنوع خود ترجیح میدهند.
باریس گولتکین، رئیس هوش مصنوعی در Snowflake، خاطرنشان میکند که مشتریان اغلب مدلها را بر اساس موارد استفاده خاص خود ارزیابی میکنند تا اینکه صرفاً به معیارها تکیه کنند. با توجه به هزینه کم آن، Llama اغلب برای بسیاری از برنامهها کافی است.
در Snowflake، Llama برای کارهایی مانند خلاصه کردن رونوشتهای تماس فروش و استخراج اطلاعات ساختاریافته از نظرات مشتریان استفاده میشود. در Dremio، Llama کد SQL تولید میکند و رسالههای بازاریابی مینویسد.
تומר شیران، یکی از بنیانگذاران و مدیر ارشد محصول Dremio، پیشنهاد میکند که مدل خاص ممکن است برای 80٪ از برنامهها حیاتی نباشد، زیرا بیشتر مدلها اکنون برای برآوردن نیازهای اساسی “به اندازه کافی خوب” هستند.
یک چشمانداز متنوع: تثبیت نقش Llama
در حالی که Llama ممکن است در حال دور شدن از رقابت مستقیم با مدلهای اختصاصی در زمینههای خاص باشد، چشمانداز کلی هوش مصنوعی در حال متنوعتر شدن است و نقش Llama در داخل جایگاههای خاص در حال تثبیت است.
شیران تاکید میکند که معیارها عامل اصلی انتخاب مدل نیستند، زیرا کاربران آزمایش مدلها را در موارد استفاده خود در اولویت قرار میدهند. عملکرد یک مدل روی دادههای مشتری از اهمیت بالایی برخوردار است و این عملکرد میتواند با گذشت زمان متفاوت باشد.
گولتکین اضافه میکند که انتخاب مدل اغلب یک تصمیم خاص مورد استفاده است تا یک رویداد یک بار مصرف.
Llama ممکن است توسعهدهندگانی را از دست بدهد که دائماً به دنبال آخرین پیشرفتها هستند، اما حمایت بسیاری از توسعهدهندگان متمرکز بر ساخت ابزارهای عملی مبتنی بر هوش مصنوعی را حفظ میکند.
این پویایی با استراتژی گسترده تر متنباز متا مطابقت دارد که با عرضه React در سال 2013 و ایجاد PyTorch در سال 2016 به نمایش گذاشته شده است. متا با پرورش اکوسیستمهای موفق، از مشارکتهای جامعه متنباز سود میبرد.
همانطور که نیت جونز مشاهده میکند، زاکربرگ از ابتکارات متنباز متا مزایای قابل توجهی کسب میکند.