Възходът и падението на Llama на Meta: От авангард до основен корпоративен продукт? Мнения на разработчиците
Пътят на езиковия модел Llama на Meta (LLM) е обект на интензивно наблюдение и дебати сред общността на изкуствения интелект. Около година раздели пускането на Llama 3 и Llama 4, цяла вечност в бързо развиващия се свят на AI. Въпреки че първоначално беше приветстван като революционна алтернатива с отворен код на собственическите модели като предложенията на OpenAI, последните развития предполагат промяна в възприятието, като някои поставят под въпрос продължаващата актуалност на Llama на върха на AI иновациите.
Разочарованията от LlamaCon и промяна на очакванията
На LlamaCon, първата конференция на Meta, посветена на нейните LLM с отворен код, атмосферата беше наситена с усещане за неизпълнени очаквания. Няколко присъстващи разработчици споделиха, че са очаквали представянето на усъвършенстван модел за разсъждения или поне традиционен модел, способен да надмине конкуренти като V3 на DeepSeek и Qwen, последният от които е набор от модели, разработени от отдела за облачни изчисления на Alibaba.
Липсата на подобни съобщения подхрани опасенията, че Llama губи позиции в надпреварата за AI върховенство. Само месец преди конференцията Meta пусна четвъртото поколение от семейството си Llama, включително моделите с отворени тегла Llama 4 Scout и Llama 4 Maverick. Scout е проектиран за ефективна работа на един GPU, докато Maverick е проектиран като по-голям модел, който да се конкурира с други основни модели.
В допълнение към Scout и Maverick, Meta предостави възможност за предварителен преглед на Llama 4 Behemoth, значително по-голям “учителски модел”, който все още е в процес на обучение. Целта на Behemoth е да улесни дестилацията, техника за създаване на по-малки, специализирани модели от по-голям, по-общ модел.
Въпреки това, се появиха съобщения, показващи забавяния в пускането на Behemoth и предизвикателства при постигането на конкурентно представяне с пакета Llama 4. Въпреки твърденията на Meta за най-съвременни възможности, възприятието сред някои разработчици беше, че Llama вече не е лидер.
Възходът на конкурентите: Qwen и DeepSeek
Разочарованията около LlamaCon и моделите Llama 4 отразяват по-широка нагласа, че LLM с отворен код на Meta губят инерция по отношение както на техническата производителност, така и на ентусиазма на разработчиците. Докато Meta набляга на ангажимента си към принципите на отворен код, изграждането на екосистема и иновациите, конкуренти като DeepSeek, Qwen и OpenAI бързо напредват в критични области като разсъждения, използване на инструменти и реално внедряване.
Един разработчик, Vineeth Sai Varikuntla, изрази разочарованието си, заявявайки, че се е надявал Llama да надмине Qwen и DeepSeek в общи случаи на употреба и разсъждения, но установил, че Qwen е значително напред.
Това настроение подчертава предизвикателствата, пред които е изправена Meta при поддържането на позицията на Llama като водещ LLM с отворен код. Въпреки че първоначалните версии на Llama предизвикаха значително внимание и похвали, появата на все по-способни алтернативи засили конкурентната среда.
Обещаващо начало: Въздействието на Llama 2
За да се оцени напълно настоящият разказ около Llama, е важно да си припомним неговия произход и първоначалното вълнение, което предизвика. През 2023 г. изпълнителният директор на Nvidia Jensen Huang похвали пускането на Llama 2 като “вероятно най-голямото събитие в AI” за тази година. До юли 2024 г. пускането на Llama 3 се смяташе за пробив, представляващ първият отворен LLM, способен да оспори доминирането на OpenAI.
Пристигането на Llama 3 предизвика незабавен скок в търсенето на компютърна мощност, което доведе до повишаване на цените за наем на GPU, според Dylan Patel, главен анализатор в SemiAnalysis. Търсенията в Google за “Meta” и “Llama” също достигнаха своя пик през този период, което показва широко разпространен интерес към новия модел.
Llama 3 беше отпразнуван като американски, отворен и първокласен LLM. Въпреки че не беше последователно начело в индустриалните бенчмаркове, той оказа значително влияние и значение в рамките на AI общността. Тази динамика обаче постепенно се промени.
Архитектурни промени и критики
Моделите Llama 4 въведоха архитектура “смес от експерти”, дизайн, популяризиран от DeepSeek. Тази архитектура позволява на модела да активира само най-подходящата експертиза за конкретна задача, като по този начин подобрява ефективността.
Въпреки това, пускането на Llama 4 беше посрещнато с критики, когато разработчиците откриха, че версията, използвана за публични бенчмаркове, се различава от версията, достъпна за изтегляне и внедряване. Това несъответствие доведе до обвинения в “манипулиране на класацията”, което Meta отрече, заявявайки, че въпросният вариант е експериментален и че оценяването на множество версии на модел е стандартна практика.
Въпреки обясненията на Meta, противоречието допринесе за усещането, че Llama се бори да поддържа конкурентното си предимство. Тъй като конкурентните модели продължиха да напредват, Meta изглеждаше, че няма ясна посока.
Измерване на приемането от разработчиците: Сложн задача
Определянето кое семейство LLM е най-популярно сред разработчиците е предизвикателна задача. Въпреки това, наличните данни сочат, че най-новите модели на Llama не са сред лидерите.
Qwen, по-специално, последователно се нарежда на високо място в различни класации в интернет. Според Artificial Analysis, сайт, който оценява моделите въз основа на производителността, Llama 4 Maverick и Scout са разположени точно над модела GPT-4 на OpenAI (пуснат в края на предходната година) и под Grok на xAI и Claude на Anthropic по отношение на интелигентността.
OpenRouter, платформа, която предоставя на разработчиците достъп до различни модели и публикува класации въз основа на използването на API, показва Llama 3.3 сред топ 20 моделите към началото на май, но не и Llama 4.
Тези данни, макар и не окончателни, показват, че най-новите итерации на Llama не са резонирали толкова силно с разработчиците, колкото техните предшественици.
Отвъд бенчмарковете: Използване на инструменти и разсъждения
Въпреки че стандартните оценки на Llama 4 може да са били разочароващи, експертите твърдят, че приглушеният ентусиазъм произтича от фактори, надхвърлящи суровите показатели за производителност.
AJ Kourabi, анализатор в SemiAnalysis, подчертава важността на “tool calling” и способността на модела да се простира отвъд проста функционалност на чатбот. Tool calling се отнася до способността на модела да има достъп и да инструктира други приложения в интернет или на устройството на потребителя, ключова функция за Agentic AI, която обещава да автоматизира задачи като резервиране на пътувания и управление на разходи.
Meta заяви, че моделите Llama поддържат tool calling чрез своя API. Въпреки това, Theo Browne, разработчик и YouTuber, твърди, че tool calling се е превърнал в необходимост за авангардна актуалност, тъй като Agentic инструментите набират популярност.
Anthropic се очерта като ранен лидер в използването на инструменти, а собственическите модели като OpenAI бързо наваксват. Способността надеждно да се извика правилният инструмент за генериране на правилния отговор е много ценна и OpenAI премести фокуса си, за да даде приоритет на тази възможност.
Kourabi твърди, че отсъствието на силен модел за разсъждения е значителен показател, че Meta е изостанал. Разсъжденията се считат за основен елемент в Agentic AI уравнението, позволяващ на моделите да анализират задачите и да определят подходящия начин на действие.
Нишата на Llama: Практически приложения и внедряване в компании
Въпреки опасенията относно позицията си в челните редици на AI изследванията, Llama остава ценен инструмент за много разработчици и организации.
Nate Jones, ръководител на продукта в RockerBox, съветва разработчиците да включат Llama в своите автобиографии, тъй като познаването на модела вероятно ще бъде търсено в бъдеще.
Paul Baier, главен изпълнителен директор и главен анализатор в GAI Insights, вярва, че Llama ще продължи да бъде ключов компонент от AI стратегиите за много компании, особено тези извън технологичната индустрия.
Предприятията признават важността на моделите с отворен код, като Llama е ярък пример, за справяне с по-малко сложни задачи и контрол на разходите. Много организации предпочитат комбинация от затворени и отворени модели, за да отговорят на различните си нужди.
Baris Gultekin, ръководител на AI в Snowflake, отбелязва, че клиентите често оценяват моделите въз основа на техните специфични случаи на употреба, а не разчитат единствено на бенчмаркове. Предвид ниската си цена, Llama често се оказва достатъчен за много приложения.
В Snowflake Llama се използва за задачи като обобщаване на транскрипции на разговори за продажби и извличане на структурирана информация от отзиви на клиенти. В Dremio Llama генерира SQL код и пише маркетингови имейли.
Tomer Shiran, съосновател и главен продуктов директор на Dremio, предполага, че конкретният модел може да не е критичен за 80% от приложенията, тъй като повечето модели вече са “достатъчно добри”, за да отговорят на основните нужди.
Разнообразяване на пейзажа: Укрепване на ролята на Llama
Въпреки че Llama може да се отдалечава от пряка конкуренция със собственическите модели в определени области, общият AI пейзаж става по-разнообразен и ролята на Llama се укрепва в рамките на специфични ниши.
Shiran подчертава, че бенчмарковете не са основният двигател на избора на модел, тъй като потребителите дават приоритет на тестването на модели на собствените си случаи на употреба. Ефективността на модела върху данните на клиента е от първостепенно значение и тази производителност може да варира с течение на времето.
Gultekin добавя, че изборът на модел често е решение, специфично за случая на употреба, а не еднократно събитие.
Llama може да губи разработчици, които постоянно търсят най-новите постижения, но запазва подкрепата на много разработчици, фокусирани върху изграждането на практични инструменти, задвижвани от AI.
Тази динамика е в съответствие с по-широката стратегия на Meta за отворен код, илюстрирана от пускането на React през 2013 г. и създаването на PyTorch през 2016 г. Чрез насърчаване на успешни екосистеми, Meta се възползва от приноса на общността с отворен код.
Както отбелязва Nate Jones, Zuckerberg получава значителни попутни ветрове от инициативите на Meta с отворен код.