Вълнуващо ново допълнение към Oracle Cloud Infrastructure (OCI) Generative AI услугите е семейството модели Meta Llama 4, включващо Scout и Maverick. Тези модели интегрират уникална архитектура Mixture of Experts (MoE), която значително подобрява възможностите за обработка и ефективността. Те са специално оптимизирани да превъзхождат в множество области, включително мултимодално разбиране, многоезични задачи, генериране на код и извикване на инструменти, както и са в състояние да захранват усъвършенствани агентни системи.
По текущем тези модели са налични в общодостъпна (GA) версия в следните региони:
- При поискване: ORD (Чикаго)
- Специализиран AI клъстер: ORD (Чикаго), GRU (Гуарульюс), LHR (Лондон), KIK (Кикую)
Основни акценти на семейството Llama 4
Мултимодални възможности: Разрушаване на границите между типовете данни
Llama 4 Scout и Maverick са повече от просто езикови модели - те са истински мултимодални майстори. Те са способни да обработват и интегрират естествено различни типове данни, включително текст и изображения, позволявайки по-богати и по-всеобхватни AI приложения. Представете си AI система, която може едновременно да разбере текстово описание и свързано изображение, което води до по-добро разбиране на контекста и вземане на по-информирани решения. Тази мултимодална способност разкрива изцяло нови възможности за задачи като генериране на надписи на изображения, визуални отговори на въпроси и други.
Многоезична поддръжка: Комуникация без граници
Друг акцент в семейството Llama 4 е неговата силна многоезична поддръжка. Тези модели са обучени върху набори от данни, съдържащи 200 езика, и са фино настроени за 12 основни езика (арабски, английски, френски, немски, хинди, индонезийски, италиански, португалски, испански, тагалог, тайландски и виетнамски). Това означава, че те са способни да разбират и генерират текст на множество езици, отваряйки врати за приложения в световен мащаб. Трябва да се отбележи, че функцията за разбиране на изображения в момента поддържа само английски език.
Ефективно разработване: По-малък отпечатък на GPU
За разработчиците Llama 4 Scout е проектиран с идеята за по-голяма достъпност. Той може да работи ефективно върху по-малък отпечатък на GPU, което го прави идеален избор за среди с ограничени ресурси. Това означава, че дори и без мощно хардуерно оборудване, разработчиците могат да използват мощните функции на Llama 4 Scout, за да ускорят разработването и внедряването на AI приложения.
Модели с отворен код: Овластяване на общността
Meta избра отворена позиция, като пусна двата модела под лиценз на общността Llama 4. Това означава, че разработчиците могат свободно да ги настройват фино и да ги внедряват, стига да спазват конкретните условия на лиценза. Този отворен модел може да стимулира иновациите и сътрудничеството в AI общността, позволявайки на повече хора да участват в разработването и прилагането на AI технологии.
Дата на прекъсване на знанията
Трябва да се отбележи, че датата на прекъсване на знанията на моделите Llama 4 е август 2024 г. Това означава, че те може да не са в състояние да предоставят най-новата информация за събития или информация, настъпили след тази дата.
Важно съобщение: Политиката за приемлива употреба на Llama ограничава използването му в Европейския съюз (ЕС).
Llama 4 Scout: Лекоатлетически шампион
Архитектура: Гениален дизайн на параметри
Llama 4 Scout използва гениален архитектурен дизайн, който активира само 17 милиарда параметъра от общо около 109 милиарда параметъра. Този дизайн използва смес от 16 експерта, постигайки добър баланс между производителност и ефективност. Чрез активиране само на подмножество от параметри, Scout може значително да намали изчислителните нужди, което му позволява да работи в среди с ограничени ресурси.
Контекстен прозорец: Възможност за обработка на дълъг текст
Llama 4 Scout поддържа контекстна дължина до 10 милиона токена (изискваща множество GPU). Въпреки това, при общодостъпната (GA) версия, OCI Generative AI услугата ще поддържа контекстна дължина 192k токена. Дори контекстен прозорец от 192k е достатъчен за обработка на доста дълги текстове, като например глави от книги или подробни доклади.
Внедряване: Компактен и мощен
Една от целите на Llama 4 Scout е да работи ефективно на по-малък отпечатък на GPU. Това го прави идеален избор за различни сценарии на внедряване, включително периферни устройства и облачни среди с ограничени ресурси.
Производителност: Отлично представяне в сравнение с конкурентите
Llama 4 Scout се представи добре в множество бенчмаркове, надминавайки модели като Gemma 3 на Google и Mistral 3.1. Това е доказателство за отличните възможности на Scout по отношение на производителността, което го прави мощен инструмент за различни AI задачи.
Llama 4 Maverick: Шампион в тежка категория
Архитектура: По-голям мащаб, по-голяма сила
В сравнение със Scout, Llama 4 Maverick използва по-голям архитектурен мащаб. Той също така активира 17 милиарда параметъра, но е реализиран в рамките на по-голяма рамка от общо около 400 милиарда параметъра и използва 128 експерта. Този по-голям мащаб дава на Maverick по-голяма мощ, позволявайки му да се отличи в по-сложни AI задачи.
Контекстен прозорец: Свръхдълга памет
Llama 4 Maverick поддържа контекстна дължина до 1 милион токена. При общодостъпната (GA) версия, внедряването на OCI ще поддържа контекстна дължина 512k токена. Такава дълга контекстна дължина позволява на Maverick да обработва изключително сложни текстове, като например цели книги или колекции от множество документи.
Внедряване: Изисква се повече пространство
Поради по-големия си мащаб, Llama 4 Maverick изисква повече пространство за внедряване от Scout. По време на GA внедряването на Maverick на OCI ще изисква приблизително двойно повече пространство от това на Scout.
Производителност: Сравним с най-добрите модели
В задачите за генериране на код и推理, производителността на Llama 4 Maverick може да се сравни с тази на най-добрите модели като GPT-4o на OpenAI и DeepSeek-V3. Това е доказателство за водещата позиция на Maverick в областта на AI.
В заключение, семейството Llama 4 представлява значителен напредък в разработването на AI модели. Те предлагат значителни подобрения в производителността, многостранността и достъпността, като осигуряват мощна поддръжка за различни сценарии на приложение.
Клиентите на OCI вече могат лесно да се възползват от тези мощни модели, без да се притесняват за сложността на управлението на инфраструктурата. Те могат да имат достъп до тези модели чрез интерфейс за чат, API или специализирани крайни точки, опростявайки процесите на разработка и внедряване на AI приложения.
Пускането на моделите Llama 4 бележи нова ера за OCI Generative AI услугите. Предоставяйки тези усъвършенствани модели, OCI помага на клиентите да отключат пълния потенциал на AI и да стимулират иновации във всички индустрии.