Meta Rozszerza Arsenał AI z Modelami Llama

Meta niedawno zaprezentowała najnowsze iteracje swojego modelu sztucznej inteligencji (AI) Llama, sygnalizując znaczący krok naprzód w trwającym zaangażowaniu firmy w innowacje w dziedzinie AI. Wśród nowych ofert znajdują się Llama 4 Scout i Llama 4 Maverick, które Meta określiła mianem “modeli multimodalnych”, podkreślając ich zdolność do przetwarzania i interakcji z różnymi formami mediów poza samym tekstem.

Ponadto, Meta zapowiedziała Llama 4 Behemoth, pozycjonowany jako jeden z najbardziej inteligentnych LLM na świecie i przeznaczony do pełnienia roli nauczyciela dla nowo wydanych modeli.

Ta zapowiedź podkreśla znaczne inwestycje Meta w AI w ciągu ostatnich dwóch lat. Dyrektor generalny, Mark Zuckerberg, publicznie oświadczył, że zamierza przeznaczyć do 65 miliardów dolarów w 2025 roku na dalsze zwiększenie możliwości AI firmy. Ambicje Meta wykraczają poza jej domenę mediów społecznościowych, badając potencjalne subskrypcje premium dla swojego asystenta AI, Meta AI, do obsługi zadań takich jak rezerwacja i tworzenie wideo.

OpenAI – otwarte źródło

Równolegle, OpenAI rozważa podobno wydanie wersji open-source swojego LLM, co stanowi odejście od jej ostatnich praktyk. Ten ruch dałby użytkownikom swobodę wykorzystywania, modyfikowania i dystrybucji modelu bez ponoszenia opłat licencyjnych. OpenAI poszukuje wkładu społeczności od programistów, badaczy i szerszej publiczności w celu optymalizacji użyteczności modelu.

Oczekuje się, że model open-source zostanie uruchomiony w ciągu kilku miesięcy. Ostatni raz OpenAI przyjął zasady open-source w 2019 roku z modelem GPT-2 LLM. Jego najnowszym LLM jest GPT-4.5. OpenAI przesunął się w kierunku modeli zastrzeżonych po zabezpieczeniu miliardowej inwestycji od Microsoftu, tworząc bliski sojusz w celu rozwoju modelu AI. Microsoft zainwestował od tego czasu ponad 13 miliardów dolarów w OpenAI, a modele OpenAI są dostępne wyłącznie dla klientów usług chmurowych Azure firmy Microsoft.

Llama od Meta, LLM od Mistral i DeepSeek to niektóre z modeli open-source, które zyskują ostatnio na popularności. Zuckerberg wspomniał na Threads, że Llama został pobrany 1 miliard razy. Llama został uruchomiony w 2023 roku.

Model AI „Behemoth” firmy Meta opóźniony

Jednak Meta podobno opóźnia premierę “Behemotha”, pierwotnie zaplanowaną na lato, a najwcześniejsza możliwa premiera jest obecnie prognozowana na jesień. Źródła sugerują, że postęp modelu nie był na tyle “znaczący”, aby uzasadnić czerwcową premierę, i stanowi opóźnienie od konferencji Meta dla programistów.

Opóźnienie rzuca cień na premierę flagowej rodziny dużych modeli językowych Llama firmy Meta. The Wall Street Journal mówi, że zostały one pochwalone za szybkość ich wydania. Llama odegrał kluczową rolę we wzmacnianiu pozycji programistów w mniejszych firmach, organizacjach non-profit i instytucjach akademickich. Jest to alternatywa dla zamkniętych, zastrzeżonych modeli oferowanych przez firmy takie jak OpenAI, Google i Amazon.

Wpływ opóźnienia Behemotha na większe firmy jest mniej wyraźny, ponieważ często polegają one na chmurowych modelach zastrzeżonych. Nawet jeśli mniejsze firmy mogą dostosowywać modele open-source Llama, wymagają dodatkowych usług wdrażania, których Meta nie oferuje. Wykorzystanie Llama przez Metę ma na celu ulepszenie własnych narzędzi mediów społecznościowych, umożliwiając Zuckerbergowi utrzymanie kontroli nad swoją trajektorią AI.

Istotnym czynnikiem opóźnienia jest to, czy model wykazuje wystarczająco duże ulepszenia, aby uzasadnić publiczną premierę.

Bezwzględny nakaz innowacji

W szybko zmieniającym się świecie branży technologicznej nowe wydania muszą wykazywać wymierne postępy, aby uzasadnić ich wprowadzenie. Na LlamaCon Meta zaprezentowała dwa mniejsze modele Llama 4, z których każdy posiada imponujące możliwości:

  • Maverick ma 400 miliardów parametrów z oknem kontekstowym o długości 1 miliona tokenów (750 000 słów).
  • Scout ma 109 miliardów parametrów i okno kontekstowe o długości 10 milionów tokenów (7,5 miliona słów).

Behemoth miał być pierwotnie wydany jednocześnie, zawierając 2 biliony parametrów.

Według The Wall Street Journal, Meta staje się niecierpliwa w stosunku do swojego zespołu Llama 4 z powodu ciągłych inwestycji w AI. W 2024 roku firma przeznaczyła do 72 miliardów dolarów na wydatki kapitałowe, głównie skierowane na rozwój AI.

Rosnące obawy

Zuckerberg i inni starsi menedżerowie nie ogłosili jeszcze ostatecznej daty premiery Behemotha. Informatorzy obawiają się, że jego wydajność może nie spełnić oczekiwań określonych w publicznych oświadczeniach Meta.

Źródła wskazują na rosnące niezadowolenie wśród kierownictwa Meta z postępów poczynionych przez zespół opracowujący modele Llama 4. Doprowadziło to do dyskusji na temat możliwych zmian w kierownictwie w ramach grupy produktów AI.

Meta reklamowała Behemotha jako wysoce wydajny system, przewyższający konkurentów, takich jak OpenAI, Google i Anthropic, w określonych testach porównawczych. Wewnętrzne wyzwania utrudniły jego wydajność, jak twierdzą osoby zaznajomione z jego rozwojem.

OpenAI również napotkał opóźnienia. Ich kolejny główny model, GPT-5, był pierwotnie planowany do wydania w połowie 2024 roku. The Wall Street Journal poinformował w grudniu, że rozwój opóźnił się w stosunku do harmonogramu.

W lutym dyrektor generalny OpenAI, Sam Altman, powiedział, że modelem tymczasowym będzie GPT-4.5, a GPT-5 pozostanie jeszcze przez miesiące w fazie rozwoju.

Możliwe przyczyny zatrzymania postępu

Kilka czynników może przyczynić się do spowolnienia rozwoju modelu AI, w tym:

Kurczenie się danych wysokiej jakości

Duże modele językowe wymagają ogromnych ilości danych do trenowania, odzwierciedlających rozległą przestrzeń internetu. Mogą wyczerpywać publicznie dostępne źródła danych, jednocześnie borykając się z odpowiedzialnością prawną związaną z prawami autorskimi.

Doprowadziło to OpenAI, Google i Microsoft do opowiadania się za zachowaniem ich prawa do trenowania na materiałach chronionych prawem autorskim.

OpenAI wspomniało, że rząd może zapewnić Amerykanom swobodę uczenia się od AI i uniknąć utraty przewagi w AI na rzecz Chińskiej Republiki Ludowej [People’s Republic of China] poprzez zachowanie zdolności amerykańskich modeli AI do uczenia się na materiałach chronionych prawem autorskim.

Algorytmiczne przeszkody

Przekonanie, że zwiększenie rozmiaru modelu, użycie większej mocy obliczeniowej i trenowanie na większej ilości danych przyniosłoby znaczące postępy, okazało się błędne. Bloomberg twierdzi, że wystąpiły malejące zyski, co skłania niektórych do stwierdzenia, że prawa skalowania zwalniają.