Ant Group i krajowe chipy AI: Odpowiedź na sankcje

Wysokie Stawki w Globalnym Wyścigu Sprzętowym AI

Krajobraz rozwoju sztucznej inteligencji jest coraz częściej definiowany nie tylko przez przełomy algorytmiczne, ale także przez dostęp do zaawansowanego sprzętu wymaganego do trenowania i uruchamiania ogromnych modeli. W sercu tego równania sprzętowego leży jednostka przetwarzania graficznego (GPU), komponent początkowo zaprojektowany do renderowania obrazów, ale obecnie niezbędny do wymagań przetwarzania równoległego AI. Przez lata Nvidia Corporation była niekwestionowanym tytanem na tej arenie, a jej zaawansowane GPU stały się złotym standardem, napędzając innowacje w Silicon Valley i poza nią. Jednak ta dominacja postawiła firmę i jej klientów bezpośrednio na celowniku napięć geopolitycznych.

Nałożenie przez Washington surowych kontroli eksportowych, mających na celu ograniczenie dostępu Chin do najnowocześniejszej technologii półprzewodnikowej, fundamentalnie przekształciło rynek. Restrykcje te w szczególności dotyczą wysokowydajnych GPU, takich jak te produkowane przez Nvidia, uznawanych za kluczowe dla zaawansowanych zastosowań AI, w tym tych o potencjalnym zastosowaniu wojskowym. Bezpośrednim skutkiem była gorączkowa reakcja w rozwijającym się sektorze technologicznym Chin. Firmy mocno zainwestowane w AI, od uznanych gigantów po ambitne start-upy, stanęły przed nagłą perspektywą odcięcia od podstawowych narzędzi napędzających kolejną falę postępu technologicznego. Stworzyło to pilną potrzebę: znalezienia realnych alternatyw lub ryzyka pozostania w tyle na globalnie konkurencyjnym polu. Wyzwanie nie polegało jedynie na zastąpieniu jednego chipa innym; obejmowało nawigację w złożonej sieci różnic wydajności, problemów z kompatybilnością oprogramowania i samej skali wymaganej do trenowania modeli z setkami miliardów, a nawet bilionami parametrów.

Ant Group Wytycza Kurs Ku Niezależności Obliczeniowej

Na tle tej niepewności łańcucha dostaw i eskalującej rywalizacji technologicznej, Ant Group, gigant fintech powiązany z Alibaba Group Holding, zasygnalizował znaczący krok w kierunku większej samowystarczalności obliczeniowej. Niedawne rewelacje, szczegółowo opisane w artykule badawczym zespołu Ling firmy – działu kierującego inicjatywami dotyczącymi dużych modeli językowych (LLM) – wskazują na udane odejście od ścieżki skoncentrowanej na Nvidia. Rdzeniem tego osiągnięcia jest ich zdolność do efektywnego trenowania zaawansowanego modelu AI przy użyciu krajowych GPU.

Model, o którym mowa, nazwany Ling-Plus-Base, nie jest lekki. Został zaprojektowany przy użyciu architektury Mixture-of-Experts (MoE), techniki zyskującej na popularności ze względu na jej efektywność w skalowaniu LLM. Chwaląc się znaczną liczbą 300 miliardów parametrów, Ling-Plus-Base działa w lidze porównywalnej do innych czołowych globalnych modeli. Kluczowym wyróżnikiem jest jednak sprzęt stanowiący podstawę jego treningu. Według wyników badań, ten potężny model może być rozwijany do dojrzałości na tym, co zespół opisuje jako “urządzenia o niższej wydajności”. To starannie dobrane sformułowanie wskazuje bezpośrednio na wykorzystanie jednostek przetwarzających, które wykraczają poza zakres amerykańskich restrykcji eksportowych, silnie sugerując użycie chipów zaprojektowanych i wyprodukowanych w Chinach.

Ten rozwój to coś więcej niż tylko techniczne obejście problemu; reprezentuje potencjalny strategiczny zwrot. Demonstrując zdolność do trenowania najnowocześniejszych modeli bez polegania wyłącznie na najwyższej klasy, objętym restrykcjami zagranicznym sprzęcie, Ant Group nie tylko łagodzi ryzyko związane z łańcuchem dostaw, ale także potencjalnie odblokowuje znaczące oszczędności kosztów.

Równanie Ekonomiczne: Cięcie Kosztów Treningu

Jedną z najbardziej przekonujących liczb wynikających z badań zespołu Ling jest zgłoszona 20-procentowa redukcja kosztów obliczeniowych podczas krytycznej fazy pre-treningu modelu Ling-Plus-Base. Pre-trening jest notorycznie zasobochłonny, polega na karmieniu modelu ogromnymi zbiorami danych w celu nauczenia wzorców językowych, kontekstu i wiedzy. Stanowi on główną część całkowitych wydatków związanych z rozwojem fundamentalnych LLM. Osiągnięcie redukcji kosztów o jedną piątą w tej fazie przekłada się zatem na znaczne oszczędności, potencjalnie uwalniając kapitał na dalsze badania, rozwój lub wdrożenie na dużą skalę.

Jak osiągnięto tę oszczędność kosztów? Chociaż artykuł nie szczegółowo opisuje dokładnego podziału kosztów, prawdopodobnie przyczynia się do tego kilka czynników:

  1. Zakup Sprzętu: Krajowe GPU, nawet jeśli indywidualnie mniej wydajne niż topowe oferty Nvidia, mogą być dostępne po niższej cenie zakupu lub oferować korzystniejsze rabaty ilościowe na rynku chińskim, zwłaszcza biorąc pod uwagę ograniczoną podaż wysokiej klasy chipów Nvidia.
  2. Efektywność Energetyczna: Chociaż nie zostało to wyraźnie stwierdzone, optymalizacja treningu pod kątem potencjalnie mniej energochłonnych (choć być może mniej wydajnych na jednostkę) krajowych chipów mogłaby przyczynić się do niższych operacyjnych kosztów energii, co jest znaczącym czynnikiem przy prowadzeniu dużych centrów danych.
  3. Optymalizacja Algorytmiczna i Architektoniczna: Samo użycie architektury MoE jest kluczowe. Modele MoE aktywują tylko określone podsieci “ekspertów” dla danego wejścia, zamiast angażować cały model jak architektury gęste. Ta inherentna rzadkość może znacznie zmniejszyć obciążenie obliczeniowe zarówno podczas treningu, jak i wnioskowania, umożliwiając osiągnięcie dobrych wyników nawet przy mniejszej surowej mocy obliczeniowej na chip. Sukces Ant sugeruje zaawansowane oprogramowanie i dostrajanie algorytmiczne w celu maksymalizacji efektywności dostępnego krajowego sprzętu.

Ta redukcja kosztów to nie tylko korzyść księgowa; obniża barierę wejścia dla rozwoju modeli na dużą skalę i może przyspieszyć tempo innowacji AI w firmie, a potencjalnie w szerszym chińskim ekosystemie technologicznym, jeśli metody okażą się powtarzalne.

Równość Wydajności: Niwelowanie Luki Sprzętowej?

Oszczędności kosztów są atrakcyjne, ale niewiele znaczą, jeśli wynikowy model AI znacznie ustępuje wydajnością. Zespół Ling z Ant odnosi się do tego bezpośrednio, twierdząc, że Ling-Plus-Base osiąga wydajność porównywalną do innych dobrze ocenianych modeli w tej dziedzinie. W szczególności porównali swoje dzieło z modelami takimi jak Qwen2.5-72B-Instruct (opracowany przez spółkę macierzystą Alibaba) i DeepSeek-V2.5-1210-Chat, innym czołowym chińskim LLM.

Twierdzenie o “porównywalnej wydajności” pomimo użycia “urządzeń o niższej wydajności” jest godne uwagi. Sugeruje to, że Ant potencjalnie znalazł skuteczne sposoby na skompensowanie ewentualnego deficytu surowej mocy obliczeniowej poprzez:

  • Zaawansowaną Architekturę Modelu: Projekt MoE jest tutaj kluczowy, efektywnie rozkładając obciążenie pracą.
  • Optymalizację Oprogramowania: Dostosowanie stosu oprogramowania treningowego (takiego jak frameworki do paralelizacji i biblioteki numeryczne) specjalnie do architektury używanych krajowych GPU jest kluczowe. Często wymaga to znacznego wysiłku inżynieryjnego.
  • Kurację Danych i Techniki Treningowe: Zaawansowane metody selekcji danych treningowych i udoskonalania samego procesu treningu mogą znacząco wpłynąć na ostateczną jakość modelu, czasami kompensując ograniczenia sprzętowe.

Ważne jest, aby podchodzić do twierdzeń o wydajności z niuansem. “Porównywalny” może obejmować szereg wyników w różnych benchmarkach (np. rozumienie języka, rozumowanie, generowanie, kodowanie). Bez dostępu do szczegółowych wyników benchmarków w wielu standaryzowanych testach, precyzyjne porównanie pozostaje trudne. Jednak samo twierdzenie sygnalizuje pewność Ant, że ich podejście nie wymaga paraliżującego kompromisu między kosztem/dostępnością a możliwościami. Pokazuje ścieżkę do utrzymania konkurencyjności nawet w ramach ograniczeń narzuconych przez restrykcje sprzętowe.

Sami badacze podkreślili szersze implikacje: “Wyniki te demonstrują wykonalność trenowania najnowocześniejszych, wielkoskalowych modeli MoE na mniej wydajnym sprzęcie, umożliwiając bardziej elastyczne i opłacalne podejście do rozwoju modeli fundamentalnych pod względem wyboru zasobów obliczeniowych.” Wskazuje to na pewnego rodzaju demokratyzację, pozwalającą na postęp w rozwoju najnowocześniejszej AI nawet wtedy, gdy dostęp do absolutnego szczytu mocy obliczeniowej jest ograniczony.

Zrozumienie Zalet Architektury Mixture-of-Experts (MoE)

Architektura Mixture-of-Experts jest kluczowa dla zgłoszonego sukcesu Ant Group. Stanowi odejście od tradycyjnych “gęstych” modeli sieci neuronowych, w których każde wejście aktywuje każdy parametr. W modelu MoE:

  • Model składa się z licznych mniejszych, wyspecjalizowanych sieci “ekspertów”.
  • Mechanizm “sieci bramkującej” lub “routera” uczy się kierować przychodzące dane (tokeny, w przypadku LLM) do najbardziej odpowiedniego eksperta (lub ekspertów) do przetworzenia.
  • Tylko wybrany ekspert (lub eksperci) – często tylko jeden lub dwóch spośród potencjalnie setek – wykonuje obliczenia dla tego konkretnego fragmentu danych.

Takie podejście oferuje kilka kluczowych zalet, szczególnie istotnych w kontekście ograniczeń sprzętowych:

  1. Skalowalność: MoE pozwala modelom rosnąć do ogromnych liczb parametrów (biliony stają się wykonalne) bez proporcjonalnego wzrostu kosztów obliczeniowych przetwarzania każdego tokena wejściowego podczas wnioskowania, a nawet podczas kroków treningowych. Dzieje się tak, ponieważ tylko ułamek całkowitej liczby parametrów jest aktywny w danym momencie.
  2. Efektywność Treningu: Chociaż trenowanie modeli MoE ma swoje własne złożoności (jak równoważenie obciążenia między ekspertami), zmniejszone obliczenia na token mogą przełożyć się na szybsze czasy treningu lub, jak demonstruje Ant, zdolność do efektywnego trenowania na mniej wydajnym sprzęcie w rozsądnych ramach czasowych.
  3. Specjalizacja: Każdy ekspert może potencjalnie specjalizować się w różnych typach danych, zadań lub dziedzin wiedzy, co potencjalnie prowadzi do wyższej jakości wyników w określonych obszarach.

Wiodące laboratoria AI na całym świecie przyjęły MoE, w tym Google (GShard, Switch Transformer), Mistral AI (modele Mixtral) oraz w Chinach firmy takie jak DeepSeek i Alibaba (których modele Qwen zawierają elementy MoE). Ling-Plus-Base firmy Ant zdecydowanie plasuje ją w tej awangardzie, wykorzystując innowacje architektoniczne do nawigowania w realiach sprzętowych.

Krajowy Ekosystem Sprzętowy: Wypełnianie Luki po Nvidia

Chociaż artykuł badawczy Ant powstrzymał się od jawnego wymienienia użytego sprzętu, późniejsze doniesienia, zwłaszcza Bloomberga, wskazywały, że wyczyn ten obejmował chipy zaprojektowane w kraju. Obejmuje to procesory potencjalnie pochodzące od podmiotu stowarzyszonego Ant, Alibaba, która ma własną jednostkę projektowania chipów T-Head (produkującą procesory CPU, takie jak Yitian 710 i wcześniej eksplorującą akceleratory AI), oraz, co kluczowe, Huawei Technologies.

Huawei, pomimo samodzielnego stawiania czoła intensywnym sankcjom USA, agresywnie rozwija swoją serię akceleratorów AI Ascend (takich jak Ascend 910B) jako bezpośrednią alternatywę dla ofert Nvidia na rynku chińskim. Te chipy są podobno adoptowane przez główne chińskie firmy technologiczne. Zdolność Ant Group do efektywnego wykorzystania takiego sprzętu dla modelu tak dużego jak Ling-Plus-Base stanowiłaby znaczące potwierdzenie tych krajowych alternatyw.

Należy zauważyć, że Ant Group nie porzuciła całkowicie Nvidia. Raporty sugerują, że chipy Nvidia pozostają częścią zestawu narzędzi do rozwoju AI Ant, prawdopodobnie używane do zadań, w których ich specyficzne charakterystyki wydajności lub dojrzały ekosystem oprogramowania (jak CUDA) oferują przewagę, lub dla systemów starszego typu. Ruch ten niekoniecznie polega na całkowitym zastąpieniu z dnia na dzień, ale na budowaniu realnych, równoległych ścieżek, które zmniejszają strategiczną podatność i kontrolują koszty. To hybrydowe podejście pozwala firmie wykorzystywać najlepsze dostępne narzędzia, jednocześnie kultywując niezależność. Sama Ant Group zachowała pewien stopień dyskrecji korporacyjnej, odmawiając oficjalnego komentarza na temat konkretnych użytych chipów.

Szerszy Trend: Zbiorowe Dążenie Chin do Samowystarczalności w AI

Inicjatywa Ant Group nie dzieje się w izolacji. Odzwierciedla szersze strategiczne dążenie w całym chińskim sektorze technologicznym do innowacji wokół ograniczeń narzuconych przez amerykańskie kontrole eksportowe. “Wojna technologiczna” skatalizowała wysiłki na rzecz osiągnięcia większej samowystarczalności w krytycznych technologiach, zwłaszcza półprzewodnikach i AI.

Inni główni gracze dążą do podobnych celów:

  • ByteDance: Spółka macierzysta TikTok również podobno pracuje nad zabezpieczeniem i wykorzystaniem alternatywnych chipów, w tym opcji krajowych, dla swoich ambicji AI, które obejmują algorytmy rekomendacji, generatywną AI i inne.
  • DeepSeek: Ten start-up AI, znany ze swoich potężnych modeli open-source, wyraźnie wspomina o efektywności treningu i opracował modele wykorzystujące architekturę MoE, co jest zgodne ze strategiami mniej zależnymi od posiadania ogromnych flot tylko najpotężniejszych GPU.
  • Baidu, Tencent i inni: Wszystkie główne chińskie firmy chmurowe i technologiczne intensywnie inwestują w AI i nieuchronnie eksplorują strategie dywersyfikacji sprzętu, w tym optymalizację pod kątem krajowych chipów i potencjalnie rozwój własnego niestandardowego krzemu.

Zbiorowe przesłanie jest jasne: chociaż dostęp do najwyższej klasy produktów Nvidia pozostaje pożądany, chiński przemysł technologiczny aktywnie rozwija i waliduje alternatywne rozwiązania. Obejmuje to wielotorowe podejście: przyjęcie efektywnych architektur modeli, takich jak MoE, intensywną optymalizację oprogramowania dla różnych backendów sprzętowych oraz wspieranie rozwoju i adopcji krajowych chipów.

Poza Modelami Językowymi: Ekspansja AI Ant w Sektorze Opieki Zdrowotnej

Działania Ant Group w dziedzinie AI wykraczają poza fundamentalne LLM. Równocześnie z wiadomościami o efektywności treningu, firma zaprezentowała znaczące ulepszenia swojego pakietu rozwiązań AI dostosowanych do sektora opieki zdrowotnej. Inicjatywa ta wykorzystuje odrębny, samodzielnie opracowany model AI skoncentrowany na opiece zdrowotnej.

Ulepszone rozwiązania oferują możliwości multimodalne (przetwarzanie różnych typów danych, takich jak tekst, obrazy i potencjalnie inne dane medyczne) oraz zaawansowane rozumowanie medyczne. Są one zintegrowane z tym, co Ant opisuje jako “maszyny all-in-one”, przypuszczalnie urządzenia lub platformy zaprojektowane do zastosowań klinicznych lub zarządzania zdrowiem.

Choć pozornie oddzielone od wiadomości o LLM Ling-Plus-Base, istnieje potencjalny ukryty związek. Zdolność do bardziej opłacalnego trenowania potężnych modeli AI, potencjalnie przy użyciu mieszanki sprzętu, w tym opcji krajowych, mogłaby stanowić podstawę ekonomicznej opłacalności rozwoju i wdrażania specjalistycznych modeli dla sektorów takich jak opieka zdrowotna. Obniżenie fundamentalnych kosztów rozwoju AI pozwala na skierowanie zasobów na aplikacje specyficzne dla danej dziedziny, potencjalnie przyspieszając wdrażanie praktycznych narzędzi AI w krytycznych branżach. Ten nacisk na opiekę zdrowotną podkreśla ambicję Ant, aby szeroko stosować swoją wiedzę specjalistyczną w dziedzinie AI, wykraczając poza swoje korzenie fintech.

Implikacje na Przyszłość: Rozwidlenie Dróg w AI?

Udane wytrenowanie przez Ant Group wielkoskalowego modelu MoE przy użyciu GPU innych niż Nvidia, prawdopodobnie krajowych, niesie ze sobą znaczące implikacje:

  • Walidacja dla Krajowych Chipów: Służy jako kluczowy dowód na żywotność chińskich akceleratorów AI, takich jak Ascend firmy Huawei, potencjalnie zwiększając ich adopcję w Chinach.
  • Krajobraz Konkurencyjny: Pokazuje, że chińskie firmy mogą pozostać konkurencyjne w rozwoju najnowocześniejszej AI pomimo ograniczeń, wykorzystując innowacje architektoniczne i programowe.
  • Dynamika Kosztów: 20% redukcja kosztów podkreśla potencjalną przewagę konkurencyjną dla firm zdolnych do efektywnego wykorzystania alternatywnego sprzętu, potencjalnie wpływając na globalne ceny i dostępność AI.
  • Pozycja Nvidia: Chociaż Nvidia pozostaje dominująca na świecie, ten trend podkreśla wyzwania, przed którymi stoi na znaczącym rynku chińskim z powodu regulacji i wzrostu lokalnych konkurentów. Może to przyspieszyć rozwój przez Nvidia chipów zgodnych z wymogami eksportowymi, dostosowanych do Chin, ale także potwierdza alternatywną ścieżkę.
  • Bifurkacja Technologiczna?: W dłuższej perspektywie, ciągła dywergencja w dostępie do sprzętu i optymalizacji oprogramowania może prowadzić do częściowo odrębnych ekosystemów AI, z modelami i narzędziami zoptymalizowanymi dla różnych podstawowych układów krzemowych.

Podróż podjęta przez zespół Ling z Ant Group jest symbolem zaradności pobudzanej przez ograniczenia geopolityczne. Poprzez sprytne połączenie zaawansowanych architektur modeli, takich jak MoE, z gotowością do optymalizacji i wykorzystania dostępnego krajowego sprzętu, wytyczyli kurs, który zapewnia ciągły postęp w krytycznej dziedzinie sztucznej inteligencji, potencjalnie przekształcając struktury kosztów i strategiczne zależności definiujące branżę. Jest to świadectwo idei, że innowacje często kwitną najżywotniej pod presją.