Na arenie rozwoju sztucznej inteligencji, gdzie stawki są wysokie, dostęp do najnowocześniejszych technologii półprzewodnikowych często dyktuje tempo innowacji. Dla chińskich gigantów technologicznych dostęp ten stał się coraz bardziej skomplikowany, kształtowany przez napięcia geopolityczne i rygorystyczne kontrole eksportowe nałożone przez Stany Zjednoczone. W tym trudnym krajobrazie Ant Group, potęga fintech powiązana z Alibaba, wytycza odrębną ścieżkę. Firma strategicznie wdraża heterogeniczną mieszankę półprzewodników, pochodzących zarówno od amerykańskich, jak i krajowych dostawców, aby napędzać swoje ambicje w dziedzinie AI, koncentrując się w szczególności na zwiększeniu wydajności i opłacalności szkolenia zaawansowanych modeli AI.
To wykalkulowane podejście jest czymś więcej niż tylko technicznym obejściem; reprezentuje fundamentalną adaptację strategiczną. Poprzez celowe integrowanie chipów od różnych producentów, w tym krajowych alternatyw, Ant Group dąży do złagodzenia ryzyka związanego z zakłóceniami w łańcuchu dostaw i zmniejszenia swojej zależności od jednego dostawcy, zwłaszcza tych podlegających międzynarodowym ograniczeniom handlowym. Ta dywersyfikacja jest kluczowa dla zapewnienia ciągłości i odporności jej prac badawczo-rozwojowych w dziedzinie AI. Główny cel jest dwojaki: utrzymać tempo innowacji w AI, jednocześnie optymalizując znaczne koszty typowo związane ze szkoleniem modeli na dużą skalę.
Moc specjalizacji: Wdrożenie Mixture of Experts (MoE)
Centralnym elementem strategii sprzętowej Ant Group jest przyjęcie zaawansowanej architektury AI znanej jako Mixture of Experts (MoE). Technika ta stanowi znaczące odejście od tradycyjnych monolitycznych modeli AI, w których pojedyncza, masywna sieć neuronowa próbuje nauczyć się i obsługiwać wszystkie aspekty danego zadania. Podejście MoE, w przeciwieństwie, wykorzystuje bardziej rozproszoną i wyspecjalizowaną strukturę. Działa podobnie jak komitet specjalistów, a nie pojedynczy generalista.
Wyobraź sobie złożony problem wymagający różnorodnej wiedzy. Zamiast polegać na jednym polimacie, zbierasz zespół: matematyka, lingwistę, historyka i być może fizyka. ‘Sieć bramkująca’ (gating network) działa jak dyspozytor, analizując przychodzące zadania lub punkty danych i inteligentnie kierując je do najbardziej odpowiedniego modelu ‘eksperta’ w ramach większego systemu. Każdy model ekspercki jest szkolony, aby doskonalić się w określonych typach danych wejściowych lub podzadaniach. Na przykład w modelu językowym jeden ekspert może specjalizować się w rozumieniu żargonu technicznego, inny w kreatywnych stylach pisania, a trzeci w dialogu konwersacyjnym.
Kluczowa zaleta tej modułowej konstrukcji leży w jej wydajności obliczeniowej. Podczas szkolenia lub wnioskowania (inference - gdy model dokonuje predykcji), tylko odpowiednie modele eksperckie i sieć bramkująca są aktywowane dla danego wejścia. To selektywne obliczanie ostro kontrastuje z gęstymi modelami (dense models), gdzie cała sieć, z jej miliardami lub nawet bilionami parametrów, musi być zaangażowana przy każdym pojedynczym obliczeniu. W konsekwencji modele MoE mogą osiągać porównywalną lub nawet lepszą wydajność niż ich gęste odpowiedniki, wymagając jednocześnie znacznie mniejszej mocy obliczeniowej, a zatem mniej energii.
Ant Group skutecznie wykorzystało tę przewagę architektoniczną. Wewnętrzne badania i praktyczne zastosowania wykazały, że MoE pozwala firmie osiągać solidne wyniki szkolenia nawet przy użyciu mniej wydajnego, łatwiej dostępnego lub tańszego sprzętu. Według ustaleń udostępnionych przez firmę, ta strategiczna implementacja MoE umożliwiła znaczącą 20% redukcję kosztów obliczeniowych związanych ze szkoleniem jej modeli AI. Ta optymalizacja kosztów to nie tylko przyrostowa oszczędność; to strategiczny czynnik umożliwiający Ant realizację ambitnych projektów AI bez konieczności polegania wyłącznie na najdroższych, najwyższej klasy procesorach graficznych (GPUs), które są coraz trudniejsze do zdobycia dla chińskich firm. Ten wzrost wydajności bezpośrednio odpowiada na ograniczenia sprzętowe narzucone przez środowisko zewnętrzne.
Mozaika krzemu: Portfolio sprzętowe Ant
Praktyczna implementacja strategii Ant Group obejmuje nawigację po złożonym krajobrazie półprzewodników. Infrastruktura szkoleniowa AI firmy jest podobno zasilana przez różnorodną gamę chipów, odzwierciedlając jej zaangażowanie w elastyczność i odporność. Obejmuje to krzem zaprojektowany wewnętrznie przez jej spółkę stowarzyszoną, Alibaba, prawdopodobnie odnosząc się do chipów opracowanych przez jednostkę półprzewodnikową Alibaba, T-Head. Ponadto Ant wykorzystuje chipy od Huawei, innego chińskiego giganta technologicznego, który mocno zainwestował w rozwój własnych akceleratorów AI (takich jak seria Ascend) w odpowiedzi na sankcje USA.
Chociaż Ant Group historycznie wykorzystywała wysokowydajne GPUs od Nvidia, niekwestionowanego lidera na rynku szkolenia AI, ewoluujące kontrole eksportowe USA wymusiły zmianę. Przepisy te konkretnie ograniczają sprzedaż najbardziej zaawansowanych akceleratorów AI chińskim podmiotom, powołując się na obawy dotyczące bezpieczeństwa narodowego. Chociaż Nvidia nadal może dostarczać chipy o niższej specyfikacji na rynek chiński, Ant Group wydaje się aktywnie poszerzać swoją bazę dostawców, aby zrekompensować ograniczony dostęp do najwyższej klasy produktów Nvidia.
Ta dywersyfikacja wyraźnie obejmuje chipy od Advanced Micro Devices (AMD). AMD wyłoniło się jako znaczący konkurent dla Nvidia w dziedzinie obliczeń o wysokiej wydajności i AI, oferując potężne GPUs, które stanowią realną alternatywę dla niektórych obciążeń roboczych. Włączając sprzęt AMD obok krajowych opcji od Alibaba i Huawei, Ant buduje heterogeniczne środowisko obliczeniowe. To podejście typu ‘mix-and-match’, choć potencjalnie dodaje złożoności w optymalizacji oprogramowania i zarządzaniu obciążeniem roboczym, zapewnia kluczową elastyczność. Pozwala firmie dostosować wykorzystanie sprzętu w oparciu o dostępność, koszt i specyficzne wymagania obliczeniowe różnych modeli i zadań AI, omijając w ten sposób wąskie gardła spowodowane poleganiem na jednym, ograniczonym źródle.
Tłem tej strategii jest skomplikowana sieć amerykańskich kontroli eksportowych. Środki te były stopniowo zaostrzane, mając na celu ograniczenie postępów Chin w zaawansowanej produkcji półprzewodników i rozwoju AI. Chociaż początkowo koncentrowały się na absolutnie najwyższej klasy chipach, ograniczenia ewoluowały, wpływając na szerszy zakres sprzętu i urządzeń do produkcji półprzewodników. Nvidia, na przykład, musiała stworzyć specjalne, mniej wydajne wersje swoich flagowych chipów AI (takich jak A800 i H800, pochodzące od A100 i H100) na rynek chiński, aby zachować zgodność z tymi przepisami. Strategia Ant polegająca na wykorzystaniu alternatyw od AMD i krajowych graczy jest bezpośrednią, pragmatyczną odpowiedzią na tę presję regulacyjną, demonstrując wysiłek na rzecz utrzymania konkurencyjności w dziedzinie AI w ramach danych ograniczeń.
AI w akcji: Transformacja usług opieki zdrowotnej
Postępy Ant Group w zakresie wydajności AI to nie tylko ćwiczenia teoretyczne; są one aktywnie przekładane na zastosowania w świecie rzeczywistym, ze szczególnym uwzględnieniem sektora opieki zdrowotnej. Firma niedawno zaprezentowała znaczące ulepszenia swoich rozwiązań AI dostosowanych do opieki zdrowotnej, podkreślając praktyczny wpływ swojej podstawowej strategii technologicznej.
Te ulepszone możliwości AI są podobno już używane w kilku prominentnych instytucjach opieki zdrowotnej w głównych chińskich miastach, w tym w Pekinie (Beijing), Szanghaju (Shanghai), Hangzhou (siedziba Ant) i Ningbo. Siedem głównych szpitali i organizacji opieki zdrowotnej wykorzystuje AI firmy Ant do usprawnienia różnych aspektów swojej działalności i opieki nad pacjentem.
Podstawa modelu AI dla opieki zdrowotnej firmy Ant jest sama w sobie przykładem wspólnej innowacji i wykorzystania różnorodnych atutów technologicznych. Jest zbudowana na kombinacji potężnych dużych modeli językowych (LLMs):
- Modele R1 i V3 firmy DeepSeek: DeepSeek to znacząca chińska firma badawcza AI znana z rozwijania zdolnych modeli open-source, często osiągających wysokie wyniki w benchmarkach.
- Qwen firmy Alibaba: Jest to rodzina zastrzeżonych dużych modeli językowych opracowanych przez spółkę stowarzyszoną Ant, Alibaba, obejmująca szereg rozmiarów i możliwości.
- Własny model BaiLing firmy Ant: Wskazuje to na wewnętrzne wysiłki Ant Group w rozwijaniu niestandardowych modeli AI dostosowanych do jej specyficznych potrzeb, prawdopodobnie uwzględniających dane i wiedzę finansową, a potencjalnie także specyficzną dla opieki zdrowotnej.
Ta wielomodelowa podstawa pozwala rozwiązaniu AI dla opieki zdrowotnej czerpać z szerokiej bazy wiedzy i możliwości. Według Ant Group, system jest biegły w odpowiadaniu na zapytania dotyczące szerokiego zakresu tematów medycznych, potencjalnie służąc jako cenne narzędzie zarówno dla pracowników służby zdrowia poszukujących szybkich informacji, jak i pacjentów szukających ogólnej wiedzy medycznej (choć kluczowe jest staranne określenie jego roli w porównaniu z profesjonalną poradą medyczną).
Poza wyszukiwaniem informacji, firma twierdzi, że model AI został zaprojektowany w celu usprawnienia usług dla pacjentów. Chociaż szczegóły dopiero się pojawiają, może to obejmować szereg zastosowań, takich jak:
- Inteligentny Triage: Pomoc w priorytetyzacji potrzeb pacjentów na podstawie opisanych objawów.
- Planowanie i Zarządzanie Wizytami: Automatyzacja i optymalizacja procesu rezerwacji.
- Monitorowanie po Wypisie: Dostarczanie automatycznych przypomnień lub sprawdzanie postępów rekonwalescencji pacjentów.
- Wsparcie Administracyjne: Pomoc personelowi medycznemu w zadaniach związanych z dokumentacją, podsumowywaniem lub wprowadzaniem danych, uwalniając czas na bezpośrednią opiekę nad pacjentem.
Wdrożenie w głównych szpitalach oznacza krytyczny krok w walidacji użyteczności technologii i nawigacji po złożonościach domeny opieki zdrowotnej, która wiąże się z rygorystycznymi wymaganiami dotyczącymi dokładności, niezawodności i prywatności danych.
Wytyczanie kursu poza premium GPUs
Patrząc w przyszłość, strategia Ant Group wydaje się zgodna z szerszą ambicją w chińskim przemyśle technologicznym: osiągnięcie najnowocześniejszej wydajności AI bez polegania wyłącznie na najbardziej zaawansowanych, często ograniczonych, GPUs. Firma podobno planuje naśladować ścieżkę obraną przez organizacje takie jak DeepSeek, koncentrując się na metodach skalowania wysokowydajnych modeli AI ‘bez premium GPUs’.
Ta ambicja sygnalizuje wiarę, że innowacje architektoniczne (takie jak MoE), optymalizacje oprogramowania i sprytne wykorzystanie zróżnicowanego, potencjalnie mniej wydajnego sprzętu mogą wspólnie zniwelować lukę wydajnościową powstałą w wyniku ograniczonego dostępu do najwyższej klasy krzemu. Jest to strategia zrodzona częściowo z konieczności z powodu kontroli eksportowych, ale odzwierciedla również potencjalnie zrównoważoną ścieżkę w kierunku bardziej opłacalnego i zdemokratyzowanego rozwoju AI.
Osiągnięcie tego celu obejmuje eksplorację różnych dróg poza samym MoE:
- Wydajność Algorytmiczna: Rozwijanie nowych algorytmów AI, które wymagają mniejszej mocy obliczeniowej do szkolenia i wnioskowania.
- Techniki Optymalizacji Modeli: Stosowanie metod takich jak kwantyzacja (quantization - zmniejszenie precyzji liczb używanych w obliczeniach) i przycinanie (pruning - usuwanie zbędnych części sieci neuronowej), aby modele były mniejsze i szybsze bez znaczącej utraty wydajności.
- Frameworki Oprogramowania: Tworzenie zaawansowanego oprogramowania, które może efektywnie zarządzać i dystrybuować obciążenia AI w heterogenicznych środowiskach sprzętowych, maksymalizując wykorzystanie dostępnych zasobów obliczeniowych.
- Specjalistyczny Sprzęt Krajowy: Ciągłe inwestycje i wykorzystanie akceleratorów AI opracowanych przez chińskie firmy, takie jak Huawei (Ascend), Alibaba (T-Head) i potencjalnie inne, zaprojektowanych specjalnie do zadań AI.
Dążenie Ant Group do tej ścieżki, wraz z innymi graczami w chińskim ekosystemie technologicznym, może mieć znaczące implikacje. Jeśli się powiedzie, może to pokazać, że przywództwo w AI nie zależy wyłącznie od dostępu do absolutnie najszybszych chipów, ale zależy również od innowacji w oprogramowaniu, architekturze i optymalizacji na poziomie systemu. Reprezentuje to zdeterminowany wysiłek na rzecz budowy odpornej i samowystarczalnej zdolności AI, nawigując po złożonościach obecnego globalnego krajobrazu technologicznego poprzez strategiczną dywersyfikację i nieustanną innowację. Integracja amerykańskich i chińskich półprzewodników, zoptymalizowana za pomocą technik takich jak MoE i zastosowana w krytycznych sektorach, takich jak opieka zdrowotna, pokazuje pragmatyczne i adaptacyjne podejście do utrzymania postępu AI pod presją.