De Hoge Inzet in de Wereldwijde AI Hardware Race
Het landschap van de ontwikkeling van kunstmatige intelligentie wordt steeds meer bepaald, niet alleen door algoritmische doorbraken, maar ook door de toegang tot de geavanceerde hardware die nodig is om massale modellen te trainen en uit te voeren. Centraal in deze hardwarevergelijking staat de grafische verwerkingseenheid (GPU), een component die oorspronkelijk is ontworpen voor het renderen van afbeeldingen, maar nu onmisbaar is voor de parallelle verwerkingseisen van AI. Jarenlang was Nvidia Corporation de onbetwiste titaan in deze arena, waarbij zijn geavanceerde GPU’s de gouden standaard werden en innovatie in Silicon Valley en daarbuiten aanstuurden. Deze dominantie heeft het bedrijf, en zijn klanten, echter direct in het vizier van geopolitieke spanningen geplaatst.
De invoering door Washington van strenge exportcontroles, gericht op het beperken van China’s toegang tot geavanceerde halfgeleidertechnologie, heeft de markt fundamenteel hervormd. Deze beperkingen richten zich specifiek op hoogwaardige GPU’s, zoals die geproduceerd door Nvidia, die als cruciaal worden beschouwd voor geavanceerde AI-toepassingen, inclusief die met potentieel militair gebruik. Het onmiddellijke effect was een wedloop binnen de opkomende techsector van China. Bedrijven die zwaar investeerden in AI, van gevestigde reuzen tot ambitieuze start-ups, werden plotseling geconfronteerd met het vooruitzicht afgesneden te worden van de essentiële tools die de volgende golf van technologische vooruitgang aandrijven. Dit creëerde een dringende noodzaak: vind levensvatbare alternatieven of loop het risico achterop te raken in een wereldwijd concurrerend veld. De uitdaging ging niet alleen over het vervangen van de ene chip door de andere; het betrof het navigeren door een complex web van prestatieverschillen, softwarecompatibiliteitsproblemen en de enorme schaal die nodig is voor het trainen van modellen met honderden miljarden, of zelfs biljoenen, parameters.
Ant Group Stippelt een Koers uit naar Compute Onafhankelijkheid
Tegen deze achtergrond van onzekerheid in de toeleveringsketen en escalerende technologische rivaliteit, heeft Ant Group, de fintech-gigant gelieerd aan Alibaba Group Holding, een belangrijke stap gezet naar grotere computationele zelfvoorziening. Recente onthullingen, gedetailleerd in een onderzoekspaper van het Ling-team van het bedrijf – de divisie die zijn initiatieven voor grote taalmodellen (LLM) leidt – wijzen op een succesvolle afwijking van het Nvidia-centrische pad. De kern van deze prestatie ligt in hun vermogen om effectief een geavanceerd AI-model te trainen met behulp van binnenlands geproduceerde GPU’s.
Het model in kwestie, genaamd Ling-Plus-Base, is geen lichtgewicht. Het is ontworpen met behulp van een Mixture-of-Experts (MoE) architectuur, een techniek die aan populariteit wint vanwege zijn efficiëntie bij het opschalen van LLM’s. Met een aanzienlijke 300 miljard parameters opereert Ling-Plus-Base in een klasse die vergelijkbaar is met andere prominente wereldwijde modellen. Het cruciale onderscheid is echter de hardware die de training ondersteunt. Volgens de onderzoeksresultaten kan dit krachtige model tot volwassenheid worden gebracht op wat het team beschrijft als ‘apparaten met lagere prestaties’. Deze zorgvuldig gekozen formulering wijst direct op het gebruik van verwerkingseenheden die buiten het bereik van de Amerikaanse exportbeperkingen vallen, wat sterk impliceert dat er chips worden gebruikt die in China zijn ontworpen en geproduceerd.
Deze ontwikkeling is meer dan alleen een technische workaround; het vertegenwoordigt een potentiële strategische draai. Door aan te tonen dat het mogelijk is om state-of-the-art modellen te trainen zonder uitsluitend afhankelijk te zijn van de allerbeste, beperkte buitenlandse hardware, beperkt Ant Group niet alleen de risico’s in de toeleveringsketen, maar ontsluit het mogelijk ook aanzienlijke kostenefficiënties.
De Economische Vergelijking: Trainingskosten Verlagen
Een van de meest overtuigende cijfers die uit het onderzoek van het Ling-team naar voren komen, is een gerapporteerde 20 procent reductie in rekenkosten tijdens de kritieke pre-trainingsfase van het Ling-Plus-Base model. Pre-training is notoir resource-intensief, waarbij het model enorme datasets krijgt gevoerd om taalpatronen, context en kennis te leren. Het vormt een groot deel van de totale kosten die gepaard gaan met het ontwikkelen van fundamentele LLM’s. Het bereiken van een kostenreductie van een vijfde in deze fase vertaalt zich daarom in aanzienlijke besparingen, waardoor mogelijk kapitaal vrijkomt voor verder onderzoek, ontwikkeling of implementatie op schaal.
Hoe wordt deze kostenbesparing bereikt? Hoewel het paper de exacte kostenspecificatie niet beschrijft, dragen waarschijnlijk verschillende factoren bij:
- Hardware Aanschaf: Binnenlands geproduceerde GPU’s, zelfs als ze individueel minder krachtig zijn dan Nvidia’s topaanbod, kunnen een lagere aankoopprijs hebben of gunstigere volumekortingen bieden binnen de Chinese markt, vooral gezien het beperkte aanbod van high-end Nvidia-chips.
- Energie-efficiëntie: Hoewel niet expliciet vermeld, kan het optimaliseren van de training voor mogelijk minder energieverslindende (hoewel misschien minder presterende per eenheid) binnenlandse chips bijdragen aan lagere operationele energiekosten, een belangrijke factor bij het runnen van grote datacenters.
- Algoritmische en Architecturale Optimalisatie: Het gebruik van de MoE-architectuur zelf is essentieel. MoE-modellen activeren alleen specifieke ‘expert’-subnetwerken voor een gegeven input, in plaats van het hele model te gebruiken zoals dichte architecturen. Deze inherente spaarzaamheid kan de computationele belasting tijdens zowel training als inferentie aanzienlijk verminderen, waardoor het haalbaar wordt om goede resultaten te behalen, zelfs met minder ruwe verwerkingskracht per chip. Het succes van Ant suggereert geavanceerde software- en algoritmische afstemming om de efficiëntie van de beschikbare binnenlandse hardware te maximaliseren.
Deze kostenreductie is niet louter een boekhoudkundig voordeel; het verlaagt de drempel voor het ontwikkelen van grootschalige modellen en zou het tempo van AI-innovatie binnen het bedrijf en mogelijk binnen het bredere Chinese tech-ecosysteem kunnen versnellen als de methoden repliceerbaar blijken.
Prestatiepariteit: De Hardwarekloof Overbruggen?
Kostenbesparingen zijn aantrekkelijk, maar ze betekenen weinig als het resulterende AI-model aanzienlijk ondermaats presteert. Ant’s Ling-team pakt dit direct aan en beweert dat Ling-Plus-Base prestaties levert die vergelijkbaar zijn met andere gerespecteerde modellen in het veld. Specifiek hebben ze hun creatie gebenchmarkt tegen modellen zoals Qwen2.5-72B-Instruct (ontwikkeld door moederbedrijf Alibaba) en DeepSeek-V2.5-1210-Chat, een andere prominente Chinese LLM.
De claim van ‘vergelijkbare prestaties’ ondanks het gebruik van ‘apparaten met lagere prestaties’ is opmerkelijk. Het suggereert dat Ant mogelijk effectieve manieren heeft gevonden om een eventueel tekort aan ruwe rekenkracht te compenseren door:
- Geavanceerde Modelarchitectuur: Het MoE-ontwerp is hierbij instrumenteel, waarbij de werklast efficiënt wordt verdeeld.
- Software Optimalisatie: Het specifiek afstemmen van de trainingssoftwarestack (zoals parallellisatieframeworks en numerieke bibliotheken) op de architectuur van de gebruikte binnenlandse GPU’s is cruciaal. Dit vereist vaak aanzienlijke engineeringinspanningen.
- Data Curatie en Trainingstechnieken: Geavanceerde methoden voor het selecteren van trainingsdata en het verfijnen van het trainingsproces zelf kunnen de uiteindelijke modelkwaliteit aanzienlijk beïnvloeden, soms ter compensatie van hardwarebeperkingen.
Het is belangrijk om prestatieclaims met nuance te benaderen. ‘Vergelijkbaar’ kan een reeks uitkomsten omvatten over verschillende benchmarks (bijv. taalbegrip, redeneren, genereren, coderen). Zonder toegang tot gedetailleerde benchmarkresultaten over meerdere gestandaardiseerde tests, blijft een precieze vergelijking uitdagend. De bewering zelf signaleert echter het vertrouwen van Ant dat zijn aanpak geen verlammende afweging tussen kosten/toegankelijkheid en capaciteit noodzakelijk maakt. Het toont een pad naar het behouden van concurrentievermogen, zelfs binnen de beperkingen opgelegd door hardware restricties.
De onderzoekers zelf benadrukten de bredere implicaties: ‘Deze resultaten tonen de haalbaarheid aan van het trainen van state-of-the-art grootschalige MoE-modellen op minder krachtige hardware, wat een flexibelere en kosteneffectievere benadering van de ontwikkeling van fundamentele modellen mogelijk maakt met betrekking tot de selectie van rekenresources.’ Dit wijst op een soort democratisering, waardoor geavanceerde AI-ontwikkeling kan doorgaan, zelfs wanneer de toegang tot de absolute top van verwerkingskracht beperkt is.
Het Voordeel van Mixture-of-Experts (MoE) Begrijpen
De Mixture-of-Experts architectuur staat centraal in het gerapporteerde succes van Ant Group. Het vertegenwoordigt een afwijking van traditionele ‘dichte’ neurale netwerkmodellen waarbij elke input elke parameter activeert. In een MoE-model:
- Het model bestaat uit talrijke kleinere, gespecialiseerde ‘expert’-netwerken.
- Een ‘gating network’ of ‘router’-mechanisme leert om inkomende data (tokens, in het geval van LLM’s) naar de meest relevante expert(s) te sturen voor verwerking.
- Alleen de geselecteerde expert(s) – vaak slechts één of twee van potentieel honderden – voeren berekeningen uit voor dat specifieke stuk data.
Deze aanpak biedt verschillende belangrijke voordelen, met name relevant in de context van hardwarebeperkingen:
- Schaalbaarheid: MoE stelt modellen in staat om te groeien tot enorme parameteraantallen (biljoenen worden haalbaar) zonder een evenredige toename van de rekenkosten voor het verwerken van elk inputtoken tijdens inferentie of zelfs tijdens trainingsstappen. Dit komt omdat slechts een fractie van de totale parameters op enig moment actief is.
- Trainingsefficiëntie: Hoewel het trainen van MoE-modellen zijn eigen complexiteiten heeft (zoals load balancing over experts), kan de verminderde berekening per token zich vertalen in snellere trainingstijden of, zoals Ant aantoont, het vermogen om effectief te trainen op minder krachtige hardware binnen redelijke termijnen.
- Specialisatie: Elke expert kan zich potentieel specialiseren in verschillende soorten data, taken of kennisdomeinen, wat mogelijk leidt tot output van hogere kwaliteit op specifieke gebieden.
Toonaangevende AI-labs wereldwijd hebben MoE omarmd, waaronder Google (GShard, Switch Transformer), Mistral AI (Mixtral-modellen), en binnen China bedrijven zoals DeepSeek en Alibaba (wiens Qwen-modellen MoE-elementen bevatten). Ant’s Ling-Plus-Base plaatst het stevig binnen deze voorhoede, waarbij architecturale innovatie wordt ingezet om hardware realiteiten te navigeren.
Het Binnenlandse Hardware Ecosysteem: De Nvidia Leemte Vullen
Hoewel het onderzoeksrapport van Ant zich onthield van het expliciet benoemen van de gebruikte hardware, gaven latere rapportages, met name door Bloomberg, aan dat de prestatie binnenlands ontworpen chips betrof. Dit omvat processoren die mogelijk afkomstig zijn van Ant’s gelieerde onderneming, Alibaba, dat zijn eigen chipontwerpeenheid T-Head heeft (die CPU’s produceert zoals de Yitian 710 en eerder AI-versnellers verkende), en cruciaal, Huawei Technologies.
Huawei, ondanks dat het zelf te maken heeft met intense Amerikaanse sancties, heeft agressief zijn Ascend-serie AI-versnellers (zoals de Ascend 910B) ontwikkeld als een direct alternatief voor Nvidia’s aanbod binnen de Chinese markt. Deze chips worden naar verluidt overgenomen door grote Chinese techbedrijven. Het vermogen van Ant Group om dergelijke hardware effectief te gebruiken voor een model zo groot als Ling-Plus-Base zou een significante validatie van deze binnenlandse alternatieven betekenen.
Het is cruciaal op te merken dat Ant Group Nvidia niet volledig heeft verlaten. De rapporten suggereren dat Nvidia-chips deel blijven uitmaken van Ant’s AI-ontwikkelingstoolkit, waarschijnlijk gebruikt voor taken waar hun specifieke prestatiekenmerken of volwassen software-ecosysteem (zoals CUDA) voordelen bieden, of voor legacy-systemen. De stap gaat niet noodzakelijkerwijs over volledige vervanging van de ene op de andere dag, maar over het bouwen van levensvatbare, parallelle paden die strategische kwetsbaarheid verminderen en kosten beheersen. Deze hybride aanpak stelt het bedrijf in staat om de best beschikbare tools te benutten terwijl het onafhankelijkheid cultiveert. Ant Group zelf handhaafde een zekere mate van zakelijke discretie en weigerde officieel commentaar te geven op de specifieke gebruikte chips.
Een Bredere Trend: China’s Collectieve Streven naar AI Zelfredzaamheid
Het initiatief van Ant Group staat niet op zichzelf. Het weerspiegelt een bredere strategische drang binnen de Chinese technologiesector om te innoveren rond de beperkingen opgelegd door Amerikaanse exportcontroles. De ‘tech-oorlog’ heeft inspanningen gekatalyseerd om grotere zelfvoorziening te bereiken in kritieke technologieën, met name halfgeleiders en AI.
Andere grote spelers streven vergelijkbare doelen na:
- ByteDance: Het moederbedrijf van TikTok werkt naar verluidt ook aan het veiligstellen en gebruiken van alternatieve chips, inclusief binnenlandse opties, voor zijn AI-ambities, die aanbevelingsalgoritmen, generatieve AI en meer omvatten.
- DeepSeek: Deze AI-start-up, bekend om zijn krachtige open-source modellen, noemt expliciet trainingsefficiëntie en heeft modellen ontwikkeld met behulp van de MoE-architectuur, wat aansluit bij strategieën die minder afhankelijk zijn van het hebben van enorme vloten van alleen de krachtigste GPU’s.
- Baidu, Tencent, en anderen: Alle grote Chinese cloud- en techbedrijven investeren zwaar in AI en verkennen onvermijdelijk hardware diversificatiestrategieën, inclusief optimalisatie voor binnenlandse chips en mogelijk de ontwikkeling van hun eigen aangepaste silicium.
De collectieve boodschap is duidelijk: hoewel toegang tot Nvidia’s topproducten wenselijk blijft, ontwikkelt en valideert de Chinese tech-industrie actief alternatieve oplossingen. Dit omvat een meervoudige aanpak: het omarmen van efficiënte modelarchitecturen zoals MoE, intense softwareoptimalisatie voor verschillende hardware-backends, en het ondersteunen van de ontwikkeling en adoptie van binnenlands geproduceerde chips.
Voorbij Taalmodellen: Ant’s AI Expansie in de Gezondheidszorg
De AI-inspanningen van Ant Group reiken verder dan fundamentele LLM’s. Gelijktijdig met het nieuws over zijn trainingsefficiënties, onthulde het bedrijf significante upgrades aan zijn suite van AI-oplossingen op maat gemaakt voor de gezondheidszorgsector. Dit initiatief maakt gebruik van een onderscheidend, zelf ontwikkeld, op gezondheidszorg gericht AI-model.
De geüpgradede oplossingen beschikken over multimodale capaciteiten (verwerking van verschillende datatypes zoals tekst, afbeeldingen en mogelijk andere medische gegevens) en geavanceerde medische redenering. Deze zijn geïntegreerd in wat Ant beschrijft als ‘alles-in-één machines’, vermoedelijk apparaten of platforms ontworpen voor klinische omgevingen of gezondheidsmanagement.
Hoewel schijnbaar losstaand van het Ling-Plus-Base LLM-nieuws, is er een potentieel onderliggend verband. Het vermogen om krachtige AI-modellen kosteneffectiever te trainen, mogelijk met een mix van hardware inclusief binnenlandse opties, zou de economische levensvatbaarheid kunnen ondersteunen van het ontwikkelen en implementeren van gespecialiseerde modellen voor sectoren zoals de gezondheidszorg. Het verlagen van de fundamentele kosten van AI-ontwikkeling stelt middelen in staat om te worden gekanaliseerd naar domeinspecifieke toepassingen, wat mogelijk de uitrol van praktische AI-tools in kritieke industrieën versnelt. Deze focus op gezondheidszorg onderstreept Ant’s ambitie om zijn AI-expertise breed toe te passen, verdergaand dan zijn fintech-wortels.
Implicaties voor de Toekomst: Een Splitsing in de AI Weg?
Ant Group’s succesvolle training van een grootschalig MoE-model met niet-Nvidia, waarschijnlijk binnenlandse, GPU’s heeft significante implicaties:
- Validatie voor Binnenlandse Chips: Het dient als een cruciaal bewijspunt voor de levensvatbaarheid van Chinees ontworpen AI-versnellers zoals Huawei’s Ascend, wat mogelijk hun adoptie binnen China stimuleert.
- Concurrentielandschap: Het toont aan dat Chinese bedrijven concurrerend kunnen blijven in geavanceerde AI-ontwikkeling ondanks beperkingen, door gebruik te maken van architecturale en software-innovatie.
- Kostendynamiek: De kostenreductie van 20% benadrukt een potentieel concurrentievoordeel voor bedrijven die effectief alternatieve hardware kunnen gebruiken, wat mogelijk de wereldwijde AI-prijzen en toegankelijkheid beïnvloedt.
- Nvidia’s Positie: Hoewel Nvidia wereldwijd dominant blijft, onderstreept deze trend de uitdagingen waarmee het wordt geconfronteerd op de belangrijke Chinese markt als gevolg van regelgeving en de opkomst van lokale concurrenten. Het kan Nvidia’s ontwikkeling van exportconforme chips op maat voor China versnellen, maar valideert ook het alternatieve pad.
- Technologische Bifurcatie?: Op de lange termijn zou voortdurende divergentie in hardwaretoegang en softwareoptimalisatie kunnen leiden tot gedeeltelijk verschillende AI-ecosystemen, met modellen en tools geoptimaliseerd voor verschillende onderliggende silicium.
De reis ondernomen door Ant Group’s Ling-team is emblematisch voor de vindingrijkheid die wordt gestimuleerd door geopolitieke beperkingen. Door slim geavanceerde modelarchitecturen zoals MoE te combineren met de bereidheid om te optimaliseren voor en gebruik te maken van beschikbare binnenlandse hardware, hebben ze een koers uitgezet die voortdurende vooruitgang waarborgt op het kritieke gebied van kunstmatige intelligentie, en mogelijk de kostenstructuren en strategische afhankelijkheden die de industrie definiëren, hervormt. Het is een bewijs van het idee dat innovatie vaak het meest levendig bloeit onder druk.