De Eerste Schokgolf: DeepSeek en de Efficiëntie-illusie
De opkomst van China’s DeepSeek AI eerder dit jaar veroorzaakte schokgolven in het tech-investeringslandschap. De schijnbaar baanbrekende aanpak, die krachtige kunstmatige intelligentie beloofde met aanzienlijk lagere computationele overhead, leidde onmiddellijk tot speculatie. Er vormde zich snel een narratief: misschien stond de onophoudelijke, kostbare uitbreiding van AI-infrastructuur, gekenmerkt door massale aankopen van gespecialiseerde chips en systemen, op het punt te vertragen. De markt reageerde, een weerspiegeling van het geloof dat een nieuw tijdperk van kosteneffectieve AI de verwachte uitgavenexplosie drastisch zou kunnen beperken.
Echter, inzichten van een recente bijeenkomst op hoog niveau van industrieleiders schetsen een totaal ander beeld. Een generatieve AI-conferentie, bijeengeroepen in New York door Bloomberg Intelligence, suggereerde dat de initiële interpretatie, die zich uitsluitend richtte op potentiële kostenbesparingen, het grotere verhaal miste. Verre van een vertraging van de uitgaven aan te kondigen, onderstreepte het evenement een bijna onverzadigbare honger naar grotere AI-capaciteit. De consensus ging niet over bezuinigen; het ging erom uit te zoeken hoe een exponentieel groeiende eetlust naar intelligente systemen gevoed kon worden, zelfs terwijl men wanhopig wenste dat het menu minder duur was.
Stemmen uit de Praktijk: Een Onlesbare Dorst naar Capaciteit
De discussies gedurende het daglange evenement, dat ontwikkelaars, strategen en investeerders samenbracht, cirkelden consequent terug naar het thema van escalerende vraag die monumentale investeringen aandrijft. Mandeep Singh, een senior technologieanalist bij Bloomberg Intelligence en een van de organisatoren van het evenement, vatte het heersende sentiment bondig samen. Terugkijkend op de talrijke panels en expert discussies, merkte hij een universeel refrein op: niemand die erbij betrokken was, voelde dat ze over voldoende AI-capaciteit beschikten. Het overweldigende gevoel was er een van meer nodig hebben, niet te veel hebben.
Cruciaal, voegde Singh toe, was het spookbeeld van een ‘infrastructuurbubbel’, een veelvoorkomende angst in snelgroeiende techsectoren, opvallend afwezig in het gesprek. De focus bleef vierkant op de fundamentele uitdaging waar de hele industrie voor staat. Anurag Rana, Singh’s collega en Bloomberg Intelligence’s senior analist voor IT-diensten en software, omschreef het als de belangrijkste vraag: ‘Waar bevinden we ons in die [AI-infrastructuur opbouw] cyclus?’
Hoewel hij erkende dat het vaststellen van de exacte fase van deze massale uitbouw ongrijpbaar blijft (‘Niemand weet het’ zeker, gaf Rana toe), heeft het DeepSeek-fenomeen onmiskenbaar perspectieven verschoven. Het injecteerde een krachtige dosis hoop dat significante AI-workloads potentieel economischer afgehandeld zouden kunnen worden. ‘DeepSeek heeft veel mensen wakker geschud’, observeerde Rana. De implicatie was duidelijk: als geavanceerde AI-modellen inderdaad efficiënt konden draaien op minder veeleisende hardware, zouden gigantische projecten, zoals de initiatieven van honderden miljarden dollars die naar verluidt gepland worden door consortia met grote techspelers, mogelijk opnieuw geëvalueerd of anders geschaald kunnen worden.
De droom, die volgens Rana door de hele industrie wordt gedeeld, is dat de operationele kosten van AI, met name voor inference (de fase waarin getrainde modellen voorspellingen of content genereren), het dramatische neerwaartse traject volgen dat de afgelopen tien jaar is waargenomen bij cloud computing-opslag. Hij herinnerde eraan hoe de economie van het opslaan van enorme hoeveelheden data op platforms zoals Amazon Web Services (AWS) gedurende ongeveer acht jaar dramatisch verbeterde. ‘Die daling in de kostencurve… de economie was goed’, stelde hij. ‘En dat is waar iedereen op hoopt, dat aan de inference-kant… als de curve naar dat niveau daalt, oh mijn god, de adoptiegraad van AI… spectaculair zal zijn.’ Singh stemde hiermee in en merkte op dat de komst van DeepSeek fundamenteel ‘ieders mindset over het bereiken van efficiëntie heeft veranderd’.
Dit verlangen naar efficiëntie was voelbaar tijdens de conferentiesessies. Terwijl talrijke panels ingingen op de praktische aspecten van het verplaatsen van enterprise AI-projecten van conceptuele stadia naar live productie, benadrukte een parallelle discussie voortdurend de kritieke noodzaak om de kosten te verlagen die gepaard gaan met het implementeren en draaien van deze AI-modellen. Het doel is duidelijk: toegang democratiseren door AI economisch levensvatbaar te maken voor een breder scala aan toepassingen en gebruikers. Shawn Edwards, Bloomberg’s eigen chief technologist, suggereerde dat DeepSeek niet noodzakelijkerwijs een complete verrassing was, maar eerder een krachtige illustratie van een universeel verlangen. ‘Wat het me deed denken, is dat het geweldig zou zijn als je met een toverstaf kon zwaaien en deze modellen ongelooflijk efficiënt kon laten draaien’, merkte hij op, waarbij hij de wens uitbreidde naar het hele spectrum van AI-modellen, niet slechts één specifieke doorbraak.
Het Proliferatieprincipe: Brandstof voor de Compute-vraag
Een van de belangrijkste redenen waarom experts voortdurende, substantiële investeringen in AI-infrastructuur verwachten, ondanks de zoektocht naar efficiëntie, ligt in de pure proliferatie van AI-modellen. Een terugkerend thema tijdens de conferentie in New York was de beslissende stap weg van het idee van één enkel, monolithisch AI-model dat alle taken aankan.
- Een Familieaangelegenheid: Zoals Bloomberg’s Edwards het verwoordde: ‘We gebruiken een familie van modellen. Er bestaat niet zoiets als een beste model.’ Dit weerspiegelt een groeiend begrip dat verschillende AI-architecturen uitblinken in verschillende taken – taalgeneratie, data-analyse, beeldherkenning, code-aanvulling, enzovoort.
- Enterprise Maatwerk: Panelleden waren het er algemeen over eens dat, hoewel grote, algemene ‘foundation’ of ‘frontier’ modellen verder ontwikkeld en verfijnd zullen worden door grote AI-labs, de echte actie binnen bedrijven het implementeren van potentieel honderden of zelfs duizenden gespecialiseerde AI-modellen inhoudt.
- Fine-Tuning en Bedrijfseigen Data: Veel van deze enterprise-modellen zullen worden aangepast van basismodellen via een proces genaamd fine-tuning. Dit houdt in dat een vooraf getraind neuraal netwerk opnieuw wordt getraind op de specifieke, vaak bedrijfseigen, data van een bedrijf. Hierdoor kan de AI unieke bedrijfscontexten, terminologie en klantinteracties begrijpen, wat veel relevantere en waardevollere resultaten oplevert dan een generiek model zou kunnen.
- Democratisering van Ontwikkeling: Jed Dougherty, vertegenwoordiger van het data science platform Dataiku, benadrukte de noodzaak van ‘optionaliteit onder de modellen’ voor enterprise AI-agenten. Hij benadrukte het belang om bedrijven controle, creatiemogelijkheden en auditability over hun AI-tools te geven. ‘We willen de tools om deze dingen te bouwen in handen geven van mensen’, beweerde Dougherty. ‘We willen niet dat tien PhD’s alle agenten bouwen.’ Deze drang naar bredere toegankelijkheid in de ontwikkeling zelf impliceert een behoefte aan meer onderliggende infrastructuur om deze gedistribueerde creatie-inspanningen te ondersteunen.
- Merk-Specifieke AI: De creatieve industrieën bieden een uitstekend voorbeeld. Hannah Elsakr, hoofd nieuwe zakelijke ondernemingen bij Adobe, legde hun strategie uit die inzet op aangepaste modellen als een belangrijke differentiator. ‘We kunnen aangepaste modeluitbreidingen trainen voor uw merk die kunnen helpen bij een nieuwe advertentiecampagne’, illustreerde ze, waarmee ze liet zien hoe AI kan worden afgestemd om specifieke merkesthetiek en boodschappen te behouden.
Naast de diversificatie van modellen, is de toenemende inzet van AI agents binnen bedrijfsworkflows een andere belangrijke aanjager van de verwerkingsvraag. Deze agenten worden niet alleen gezien als passieve tools, maar als actieve deelnemers die in staat zijn om taken met meerdere stappen uit te voeren.
Ray Smith, hoofd van Microsoft’s Copilot Studio agents en automatiseringsinspanningen, voorspelde een toekomst waarin gebruikers interageren met potentieel honderden gespecialiseerde agenten via een uniforme interface zoals Copilot. ‘Je propt niet een heel proces in één agent, je deelt het op in delen’, legde hij uit. Deze agenten, suggereerde hij, zijn in wezen ‘apps in de nieuwe wereld’ van programmeren. De visie is er een waarin gebruikers simpelweg hun doel aangeven – ‘vertel het wat we willen bereiken’ – en de agent de nodige stappen orkestreert. ‘Agentic apps zijn gewoon een nieuwe manier van workflow’, stelde Smith, benadrukkend dat het realiseren van deze visie minder een kwestie is van technologische mogelijkheid (‘het is allemaal technologisch mogelijk’) en meer van het ‘tempo waarin we het uitbouwen’.
Deze drang om AI-agenten dieper te verankeren in alledaagse organisatieprocessen intensiveert de druk voor kostenreductie en efficiënte implementatie verder. James McNiven, hoofd productmanagement bij microprocessor gigant ARM Holdings, kaderde de uitdaging in termen van toegankelijkheid. ‘Hoe bieden we toegang op steeds meer apparaten?’ peinsde hij. Terwijl hij observeerde dat modellen bijna ‘PhD-niveau’ capaciteiten bereiken in specifieke taken, trok hij een parallel met de transformerende impact van het brengen van mobiele betalingssystemen naar ontwikkelingslanden jaren geleden. De kernvraag blijft: ‘Hoe krijgen we die [AI-capaciteit] bij mensen die die vaardigheid kunnen gebruiken?’ Het direct beschikbaar maken van geavanceerde AI-agenten als assistenten voor een breed deel van de beroepsbevolking vereist niet alleen slimme software, maar ook efficiënte hardware en, onvermijdelijk, meer onderliggende infrastructuurinvesteringen, zelfs als de efficiëntie per berekening verbetert.
Schaalhindernissen: Silicium, Stroom en de Cloud Giganten
Zelfs de meest gebruikte, generieke foundation modellen vermenigvuldigen zich in een duizelingwekkend tempo, wat een immense druk legt op de bestaande infrastructuur. Dave Brown, die toezicht houdt op computing en netwerken voor Amazon Web Services (AWS), onthulde dat hun platform alleen al klanten toegang biedt tot ongeveer 1.800 verschillende AI-modellen. Hij onderstreepte de intense focus van AWS op ‘veel doen om de kosten te verlagen’ van het draaien van deze krachtige tools.
Een belangrijke strategie voor cloud providers zoals AWS omvat de ontwikkeling van hun eigen custom silicon. Brown benadrukte het toenemende gebruik van door AWS ontworpen chips, zoals hun Trainium-processoren die zijn geoptimaliseerd voor AI-training, en stelde: ‘AWS gebruikt meer van onze eigen processoren dan processoren van andere bedrijven.’ Deze beweging naar gespecialiseerde, in-house hardware heeft tot doel controle te krijgen over prestaties en kosten, waardoor de afhankelijkheid van leveranciers van algemene chips zoals Nvidia, AMD en Intel wordt verminderd. Ondanks deze inspanningen erkende Brown openhartig de fundamentele realiteit: ‘Klanten zouden meer doen als de kosten lager waren.’ Het vraagplafond wordt momenteel meer bepaald door budgetbeperkingen dan door een gebrek aan potentiële toepassingen.
De schaal van middelen die vereist zijn door toonaangevende AI-ontwikkelaars is immens. Brown merkte de dagelijkse samenwerking van AWS op met Anthropic, de makers van de geavanceerde Claude-familie van taalmodellen. Michael Gerstenhaber, Anthropic’s hoofd van application programming interfaces, die naast Brown sprak, wees op de computationele intensiteit van moderne AI, met name modellen die zijn ontworpen voor complex redeneren of ‘denken’. Deze modellen genereren vaak gedetailleerde stapsgewijze uitleg voor hun antwoorden, wat aanzienlijke verwerkingskracht verbruikt. ‘Denkende modellen zorgen ervoor dat veel capaciteit wordt gebruikt’, stelde Gerstenhaber.
Hoewel Anthropic actief samenwerkt met AWS aan optimalisatietechnieken zoals ‘prompt caching’ (het opslaan en hergebruiken van berekeningen van eerdere interacties om middelen te besparen), blijft de fundamentele hardwarevereiste enorm. Gerstenhaber stelde botweg dat Anthropic ‘honderdduizenden accelerators’ – gespecialiseerde AI-chips – nodig heeft, verdeeld ‘over vele datacenters’, simpelweg om zijn huidige reeks modellen te draaien. Dit geeft een concreet beeld van de pure schaal van rekenkracht die slechts één grote AI-speler ondersteunt.
Wat de uitdaging van het aanschaffen en beheren van enorme vloten silicium nog verergert, is het spiralende energieverbruik dat gepaard gaat met AI. Brown benadrukte dit als een kritieke, en snel escalerende, zorg. Huidige datacenters die intensieve AI-workloads ondersteunen, verbruiken al stroom gemeten in honderden megawatts. Prognoses suggereren dat toekomstige vereisten onvermijdelijk zullen stijgen naar het gigawatt-bereik – de output van grote energiecentrales. ‘De stroom die het verbruikt’, waarschuwde Brown, verwijzend naar AI, ‘is groot, en de voetafdruk is groot in veel datacenters.’ Deze escalerende energievraag brengt niet alleen immense operationele kosten met zich mee, maar ook significante milieu- en logistieke uitdagingen voor het plaatsen en van stroom voorzien van de volgende generatie AI-infrastructuur.
De Economische Wildcard: Een Schaduw over Groeiplannen
Ondanks de optimistische vooruitzichten gedreven door technologische vooruitgang en groeiende use cases, hangt er een significante variabele boven alle projecties voor AI-investeringen: het bredere economische klimaat. Toen de Bloomberg Intelligence-conferentie ten einde liep, observeerden deelnemers al marktonrust als gevolg van nieuw aangekondigde wereldwijde tariefpakketten, die als uitgebreider werden ervaren dan verwacht.
Dit dient als een krachtige herinnering dat ambitieuze technologische routekaarten snel kunnen worden verstoord door macro-economische tegenwind. Bloomberg’s Rana waarschuwde dat hoewel AI-uitgaven aanvankelijk enigszins geïsoleerd zouden kunnen zijn, traditionele gebieden van corporate IT-investeringen, zoals servers en opslag die geen verband houden met AI, de eerste slachtoffers zouden kunnen zijn in een economische krimp. ‘Het andere grote ding waar we ons op richten, zijn de niet-AI tech-uitgaven’, merkte hij op, en uitte zijn bezorgdheid over de potentiële impact op grote tech-dienstverleners in aanloop naar het winstseizoen, zelfs voordat specifiek naar AI-budgetten wordt gekeken.
Er heerst echter een theorie dat AI uniek veerkrachtig zou kunnen blijken. Rana suggereerde dat Chief Financial Officers (CFO’s) bij grote bedrijven, geconfronteerd met budgetbeperkingen als gevolg van economische onzekerheid of zelfs een recessie, ervoor zouden kunnen kiezen om AI-initiatieven te prioriteren. Ze zouden mogelijk fondsen kunnen verschuiven van minder kritieke gebieden om strategische AI-investeringen te beschermen die als cruciaal worden beschouwd voor toekomstige concurrentiekracht.
Toch is deze optimistische kijk verre van gegarandeerd. De ultieme test, volgens Rana, zal zijn of grote bedrijven hun agressieve kapitaaluitgavendoelstellingen handhaven, met name voor het uitbouwen van AI-datacenters, in het licht van toenemende economische onzekerheid. De kritieke vraag blijft: ‘Gaan ze zeggen: ‘Weet je wat? Het is te onzeker.’’ Het antwoord zal bepalen of het schijnbaar onstuitbare momentum achter de uitgaven voor AI-infrastructuur zijn onverbiddelijke klim voortzet of geconfronteerd wordt met een onverwachte pauze, gedicteerd door wereldwijde economische realiteiten.