De groeiende energievraag van artificiële intelligentie
Artificiële intelligentie is een energie-intensieve onderneming. De training, implementatie en het onderhoud van AI-modellen verbruiken enorme hoeveelheden elektriciteit. Veel van deze energie is momenteel afkomstig van fossiele brandstoffen, wat aanzienlijk bijdraagt aan de klimaatverandering. De snelle adoptie van generatieve AI-technologieën heeft de situatie verder gecompliceerd. Het heeft de zorgvuldig opgestelde plannen van tal van technologiebedrijven om over te stappen op groenere energiebronnen verstoord.
Meta, net als zijn concurrenten, staat voor de uitdaging om zijn inzet voor duurzaamheid in evenwicht te brengen met de onmiddellijke energiebehoeften van zijn AI-infrastructuur. Hoewel de langetermijnvisie van het bedrijf een grotere afhankelijkheid van kernenergie omvat, omvat de kortetermijnstrategie aardgas. Entergy, een belangrijke nutsbedrijf, versnelt bijvoorbeeld de bouw van gasgestookte energiecentrales in Louisiana om een grootschalig Meta-datacentercomplex te ondersteunen. De enorme rekenkracht die vereist is door AI, plus de bijbehorende koeling, betekent dat datacenters enorme hoeveelheden elektriciteit verbruiken. Traditionele energiebronnen zijn duur en milieuonvriendelijk, terwijl groene energiebronnen soms niet consistent genoeg zijn om de constante vraag van AI te ondersteunen. Dit heeft ertoe geleid dat bedrijven zoals Meta en anderen naar kernenergie keken als potentiële betrouwbare en emissiearme energiebron.
Een significant aspect van de huidige situatie is de onvoorspelbaarheid van de energievraag. Hoewel bedrijven hun best doen om toekomstige behoeften te schatten, kan de snelle evolutie van AI-technologieën leiden tot een onverwachte en exponentiële toename van het energieverbruik. Generatieve AI, met zijn vermogen om complexe taken uit te voeren en enorme hoeveelheden data te verwerken, is een belangrijke drijfveer achter deze stijging. Het vereist dus zowel nauwkeurige voorspellingen als flexibele aanpassingsstrategieën.
Een andere factor is de geografische spreiding van datacenters. Hoewel sommige centra zich in gebieden met overvloedige hernieuwbare energiebronnen bevinden, liggen andere op locaties waar fossiele brandstoffen de meest rendabele optie zijn. Dit geografische aspect compliceert de transitie naar een schonere energiemix en vereist een meer gediversifieerde en gedecentraliseerde benadering.
Kernenergie als een AI-enabler: een globaal perspectief
Frankrijk bepleit zijn uitgebreide kernenergie-infrastructuur als een belangrijk voordeel in de wereldwijde AI-race. Met ongeveer 75% van zijn elektriciteit die wordt opgewekt uit nucleaire bronnen, heeft Frankrijk de hoogste kernenergieafhankelijkheid ter wereld. Tijdens een AI-top in Parijs contrasteerde president Emmanuel Macron de benadering van Frankrijk met de “drill baby drill”-mentaliteit, en suggereerde een “plug baby plug”-alternatief, waarmee hij benadrukte dat het land klaar is om AI-innovatie aan te drijven met schone kernenergie.
De Franse aanpak is consistent met een lange traditie van steun voor nucleaire energie, zowel om energiezekerheid als om klimaatdoelstellingen te bereiken. De focus van het land op het leveren van betrouwbare en emissiearme energie kan inderdaad een concurrentievoordeel opleveren in de snelgroeiende AI-industrie.
De Verenigde Staten daarentegen zijn sterk afhankelijk van fossiele brandstoffen om hun datacenters aan te drijven, de ruggengraat van AI-operaties. Volgens een rapport van het Internationaal Energie Agentschap zijn aardgas en, in sommige gevallen, kolen de belangrijkste energiebronnen voor deze faciliteiten. De toenemende vraag naar AI zal naar verwachting leiden tot een verdere afhankelijkheid van gasgestookte centrales, een kosteneffectieve maar milieuschadelijke oplossing.
Hoewel hernieuwbare energiebronnen, zoals zonne- en windenergie, ongeveer 24% van de energie leveren aan Amerikaanse datacenters, is kernenergie goed voor ongeveer 15%, aldus het IEA. De overgang naar een duurzamere energiemix vereist aanzienlijke investeringen in hernieuwbare en nucleaire energie-infrastructuur. De kosten en tijdlijn die gepaard gaan met de bouw van nieuwe kernenergiecentrales, samen met publieke bezorgdheid over veiligheid en afvalbeheer, vormen echter aanzienlijke uitdagingen.
Een rapport van het Amerikaanse ministerie van Energie projecteert een substantiële toename van de elektriciteitsvraag van datacenters. In de afgelopen tien jaar is het elektriciteitsverbruik van deze faciliteiten verdrievoudigd en wordt voorspeld dat het tegen 2028 opnieuw zal verdubbelen of verdrievoudigen, wat mogelijk tot 12% van het totale elektriciteitsverbruik van het land kan uitmaken. Dit onderstreept de urgentie van het vinden van duurzame en efficiënte energieoplossingen om de explosieve groei van AI te ondersteunen.
Naast de energievoorziening is ook het koelen van datacenters een belangrijke uitdaging. De enorme hoeveelheid warmte die door AI-servers wordt gegenereerd, vereist efficiënte koelsystemen, die op hun beurt ook weer energie verbruiken. Alternatieve koeltechnieken, zoals vloeistofkoeling, worden onderzocht om energie te besparen en de ecologische voetafdruk van datacenters te verkleinen.
De energie-intensieve processen achter AI
De ontwikkeling en exploitatie van AI-systemen, met name generatieve AI-modellen, vereisen immense rekenkracht. Denk aan de AI-chatbot en onderliggende systemen zoals Meta’s Llama.
Training (of pretraining): AI-systemen leren van enorme hoeveelheden data. Dit omvat het identificeren van patronen en relaties binnen de data. Gespecialiseerde computerchips, zoals Graphics Processing Units (GPU’s), worden gebruikt om parallelle berekeningen uit te voeren op onderling verbonden apparaten. Het trainen van complexe AI-modellen kan weken of zelfs maanden duren en vereist enorme hoeveelheden elektriciteit. De energie-intensiteit van de training hangt af van de grootte van het model, de hoeveelheid gebruikte data en de complexiteit van de algoritmen.
Inferencing: Eenmaal getraind, heeft een AI-model aanzienlijke energie nodig om taken uit te voeren, zoals het genereren van tekst of afbeeldingen. Dit omvat het verwerken van nieuwe informatie en het trekken van conclusies op basis van de bestaande kennis van het model. Het hele proces vereist elektriciteit. Hoewel de energie die nodig is voor inferencing doorgaans lager is dan die voor training, wordt deze activiteit veel vaker uitgevoerd en over een langere periode. Met de toenemende populariteit van AI-aangedreven applicaties, zal de totale energie die nodig is voor inferencing naar verwachting aanzienlijk toenemen.
Kortom, zowel training als inferencing dragen aanzienlijk bij aan de energievraag van AI-systemen. Om deze vraag effectief te beheren, zijn innovaties nodig in zowel hardware- als softwaretechnologieën. Dit omvat het ontwikkelen van energiezuinigere chips, het optimaliseren van algoritmen en het implementeren van technieken voor het verminderen van de energie die nodig is voor datatransmissie en opslag.
Onderzoekers en ingenieurs onderzoeken eveneens alternatieve computermethoden, zoals neuromeorphic computing, die geïnspireerd zijn op de structuur en functie van het menselijk brein. Neuromorfe chips kunnen mogelijk AI-taken uitvoeren met veel minder energie dan traditionele computers.
Het koelen van de AI-reuzen: de warmte-uitdaging aanpakken
AI-systemen genereren aanzienlijke warmte, die moet worden afgevoerd om optimale prestaties te behouden. Datacenters vertrouwen op koelsystemen, zoals airconditioning, om de temperatuur te reguleren. Deze systemen verbruiken extra elektriciteit, waardoor de energievoetafdruk van AI verder toeneemt. Dit effect wordt nog versterkt door de toenemende dichtheid van servers in datacenters, wat leidt tot een geconcentreerdere warmteproductie.
Datacenteroperators onderzoeken alternatieve koeltechnieken, zoals watergebaseerde koelsystemen, om het energieverbruik te verminderen. Vloeistofkoeling, waarbij water of een andere vloeistof dicht bij de warmteproducerende componenten wordt geleid, kan warmte efficiënter afvoeren dan traditionele luchtkoeling. Dit resulteert in een lager energieverbruik en een kleinere ecologische voetafdruk.
Een andere benadering is het gebruik van vrije koeling, waarbij natuurlijke bronnen zoals buitenlucht of grondwater worden gebruikt om de temperatuur van datacenters te regelen. Deze techniek is vooral effectief in koelere klimaten, waar buitenlucht kan worden gebruikt om hete lucht uit de servers te koelen.
Naast de selectie van koeltechnieken, is het ook essentieel om de lay-out en het ontwerp van datacenters te optimaliseren om de warmteafvoer te maximaliseren en het benodigde koelvermogen te minimaliseren. Dit omvat het optimaliseren van de luchtstroom, het implementeren van warmte-isolatie en het plaatsen van servers op strategische locaties.
Bovendien kan de virtuele werkelijkheid van servers en netwerk-apparatuur helpen met de warmteregulatie. Door gebruik te maken van cloud-oplossingen kan rekenkracht naar meer geschikte locaties worden verplaatst of tijdelijk verminderd, waardoor datacenters minder energie hoeven te gebruiken voor koeling. Ook de ontwikkeling van “green software” - software geschreven met het oog op energie-efficiëntie - kan de uitstoot en het energieverbruik van AI datacenters verminderen.
Uiteindelijk vereist de aanpak van de warmte-uitdaging in AI-datacenters een holistische en geïntegreerde aanpak die de energie-efficiëntie van alle aspecten van het systeem omvat, van de hardware tot de software tot de koeltechnologieën. Alleen door deze aspecten te optimaliseren kunnen we zorgen voor een duurzame en milieuvriendelijke toekomst voor AI.
```