2. Nvidia
De zoektocht naar steeds geavanceerdere AI-systemen blijft aanzienlijke investeringen stimuleren van ontwikkelaars van grote taalmodellen. Eén bedrijf plukt echter al de vruchten van deze AI-revolutie: Nvidia. Na de AI-race te hebben ontketend met zijn dominante grafische verwerkingseenheden (GPU’s), is Nvidia nu perfect gepositioneerd met zijn baanbrekende Blackwell-processor en -platform om het streven naar intelligentie op menselijk niveau te ondersteunen.
Blackwell overtreft zijn voorganger, de H100, en biedt tot 2,5 keer meer vermogen voor algemene modeltrainingstaken, terwijl hij tegelijkertijd aanzienlijk minder energie verbruikt. Grote datacenterexploitanten en AI-labs, waaronder industriegiganten als Google, Meta, Microsoft, OpenAI, Tesla en xAI, hebben toegezegd honderdduizenden Blackwell GPU’s te kopen.
Hoewel recente modellen van Chinese bedrijven als DeepSeek en Alibaba indrukwekkende mogelijkheden hebben aangetoond met oudere, minder krachtige Nvidia GPU’s, leunt Nvidia niet simpelweg op zijn lauweren. Het bedrijf is actief bezig met het ontwikkelen van platforms voor diverse toepassingen, variërend van medicijnontdekking (Clara for Biopharma) en autonome voertuigen (Drive AGX) tot videoproductie (Holoscan) en digitale tweelingen (Omniverse). Door AI-vooruitgang te stimuleren in een breed spectrum van real-world scenario’s, positioneert Nvidia zich strategisch voor aanhoudende groei, zelfs als toekomstige modellen minder afhankelijk zijn van pure rekenkracht.
3. OpenAI
Sinds 2019 heeft OpenAI zijn modellen consequent verbeterd door trainingsgegevens en computerbronnen uit te breiden, een strategie die in de hele industrie breed is overgenomen. Toen de afnemende meeropbrengsten van deze schaalbenadering echter duidelijk werden, erkende OpenAI de behoefte aan een nieuw pad om AGI te bereiken - modellen die de menselijke intelligentie in de meeste taken overtreffen.
OpenAI’s oplossing kwam in de vorm van het o1-model. In plaats van zich uitsluitend te concentreren op het opschalen van resources tijdens het voortrainen, heeft OpenAI o1 ontworpen om meer tijd en rekenkracht toe te wijzen tijdens inferentie, de fase waarin het model actief wordt ingezet en reageert op prompts van gebruikers. Tijdens dit proces verzamelt en bewaart o1 contextuele informatie, zowel van de gebruiker als van relevante gegevensbronnen. Het maakt gebruik van een trial-and-error-methodologie om het optimale pad naar een antwoord te bepalen. Het resultaat is het genereren van antwoorden op PhD-niveau op ingewikkelde vragen, waardoor o1 naar de top van de prestatiebenchmarkranglijsten wordt gestuwd.
OpenAI biedt ‘experimentele’ en ‘mini’-versies van o1 aan ChatGPT Plus-abonnees. Bovendien biedt een premiumservice genaamd ChatGPT Pro onbeperkte toegang tot het volledige o1-model voor $ 200 per maand. In december 2024 onthulde OpenAI de opvolger van o1, o3, en in februari 2025 kregen betalende gebruikers toegang tot o3-mini, een kleinere, snellere variant geoptimaliseerd voor wetenschap, wiskunde en codering. De meest diepgaande impact van OpenAI’s nieuwe redeneermodellen is de validatie van het opschalen van computing tijdens inferentie als een veelbelovende weg voor het bereiken van verdere doorbraken in intelligentie op weg naar AGI.
4. Google DeepMind
Het fundamentele onderzoek dat de weg vrijmaakte voor de huidige chatbots, is eind jaren 2010 bij Google ontstaan. Google had een chatbot ontwikkeld die werd aangedreven door een groot taalmodel, ruim voor de opkomst van ChatGPT. Bezorgdheid over veiligheid, privacy en juridische implicaties leidde echter naar verluidt tot een voorzichtige aanpak, waardoor de openbare release werd vertraagd. Deze aarzeling resulteerde erin dat Google aanvankelijk achterop raakte in de daaropvolgende AI-race die werd veroorzaakt door de lancering van ChatGPT.
De release van Google DeepMind’s Gemini 2.0 in 2024 betekende de definitieve heropleving van Google. Gemini 2.0 vertegenwoordigt het eerste massamarkt AI-model dat inherent multimodaal is, in staat om afbeeldingen, video, audio en computercode met dezelfde vloeiendheid als tekst te verwerken en te genereren. Deze mogelijkheid stelt het model in staat om videoclips, of zelfs live videofeeds van een telefooncamera, met opmerkelijke snelheid en nauwkeurigheid te analyseren en erover te redeneren.
Gemini onderscheidt zich ook door zijn vermogen om andere Google-services te besturen, zoals Maps en Search. Deze integratie toont het strategische voordeel van Google, waarbij het AI-onderzoek wordt gecombineerd met zijn gevestigde informatie- en productiviteitstools. Gemini is een van de eerste AI-modellen die autonome werking en het vermogen om complexe problemen namens de gebruiker op te lossen, demonstreert. Het Gemini 2.0 Flash Thinking Experimental-model biedt gebruikers zelfs inzicht in het denkproces dat is gebruikt om tot een antwoord te komen. Verder introduceerde Google in december Project Mariner, een op Gemini gebaseerde agentische AI-functie die is ontworpen om taken zoals online boodschappen doen autonoom uit te voeren.
5. Anthropic
De primaire toepassingen van generatieve AI waren tot nu toe gericht op het schrijven van tekst, samenvatten en het genereren van afbeeldingen. De volgende evolutionaire stap omvat het uitrusten van grote taalmodellen met redeneervermogen en de capaciteit om tools te gebruiken. Anthropic’s ‘Computer Use’-model bood een vroege blik in deze toekomst.
Beginnend met Claude 3.5 Sonnet in 2024, kan het model van Anthropic activiteit op het scherm waarnemen, inclusief internetinhoud. Het kan een cursor manipuleren, op knoppen klikken en tekst invoeren. Een demonstratievideo toonde het vermogen van Claude om een formulier in te vullen met behulp van informatie die beschikbaar is op websites die in browsertabbladen zijn geopend. Het kan taken uitvoeren zoals het maken van een persoonlijke website of het organiseren van de logistiek van een dagtocht. De autonome acties van de AI, zoals het openen van nieuwe tabbladen, het uitvoeren van zoekopdrachten en het invullen van gegevensvelden, zijn werkelijk opmerkelijk.
Hoewel het model momenteel langzamer werkt en mogelijk niet altijd het juiste antwoord produceert, worden snelle verbeteringen verwacht naarmate Anthropic zijn beperkingen identificeert en aanpakt. Google’s eerder genoemde Project Mariner volgde het voorbeeld van Anthropic in december, en OpenAI introduceerde zijn eigen computermodel, Operator, in januari 2025. In februari 2025 onthulde Anthropic zijn volgende grote iteratie, Claude 3.7 Sonnet, een groter model dat in staat is om automatisch de redeneermodus in te schakelen voor uitdagende vragen.
6. Microsoft
De ontwikkeling van Microsoft’s Phi-modellen vloeide voort uit een fundamentele vraag die de onderzoekers van het bedrijf in 2023 stelden: “Wat is de kleinste modelgrootte die tekenen van opkomende intelligentie kan vertonen?” Dit onderzoek markeerde een cruciaal moment in de evolutie van ‘kleine taalmodellen’, modellen die zijn ontworpen voor optimale prestaties in scenario’s met beperkt geheugen, rekenkracht of connectiviteit, waar snelle reactietijden cruciaal zijn.
Gedurende 2024 bracht Microsoft twee generaties kleine modellen uit die redeneer- en logische capaciteiten vertoonden die niet expliciet waren opgenomen tijdens de training. In april onthulde het bedrijf een reeks Phi-3-modellen die uitblonken in taal-, redeneer-, codeer- en wiskundebenchmarks, waarschijnlijk dankzij hun training op synthetische gegevens die waren gegenereerd door aanzienlijk grotere en capabelere LLM’s. Varianten van de open-source Phi-3 werden in 2024 meer dan 4,5 miljoen keer gedownload op Hugging Face.
Eind 2024 lanceerde Microsoft zijn Phi-4 kleine taalmodellen, die de Phi-3-modellen overtroffen in op redeneren gerichte taken en zelfs beter presteerden dan OpenAI’s GPT-4o op de GPQA (wetenschappelijke vragen) en MATH-benchmarks. Microsoft bracht het model uit onder een open-source en open-weights licentie, waardoor ontwikkelaars edge-modellen of applicaties voor telefoons of laptops konden maken. Binnen minder dan een maand verzamelde Phi-4 375.000 downloads op Hugging Face.
7. Amazon
Amazon AWS introduceerde onlangs Trainium2, een nieuwe versie van zijn Trainium-processor voor AI, die mogelijk de dominantie van Nvidia GPU’s in specifieke omgevingen kan uitdagen. Trainium2 is ontworpen om de enorme rekenkracht te leveren die nodig is voor het trainen van de grootste generatieve AI-modellen en voor inferentie-tijdoperaties na de implementatie van het model. AWS beweert dat Trainium 30% tot 40% kosteneffectiever is dan GPU’s voor vergelijkbare taken.
Trainium2 pakt de tekortkomingen op het gebied van vermogen en software-integratie aan die werden waargenomen in de eerste Trainium-chip, waardoor Amazon mogelijk de kloof met Nvidia kan dichten. (Het is vermeldenswaard dat AWS zelf sterk afhankelijk blijft van Nvidia voor GPU’s.) Het verdringen van Nvidia is een enorme uitdaging vanwege de customer lock-in met Nvidia’s CUDA-softwarelaag, die onderzoekers gedetailleerde controle biedt over hoe hun modellen de resources van de chip gebruiken. Amazon biedt zijn eigen kernel control softwarelaag, Neuron Kernel Interface (NKI), die, vergelijkbaar met CUDA, onderzoekers gedetailleerde controle geeft over chip kernel interacties.
Het is belangrijk op te merken dat Trainium2 nog op schaal moet worden getest. AWS bouwt momenteel een servercluster met 400.000 Trainium2-chips voor Anthropic, wat waardevolle inzichten zou kunnen opleveren in het optimaliseren van de prestaties van zijn AI-chips in grootschalige implementaties.
8. Arm
De Britse halfgeleiderontwerper Arm is al lang een belangrijke leverancier van de architectuur die wordt gebruikt in chips die kleine apparaten zoals telefoons, sensoren en IoT-hardware aandrijven. Deze rol krijgt een grotere betekenis in het opkomende tijdperk waarin edge-apparaatchips AI-modellen zullen uitvoeren. Datacenters zullen ook een cruciale rol spelen in deze evolutie, waarbij ze vaak een deel of alle van de meest veeleisende AI-verwerking afhandelen en resultaten leveren aan edge-apparaten.
Naarmate datacenters wereldwijd prolifereren, zal hun elektriciteitsverbruik een steeds urgenter probleem worden. Deze factor draagt bij aan de nadruk op efficiëntie in Arm’s nieuwste Neoverse CPU-architectuur. Het beschikt over een prestatieverbetering van 50% ten opzichte van vorige generaties en 20% betere prestaties per watt in vergelijking met processors die concurrerende x86-architecturen gebruiken, aldus het bedrijf.
Arm meldt dat Amazon, Microsoft, Google en Oracle allemaal Arm Neoverse hebben aangenomen voor zowel algemene computing als CPU-gebaseerde AI-inferentie en -training. In 2024 kondigde Microsoft bijvoorbeeld aan dat zijn eerste aangepaste silicium ontworpen voor de cloud, de Cobalt 100-processor, was gebouwd op Arm Neoverse. Sommige van de grootste AI-datacenters zullen vertrouwen op NVIDIA’s Grace Hopper Superchip, die een Hopper GPU en een Grace CPU combineert op basis van Neoverse. Arm staat gepland om dit jaar zijn eigen CPU te lanceren, met Meta als een van zijn eerste klanten.
9. Gretel
In het afgelopen jaar hebben AI-bedrijven afnemende meeropbrengsten ervaren van het trainen van hun modellen met steeds grotere hoeveelheden gegevens die van het web zijn geschraapt. Daarom hebben ze hun focus verlegd van de pure hoeveelheid trainingsgegevens naar de kwaliteit ervan. Dit heeft geleid tot meer investeringen in niet-openbare en gespecialiseerde inhoud die in licentie is gegeven door uitgeverspartners. AI-onderzoekers moeten ook hiaten of blinde vlekken in hun door mensen gegenereerde of door mensen geannoteerde trainingsgegevens aanpakken. Voor dit doel hebben ze zich steeds meer gewend tot synthetische trainingsgegevens die zijn gegenereerd door gespecialiseerde AI-modellen.
Gretel kreeg bekendheid in 2024 door zich te specialiseren in het creëren en cureren van synthetische trainingsgegevens. Het bedrijf kondigde de algemene beschikbaarheid aan van zijn vlaggenschipproduct, Gretel Navigator, waarmee ontwikkelaars natuurlijke taal of SQL-prompts kunnen gebruiken om synthetische trainingsdatasets te genereren, aan te vullen, te bewerken en te cureren voor fine-tuning en testen. Het platform heeft al een gemeenschap van meer dan 150.000 ontwikkelaars aangetrokken die meer dan 350 miljard stukjes trainingsgegevens hebben gesynthetiseerd.
Andere spelers in de industrie hebben de capaciteiten van Gretel opgemerkt. Gretel werkte samen met Google om zijn synthetische trainingsgegevens gemakkelijk toegankelijk te maken voor Google Cloud-klanten. Een soortgelijke samenwerking met Databricks werd in juni aangekondigd, waardoor de zakelijke klanten van Databricks toegang kregen tot synthetische trainingsgegevens voor hun modellen die in de Databricks-cloud draaien.
10. Mistral AI
Mistral AI, de Franse kanshebber in de generatieve AI-arena, heeft consequent druk uitgeoefend op OpenAI, Anthropic en Google in de voorhoede van de ontwikkeling van frontier AI-modellen. Mistral AI bracht in 2024 een reeks nieuwe modellen uit met aanzienlijke technologische vooruitgang, waarmee snelle bedrijfsgroei werd aangetoond door zowel directe marketing van zijn API’s als strategische partnerschappen.
Eerder in het jaar introduceerde het bedrijf een paar open-source modellen genaamd Mixtral, opmerkelijk vanwege hun innovatieve gebruik van de ‘mixture of experts’-architectuur, waarbij slechts een gespecialiseerde subset van de parameters van het model wordt ingeschakeld om een query af te handelen, waardoor de efficiëntie wordt verbeterd. In juli 2024 kondigde Mistral Mistral Large 2 aan, dat, met 123 miljard parameters, aanzienlijke verbeteringen liet zien in codegeneratie, wiskunde, redeneren en functieaanroepen. Het Franse bedrijf bracht ook Ministral 3B en Ministral 8B uit, kleinere modellen ontworpen voor uitvoering op laptops of telefoons, die ongeveer 50 tekstpagina’s aan contextuele informatie kunnen opslaan die door de gebruiker wordt verstrekt.
Mistral heeft succes geboekt in Europa door zichzelf te positioneren als een goedkoop en flexibel alternatief voor Amerikaanse AI-bedrijven zoals OpenAI. Het zette ook zijn expansie naar de Amerikaanse zakelijke markt voort in 2024. In juni haalde het bedrijf een financieringsronde van $ 640 miljoen op, geleid door het durfkapitaalbedrijf General Catalyst, waardoor de waardering van Mistral op ongeveer $ 6,2 miljard kwam.
11. Fireworks AI
Fireworks biedt een aangepaste runtime-omgeving die het vaak complexe engineeringwerk stroomlijnt dat gepaard gaat met het bouwen van infrastructuur voor AI-implementaties. Met behulp van het Fireworks-platform kunnen ondernemingen elk van de meer dan 100 AI-modellen integreren en deze vervolgens aanpassen en fine-tunen voor hun specifieke use cases.
Het bedrijf introduceerde in 2024 nieuwe producten die het zullen positioneren om te profiteren van belangrijke trends in de AI-industrie. Ten eerste zijn ontwikkelaars steeds meer gefocust geraakt op de responsiviteit van AI-aangedreven modellen en applicaties. Fireworks debuteerde met FireAttention V2, optimalisatie- en kwantisatiesoftware die de modelprestaties versnelt en de netwerklatentie vermindert. Ten tweede evolueren AI-systemen steeds meer naar ‘pijplijnen’ die verschillende modellen en tools aanroepen via API’s. De nieuwe FireFunction V2-software fungeert als een orkestrator voor alle componenten binnen deze steeds complexere systemen, met name naarmate ondernemingen meer autonome AI-toepassingen implementeren.
Fireworks rapporteert een omzetgroei van 600% in 2024. Het klantenbestand omvat prominente bedrijven zoals Verizon, DoorDash, Uber, Quora en Upwork.
12. Snorkel AI
Ondernemingen zijn tot het besef gekomen dat de effectiviteit van hun AI-systemen direct verband houdt met de kwaliteit van hun gegevens. Snorkel AI heeft een bloeiend bedrijf opgebouwd door ondernemingen te helpen bij het voorbereiden van hun eigen gegevens voor gebruik in AI-modellen. Het Snorkel Flow AI-gegevensontwikkelingsplatform van het bedrijf biedt een kostenefficiënte methode voor bedrijven om hun eigen gegevens te labelen en te cureren, waardoor het kan worden gebruikt bij het aanpassen en evalueren van AI-modellen voor hun specifieke zakelijke behoeften.
In 2024 breidde Snorkel zijn ondersteuning uit met afbeeldingen, waardoor bedrijven multimodale AI-modellen en beeldgeneratoren konden trainen met behulp van hun eigen afbeeldingen. Het integreerde ook retrieval augmented generation (RAG) in zijn platform, waardoor klanten alleen de meest relevante segmenten van informatie uit lange documenten, zoals eigen knowledge base-inhoud, konden ophalen voor gebruik in AI-training. Snorkel Custom, een nieuw, hoger serviceniveau, omvat de machine learning-experts van Snorkel die rechtstreeks met klanten samenwerken aan projecten.
Snorkel stelt dat zijn jaarlijkse boekingen in 2024 zijn verdubbeld, met een driecijferige groei in jaarlijkse boekingen voor elk van de afgelopen drie jaar. Zes van de grootste banken gebruiken nu Snorkel Flow, aldus het bedrijf, samen met merken als Chubb, Wayfair en Experian.
13. CalypsoAI
Naarmate AI een steeds crucialere rol speelt in kritieke besluitvormingsprocessen, zoeken ondernemingen naar meer inzicht in de interne werking van modellen. Deze behoefte is met name uitgesproken in gereguleerde sectoren die continu moeten controleren op bias en andere onbedoelde outputs. CalypsoAI was een van de eersten die deze opkomende vereiste erkende en reageerde snel met verbeterde verklaarbaarheidsfuncties in zijn AI-infrastructuurplatform.
Wat Calypso onderscheidt, is de breedte van zijn observatietechnologie. In 2024 lanceerde het bedrijf zijn AI Security Platform, dat bedrijfsgegevens beveiligt door alle actieve generatieve AI-modellen die een bedrijf mogelijk gebruikt, te beveiligen, te controleren en te bewaken, ongeacht de modelleverancier of het feit of het model intern of extern wordt gehost. Calypso introduceerde ook nieuwe visualisatietools waarmee gebruikers de logica achter AI-beslissingen in realtime kunnen observeren.
De markt reageert positief op de nadruk van Calypso op AI-observability. Het bedrijf rapporteert een vertienvoudiging van de omzet in 2024 en verwacht een verdere vervijfvoudiging in 2025.
14. Galileo
Hoewel AI-systemen minder gevallen van feitelijke hallucinaties en vooroordelen vertonen in vergelijking met een jaar geleden, blijven ze vatbaar voor deze problemen. Dit vormt een aanzienlijke zorg voor elk bedrijf dat AI gebruikt, met name die in gereguleerde sectoren zoals de gezondheidszorg en het bankwezen. AI-ontwikkelingsteams gebruiken het AI-platform van Galileo om de nauwkeurigheid van hun modellen en applicaties te meten, te optimaliseren en te bewaken.
Begin 2024, na twee jaar onderzoek, bracht Galileo Luna uit, een reeks evaluatiemodellen die zijn getraind om schadelijke outputs te identificeren. Deze modellen stellen het platform van Galileo in staat om het werk van een LLM snel te onderzoeken en te scoren terwijl het de tokens samenstelt die zijn reactie vormen. Dit proces duurt ongeveer 200 milliseconden, waardoor er voldoende tijd is om de output van de AI te markeren en te voorkomen dat deze aan een gebruiker wordt getoond. Hoewel een standaard LLM deze taak zou kunnen uitvoeren, zou het aanzienlijk duurder zijn. De speciaal gebouwde modellen van Galileo bieden superieure nauwkeurigheid, kostenefficiëntie en, cruciaal, snelheid.
Galileo rapporteert een verviervoudiging van zijn klantenbestand in 2024, met klanten als Twilio, Reddit, Chegg, Comcast en JPMorgan Chase. De startup haalde ook een financieringsronde van $ 68 miljoen op van investeerders zoals Hugging Face CEO Clément Delangue.
15. Runway
Een van de belangrijkste ambities - en angsten - rond AI is het potentieel om video te genereren van voldoende kwaliteit om de kunst en economie van het filmmaken te revolutioneren. De technologie boekte aanzienlijke vooruitgang in de richting van deze toekomst in 2024, waarbij Runway, een in New York gevestigde startup voor het genereren van video’s, een leidende rol speelde. De release van Runway’s Gen-3 Alpha-model in juni 2024 kreeg brede bijval binnen de AI-gemeenschap vanwege de aanzienlijk verbeterde geloofwaardigheid van de gegenereerde video.
Runway implementeerde ook belangrijke verbeteringen aan zijn tools voor het regelen van de esthetiek van AI-video. Het model is getraind op zowel afbeeldingen als video en kan video genereren op basis van tekst- of afbeeldingsinvoer. Het bedrijf bracht vervolgens Gen-3 Alpha Turbo uit, een kostenefficiëntere en snellere versie van Gen-3.
Hollywood heeft de voortgang van generatieve AI nauwlettend gevolgd en Runway meldt dat het is begonnen met het produceren van aangepaste versies van zijn modellen voor spelers in de entertainmentindustrie. Het ging in september 2024 een formele samenwerking aan met Lionsgate Studios. Runway ontwikkelde een aangepast model voor het productiebedrijf en trainde het op de filmcatalogus van Lionsgate. Runway stelt dat het model is bedoeld om de filmmakers, regisseurs en andere creatievelingen van Lionsgate te helpen bij het ‘uitbreiden’ van hun werk en tegelijkertijd ‘tijd, geld en middelen te besparen’. Runway gelooft dat zijn overeenkomst met Lionsgate kan dienen als blauwdruk voor soortgelijke samenwerkingen met andere productiebedrijven.
16. Cerebras Systems
AI-systemen, met name grote frontier-modellen, vereisen enorme rekenkracht om op schaal te werken. Dit vereist de onderlinge verbinding van duizenden of miljoenen chips om de werklast te verdelen. De netwerkverbindingen tussen chips kunnen echter prestatieknelpunten introduceren. De technologie van Cerebras Systems is ontworpen om de snelheids- en efficiëntievoordelen te benutten van het integreren van een enorme hoeveelheid rekenkracht op een enkele, uitzonderlijk grote chip.
De nieuwste WSE-3 (derde generatie Wafer Scale Engine) chip van het bedrijf meet bijvoorbeeld 814 vierkante millimeter, ter grootte van een dinerbord, en is 56 keer groter dan Nvidia’s marktleidende H100-chips. De chip bevat maar liefst 4 biljoen transistors en biedt 44 gigabit aan geheugen. Deze chips kunnen worden geclusterd om supercomputers te vormen, zoals Condor Galaxy, een ‘constellatie’ van onderling verbonden supercomputers die Cerebras ontwikkelt in samenwerking met zijn grootste klant, G42, een in de VAE gevestigd AI- en cloud computing-bedrijf.
Tot op heden heeft Cerebras een niche gevonden in grote onderzoeksorganisaties, waaronder Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory en Los Alamos National Laboratory. Het bedrijf diende in september 2024 een aanvraag in voor een beursgang. Het prospectus geeft aan dat de omzet van het bedrijf in 2023 meer dan verdrievoudigde tot $ 78,7 miljoen en in de eerste helft van 2024 steeg tot $ 136,4 miljoen.