Meta heeft onlangs de nieuwste versies van zijn Llama artificial intelligence (AI) model onthuld, wat een belangrijke stap voorwaarts betekent in de voortdurende toewijding van het bedrijf aan AI-innovatie. Onder de nieuwe aanbiedingen bevinden zich Llama 4 Scout en Llama 4 Maverick, die Meta “multimodale modellen” heeft genoemd, wat hun vermogen benadrukt om verschillende vormen van media te verwerken en ermee te interageren, verder dan alleen tekst.
Daarnaast plaagde Meta Llama 4 Behemoth, gepositioneerd als een van de meest intelligente LLM’s wereldwijd en bedoeld om te dienen als leraar voor de nieuw uitgebrachte modellen.
Deze aankondiging onderstreept de substantiële investeringen van Meta in AI gedurende de afgelopen twee jaar. CEO Mark Zuckerberg heeft publiekelijk verklaard dat hij van plan is om in 2025 tot $65 miljard te alloceren om de AI-mogelijkheden van het bedrijf verder te verbeteren. De ambities van Meta reiken verder dan het domein van sociale media en verkennen potentiële premium abonnementen voor zijn AI-assistent, Meta AI, om taken uit te voeren zoals het boeken van reserveringen en het maken van video’s.
OpenAI’s Open-Source poging
Parallel aan deze ontwikkelingen overweegt OpenAI naar verluidt een open-source versie van zijn LLM uit te brengen, wat een afwijking is van zijn recente praktijken. Deze stap zou gebruikers de vrijheid geven om het model te gebruiken, aan te passen en te distribueren zonder licentiekosten. OpenAI zoekt input van de community van ontwikkelaars, onderzoekers en het bredere publiek om het nut van het model te optimaliseren.
Het open-source model zal naar verwachting binnen een paar maanden worden gelanceerd. De laatste keer dat OpenAI open-source principes omarmde, was in 2019 met de GPT-2 LLM. De meest recente LLM is GPT-4.5. OpenAI is overgestapt op propriëtaire modellen na het veiligstellen van een investering van een miljard dollar van Microsoft, waarmee een nauwe alliantie is gevormd om de ontwikkeling van AI-modellen te bevorderen. Microsoft heeft sindsdien meer dan $13 miljard geïnvesteerd in OpenAI, waarbij de modellen van OpenAI exclusief zijn voor de klanten van Microsoft’s Azure cloud services.
Meta’s Llama, Mistral’s LLM en DeepSeek zijn enkele van de open-source modellen die de afgelopen tijd aan populariteit hebben gewonnen. Zuckerberg zei op Threads dat Llama 1 miljard keer is gedownload. Llama werd gelanceerd in 2023.
Meta’s “Behemoth” AI-model kampt met vertragingen
Meta stelt de release van “Behemoth” echter naar verluidt uit. De lancering was oorspronkelijk gepland voor de zomer, maar de vroegst mogelijke release wordt nu geprojecteerd voor de herfst. Bronnen suggereren dat de vooruitgang van het model niet “significant” genoeg is om een release in juni te rechtvaardigen, en het vertegenwoordigt een vertraging sinds Meta’s ontwikkelaarsconferentie.
De vertraging werpt een schaduw over Meta’s release van de Llama flagship familie van large language models. De Wall Street Journal zegt dat ze geprezen zijn om de snelheid van hun release. Llama is van instrumentaal belang geweest bij het empoweren van ontwikkelaars binnen kleinere bedrijven, non-profitorganisaties en academische instellingen. Het is een alternatief voor de gesloten, propriëtaire modellen die worden aangeboden door bedrijven als OpenAI, Google en Amazon.
De impact van de vertraging van Behemoth op grotere bedrijven is minder uitgesproken, omdat ze vaak vertrouwen op cloudgebaseerde propriëtaire modellen. Hoewel kleinere bedrijven de open-source Llama modellen kunnen aanpassen, hebben ze aanvullende implementatiediensten nodig die Meta niet aanbiedt. Meta’s gebruik van Llama is gericht op het verbeteren van zijn eigen sociale media tools, waardoor Zuckerberg de controle over zijn AI-traject kan behouden.
Een belangrijke factor achter de vertraging is gelegen in de vraag of het model voldoende substantiële verbeteringen laat zien om een publieke lancering te rechtvaardigen.
De noodzaak tot innovatie
In de snelle wereld van de tech industrie moeten nieuwe releases tastbare vooruitgang laten zien om hun introductie te rechtvaardigen. Op LlamaCon presenteerde Meta twee kleinere Llama 4 modellen, die elk indrukwekkende mogelijkheden bezaten:
- Maverick beschikt over 400 miljard totale parameters met een contextvenster van 1 miljoen tokens (750.000 woorden).
- Scout beschikt over 109 miljard parameters en een contextvenster van 10 miljoen tokens (7,5 miljoen woorden).
Behemoth was aanvankelijk gepland voor gelijktijdige release, met 2 biljoen parameters.
Volgens de Wall Street Journal wordt Meta ongeduldig met zijn Llama 4 team vanwege de voortdurende AI-investeringen. In 2024 heeft het bedrijf tot $72 miljard aan kapitaaluitgaven toegewezen, voornamelijk gericht op AI-ontwikkeling.
Groeiende bezorgdheid
Zuckerberg en andere senior executives moeten nog een definitieve releasedatum voor Behemoth aankondigen. Insiders vrezen dat de prestaties mogelijk niet voldoen aan de verwachtingen die zijn gecreëerd door Meta’s publieke verklaringen.
Bronnen wijzen op toenemende ontevredenheid binnen Meta’s leiderschap over de vooruitgang die is geboekt door het team dat de Llama 4 modellen ontwikkelt. Dit heeft geleid tot discussies over mogelijke leiderschapswijzigingen binnen de AI-productgroep.
Meta heeft Behemoth aangeprezen als een zeer capabel systeem, dat concurrenten zoals OpenAI, Google en Anthropic op specifieke benchmarks overtreft. Interne uitdagingen hebben de efficiëntie ervan belemmerd, zoals beweerd door degenen die bekend zijn met de ontwikkeling ervan.
OpenAI heeft ook te maken gehad met vertragingen. Hun volgende grote model, GPT-5, was oorspronkelijk gepland voor release in het midden van 2024. De Wall Street Journal meldde in december dat de ontwikkeling was achtergeraakt op schema.
In februari zei OpenAI CEO Sam Altman dat het interim model GPT-4.5 zou zijn, terwijl GPT-5 nog maanden weg was.
Mogelijke oorzaken voor een vertraagde vooruitgang
Verschillende factoren kunnen bijdragen aan de vertraging in de ontwikkeling van AI-modellen, waaronder:
Afname van hoogwaardige data
Large language models vereisen enorme hoeveelheden data voor training, wat overeenkomt met de enorme omvang van het internet. Ze kunnen openbaar beschikbare databronnen uitputten en tegelijkertijd te maken krijgen met copyright-gerelateerde juridische aansprakelijkheden.
Dit heeft OpenAI, Google en Microsoft ertoe aangezet om te pleiten voor het behoud van hun recht om te trainen op auteursrechtelijk beschermd materiaal.
OpenAI vermeldde dat de overheid de vrijheid van Amerikanen om van AI te leren kan waarborgen en kan voorkomen dat de AI-voorsprong wordt verbeurd aan de PRC [Volksrepubliek China] door het vermogen van Amerikaanse AI-modellen om van auteursrechtelijk beschermd materiaal te leren te behouden.
Algoritmische hindernissen
De overtuiging dat het vergroten van de modelgrootte, het gebruik van meer rekenkracht en het trainen op meer data opmerkelijke vooruitgang zou opleveren, is onjuist gebleken. Bloomberg zegt dat er sprake is van afnemende rendementen, waardoor sommigen zeggen dat de schaalwetten vertragen.
De aanname dat grotere modellen automatisch betere prestaties leveren, wordt steeds vaker in twijfel getrokken. Het simpelweg toevoegen van meer lagen en parameters aan een neuraal netwerk garandeert geen doorbraken meer. Er is een behoefte aan innovatievere architecturen en trainingsmethoden.
Resource beperkingen en kost overwegingen
Het trainen van state-of-the-art large language models is ongelooflijk resource-intensief en vereist enorme hoeveelheden rekenkracht en energie. De kosten van het trainen van deze modellen kunnen astronomisch zijn, waardoor er beperkingen worden opgelegd aan de bedrijven die het zich kunnen veroorloven om cutting-edge AI te ontwikkelen.
De energiekosten die verbonden zijn aan het trainen van deze modellen creëren ook zorgen over het milieu en de duurzaamheid. Er is een groeiende behoefte aan energie-efficiënte algoritmen en hardware.
Ethische overwegingen en vooringenomenheid
Naarmate AI-modellen steeds krachtiger worden, worden ethische overwegingen en zorgen over bias-mitigatie steeds belangrijker. LLM’s kunnen biases versterken die aanwezig zijn in de data waarop ze zijn getraind, wat leidt tot discriminerende of oneerlijke resultaten.
Het waarborgen van de eerlijkheid en verantwoordelijkheid van AI-systemen vereist zorgvuldige data-curatie, bias-detectie en mitigatietechnieken. Er is een groeiende behoefte aan experts op het gebied van ethiek en sociale impact om AI-ontwikkeling te begeleiden.
Regelgeving en standaarden
Het landschap van AI-regelgeving en standaarden is nog steeds in ontwikkeling. Regeringen en organisaties over de hele wereld worstelen ermee hoe ze AI effectief kunnen reguleren om innovatie te bevorderen en tegelijkertijd potentiële risico’s te beperken.
Het gebrek aan duidelijke regelgeving en standaarden kan onzekerheid creëren voor AI-ontwikkelaars en de adoptie van AI-technologieën belemmeren. Er zijn inspanningen nodig om wereldwijde en nationale consensus te bereiken over principes en richtlijnen voor verantwoorde AI-ontwikkeling en -inzet.
Het complexe interplay in de AI race
De rivaliteit tussen Meta en OpenAI toont aan hoe competitief de race om de AI-supermacht te worden is. Beide bedrijven investeren zwaar in onderzoek en ontwikkeling, maar ze hanteren verschillende strategieën. Meta is een voorstander van open-source modellen, terwijl OpenAI traditioneel propriëtaire modellen heeft nagestreefd.
De recente toenadering van OpenAI tot open-source komt voort uit de concurrentie van Meta, maar ook van de wens om collectieve expertise te benutten om de AI-ontwikkeling te bevorderen. De uitkomst van deze wedloop heeft verstrekkende gevolgen voor de toekomst van AI en haar impact op de samenleving.
De vertragingen die Meta met Behemoth ondervindt, benadrukken de uitdagingen voor de schaalvergroting en verbetering van LLM’s. De race om grotere en krachtigere modellen te bouwen zet de grenzen van de beschikbare data, algoritmen en computermiddelen op de proef. De uitdagingen waarmee zowel Meta als OpenAI worden geconfronteerd bewijzen dat het bereiken van echte AI-doorbraken aanhoudende innovatie, creativiteit en samenwerking vereist.
De druk op bedrijven als Meta om tastbare resultaten te laten zien van hun enorme AI-investeringen wordt intenser. Aandeelhouders en investeerders willen een rendement zien op hun investering, en er is een groeiende behoefte aan AI-producten en diensten die echte problemen kunnen oplossen en waarde kunnen creëren.
De beslissing van Meta om een releasedatum terug te trekken van Behemoth toont aan dat het bedrijf prioriteit geeft aan kwaliteit boven snelheid. Het op de markt brengen van een onvolmaakt of onvoldoende presterend model, zou de reputatie van Meta kunnen schaden, en het is beter om de release uit te stellen totdat het model klaar is.
De recente ontwikkelingen in de AI-ruimte onderstrepen het complexe en snel evoluerende landschap. Het potentieel voor vooruitgang en impact op verschillende industrieën en de maatschappij is immens. Naarmate modellen intelligenter en capabeler worden, zullen ethiek, regelgeving en maatschappelijke impact steeds meer in het middelpunt van de belangstelling staan.