Meta Llama 4 op OCI: Een Krachtige Lancering

De Oracle Cloud Infrastructure (OCI) Generative AI-service verwelkomt een spannende nieuwe toevoeging: de Meta Llama 4-modelreeks, waaronder Scout en Maverick. Deze modellen bevatten een unieke Mixture of Experts (MoE)-architectuur, wat de verwerkingskracht en efficiëntie aanzienlijk verbetert. Ze zijn speciaal geoptimaliseerd om uit te blinken op verschillende gebieden, zoals multimodaal begrip, meertalige taken, codegeneratie en tool calling, en kunnen geavanceerde agentsystemen aandrijven.

Momenteel zijn deze modellen beschikbaar in de General Availability (GA)-versie in de volgende regio’s:

  • On-demand: ORD (Chicago)
  • Dedicated AI Clusters: ORD (Chicago), GRU (Guarulhos), LHR (Londen), KIK (Kikuyu)

Belangrijkste Hoogtepunten van de Llama 4-reeks

Multimodale mogelijkheden: De grenzen van gegevenstypes doorbreken

Llama 4 Scout en Maverick zijn niet alleen taalmodellen, ze zijn echte multimodale meesters. Ze kunnen verschillende soorten gegevens, waaronder tekst en afbeeldingen, native verwerken en integreren, waardoor rijkere en uitgebreidere AI-toepassingen mogelijk worden. Stel je een AI-systeem voor dat tegelijkertijd een tekstbeschrijving en een gerelateerde afbeelding kan begrijpen, waardoor het de context beter kan begrijpen en intelligentere beslissingen kan nemen. Deze multimodale mogelijkheid opent geheel nieuwe mogelijkheden voor taken zoals het genereren van afbeeldingstitels en visuele vraag-en-antwoordsystemen.

Meertalige ondersteuning: Communicatie zonder grenzen

Een ander hoogtepunt van de Llama 4-reeks is de krachtige meertalige ondersteuning. Deze modellen zijn getraind op een dataset met 200 talen en zijn afgestemd op 12 belangrijke talen (Arabisch, Engels, Frans, Duits, Hindi, Indonesisch, Italiaans, Portugees, Spaans, Tagalog, Thais en Vietnamees). Dit betekent dat ze tekst in meerdere talen kunnen begrijpen en genereren, waardoor deuren worden geopend voor wereldwijde toepassingen. Het is belangrijk op te merken dat de functionaliteit voor het begrijpen van afbeeldingen momenteel alleen Engels ondersteunt.

Efficiënte ontwikkeling: Kleinere GPU-footprint

Voor ontwikkelaars is de Llama 4 Scout ontworpen om een hogere toegankelijkheid te bieden. Het kan efficiënt draaien op een kleinere GPU-footprint, waardoor het een ideale keuze is in omgevingen met beperkte middelen. Dit betekent dat zelfs zonder krachtige hardware-apparatuur, ontwikkelaars de krachtige mogelijkheden van Llama 4 Scout kunnen benutten om de ontwikkeling en implementatie van AI-toepassingen te versnellen.

Open-source modellen: De gemeenschap empoweren

Meta heeft gekozen voor een open benadering en heeft beide modellen vrijgegeven onder de Llama 4 Community License. Dit betekent dat ontwikkelaars ze vrij kunnen finetunen en implementeren, zolang ze zich houden aan bepaalde licentievoorwaarden. Dit open model bevordert innovatie en samenwerking binnen de AI-gemeenschap, waardoor meer mensen kunnen deelnemen aan de ontwikkeling en toepassing van AI-technologieën.

Kennis cutoff datum

Het is belangrijk op te merken dat de kennis cutoff datum voor de Llama 4-modellen augustus 2024 is. Dit betekent dat ze mogelijk geen actuele informatie kunnen verstrekken over gebeurtenissen of informatie die na deze datum heeft plaatsgevonden.

Belangrijke opmerking: Het Llama Acceptable Use Policy beperkt het gebruik ervan binnen de Europese Unie (EU).

Llama 4 Scout: Een lichtgewicht kampioen

Architectuur: Slim parameterontwerp

Llama 4 Scout maakt gebruik van een slim architectuurontwerp, waarbij slechts 17 miljard van de in totaal ongeveer 109 miljard parameters worden geactiveerd. Dit ontwerp maakt gebruik van een mix van 16 experts, wat een goede balans biedt tussen prestaties en efficiëntie. Door slechts een deel van de parameters te activeren, kan Scout de rekenbehoeften aanzienlijk verminderen, waardoor het kan draaien in omgevingen met beperkte middelen.

Contextvenster: Vermogen om lange teksten te verwerken

Llama 4 Scout ondersteunt een contextlengte van maximaal 10 miljoen tokens (meerdere GPU’s vereist). Tijdens de General Availability (GA) zal de OCI Generative AI-service echter een contextlengte van 192k tokens ondersteunen. Zelfs een contextvenster van 192k is voldoende om vrij lange teksten te verwerken, zoals hoofdstukken van boeken of gedetailleerde rapporten.

Implementatie: Compact en krachtig

Een van de ontwerpdoelen van Llama 4 Scout is om efficiënt te draaien op een kleinere GPU-footprint. Dit maakt het een ideale keuze voor diverse implementatiescenario’s, waaronder edge-apparaten en cloudomgevingen met beperkte middelen.

Prestaties: Beter dan concurrenten

Llama 4 Scout presteert uitstekend in verschillende benchmarks en overtreft modellen zoals Google’s Gemma 3 en Mistral 3.1. Dit bewijst de superieure mogelijkheden van Scout op het gebied van prestaties, waardoor het een krachtig hulpmiddel is voor diverse AI-taken.

Llama 4 Maverick: Een zwaargewicht

Architectuur: Grotere schaal, meer kracht

In vergelijking met Scout maakt Llama 4 Maverick gebruik van een grotere architectuurschaal. Het activeert ook 17 miljard parameters, maar dit gebeurt binnen een groter kader van ongeveer 400 miljard parameters, waarbij gebruik wordt gemaakt van 128 experts. Deze grotere schaal geeft Maverick meer kracht, waardoor het kan uitblinken in complexere AI-taken.

Contextvenster: Ultralang geheugen

Llama 4 Maverick ondersteunt een contextlengte van maximaal 1 miljoen tokens. Tijdens de General Availability (GA) zal de OCI-implementatie een contextlengte van 512k tokens ondersteunen. Zo’n lange contextvenster stelt Maverick in staat om uiterst complexe teksten te verwerken, zoals complete boeken of verzamelingen van meerdere documenten.

Implementatie: Meer ruimte nodig

Vanwege de grotere schaal vereist Llama 4 Maverick meer implementatieruimte dan Scout. Tijdens GA zal de Maverick-implementatie op OCI ongeveer het dubbele van de ruimte van Scout vereisen.

Prestaties: Vergelijkbaar met topmodellen

In code-generatie en redeneertaken zijn de prestaties van Llama 4 Maverick vergelijkbaar met topmodellen zoals OpenAI’s GPT-4o en DeepSeek-V3. Dit bewijst de leidende positie van Maverick op het gebied van AI.

Al met al vertegenwoordigt de Llama 4-reeks een belangrijke stap voorwaarts in de ontwikkeling van AI-modellen. Ze bieden aanzienlijke verbeteringen in prestaties, veelzijdigheid en toegankelijkheid, waardoor ze krachtige ondersteuning bieden voor diverse toepassingsscenario’s.

OCI-klanten kunnen nu eenvoudig gebruikmaken van deze krachtige modellen, zonder zich zorgen te hoeven maken over de complexiteit van infrastructuurbeheer. Ze kunnen deze modellen benaderen via een chatinterface, API of dedicated endpoints, waardoor het ontwikkelings- en implementatieproces van AI-toepassingen wordt vereenvoudigd.

De release van de Llama 4-modellen markeert een nieuw tijdperk voor de OCI Generative AI-service. Door deze geavanceerde modellen aan te bieden, helpt OCI klanten het volledige potentieel van AI te ontsluiten en innovatie in verschillende industrieën te stimuleren.