Meta's Llama 2 gebruikt voor personeelsreductie

Een onverwachte onthulling geeft aan dat de initiatieven van het Department of Government Efficiency om het personeelsbestand van de federale overheid te stroomlijnen gebruik maakten van een ouder Meta AI model, namelijk Llama 2, in plaats van Elon Musks eigen AI-creatie, Grok.

De “Fork in the Road” Memo en de Rol van Llama 2

Volgens een onderzoek uitgevoerd door Wired, hebben aan Elon Musks DOGE (Department of Government Efficiency) gelieerde partijen, opererend binnen het Office of Personnel Management, Meta’s Llama 2 model ingezet om reacties van federale medewerkers op de controversiële “Fork in the Road” e-mail die eind januari over de hele overheid werd verspreid, nauwkeurig te analyseren en te categoriseren.

De “Fork in the Road” memo, die opvallend veel leek op een eerdere communicatie die Musk naar Twitter-medewerkers had gestuurd, presenteerde federale werknemers een keuze: “loyaliteit” tonen door het herziene terug-naar-kantoorbeleid van de overheid te accepteren, of ervoor kiezen om ontslag te nemen. Destijds gingen er geruchten dat DOGE AI inzette om gegevens van overheidsmedewerkers te verwerken. Bevestiging is sindsdien opgedoken, die het gebruik van Llama 2 om antwoorden van werknemers te sorteren en het aantal ontslagen te kwantificeren, bevestigt.

Llama 2’s Controversiële Verleden: Militaire Toepassingen en Meta’s Reactie

Llama 2’s geschiedenis is niet zonder controverse. In november gebruikten Chinese onderzoekers Llama 2 als de basis voor een AI-model dat door het Chinese leger werd gebruikt. Deze onthulling leidde tot een terugslag, wat Meta ertoe aanzette om aanvankelijk de “ongeautoriseerde” afhankelijkheid van de onderzoekers van een “enkel” en “verouderd” model te veroordelen. Meta heeft vervolgens echter zijn beleid, dat militaire toepassingen verbood, teruggedraaid en de toegang tot zijn AI-modellen voor Amerikaanse nationale veiligheidsdoeleinden verbreed.

Meta verklaarde publiekelijk dat het zich inzet om Llama toegankelijk te maken voor Amerikaanse overheidsinstanties, inclusief diegenen die betrokken zijn bij defensie- en nationale veiligheidstoepassingen, evenals private sector partners die hun inspanningen ondersteunen. Ze kondigden partnerschappen aan met bedrijven zoals Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI en Snowflake om de inzet van Llama binnen overheidsinstanties te faciliteren.

Wired suggereert dat de open-source aard van Meta’s modellen de overheid in staat stelt om ze gemakkelijk te gebruiken ter ondersteuning van Musks doelstellingen, mogelijk zonder expliciete toestemming van het bedrijf. Het identificeren van de omvang van de inzet van Meta’s modellen binnen de overheid blijft een uitdaging. De reden achter DOGE’s afhankelijkheid van Llama 2, met name gezien Meta’s ontwikkelingen met Llama 3 en 4, is onduidelijk.

Beperkte Kennis van DOGE’s Gebruik van Llama 2

Details over DOGE’s specifieke toepassing van Llama 2 blijven schaars. Wired’s onderzoek onthulde dat DOGE het model lokaal heeft ingezet, wat suggereert dat het onwaarschijnlijk is dat gegevens via internet zijn verzonden, waardoor de privacybezwaren van veel overheidsmedewerkers worden verzacht.

Bezorgdheid van het Congres en Oproepen tot Onderzoek

In een brief van april aan Russell Vought, directeur van het Office of Management and Budget, eisten meer dan 40 wetgevers een grondig onderzoek naar DOGE’s gebruik van AI. Ze uitten hun bezorgdheid dat dergelijk gebruik, samen met potentiële veiligheidsrisico’s, het succesvolle en passende gebruik van AI binnen de overheid zou kunnen ondermijnen.

De brief verwees specifiek naar een DOGE-medewerker en voormalig SpaceX-werknemer die naar verluidt Musks xAI Grok-2 model gebruikte om een “AI-assistent” te ontwikkelen. Het vermeldde ook het gebruik van een chatbot genaamd “GSAi”, gebaseerd op Anthropic en Meta modellen, om contract- en inkoopgegevens te analyseren. Daarnaast is DOGE in verband gebracht met software genaamd AutoRIF, die naar verluidt is ontworpen om massale ontslagen binnen de overheid te versnellen.

De wetgevers benadrukten “grote zorgen over de veiligheid” rond DOGE’s gebruik van “AI-systemen om e-mails te analyseren van een groot deel van het federale personeelsbestand van twee miljoen mensen die de prestaties van de voorgaande week beschrijven”, daarbij verwijzend naar een gebrek aan transparantie.

Deze e-mails volgden op de “Fork in the Road” e-mails, waarin werknemers in vijf opsommingstekens de wekelijkse prestaties schetsten. Medewerkers uitten hun bezorgdheid over de aard van de antwoorden, uit vrees dat DOGE mogelijk gevoelige informatie zou vragen zonder de juiste veiligheidsmachtigingen.

Wired kon niet definitief bevestigen of Llama 2 ook werd gebruikt om deze e-mailantwoorden te ontleden. Federale werknemers suggereerden echter aan Wired dat DOGE waarschijnlijk “hun code zou hergebruiken” van het “Fork in the Road” e-mailexperiment, als het een verstandige beslissing zou zijn.

Waarom Grok Niet Werd Gebruikt

De vraag rijst: waarom heeft DOGE Grok niet gebruikt?

De waarschijnlijke verklaring is dat Grok, als een propriëtair model op dat moment, in januari niet beschikbaar was voor DOGE’s taak. Volgens Wired kan DOGE in de toekomst meer afhankelijk worden van Grok, vooral gezien Microsofts aankondiging dat het deze week xAI’s Grok 3 modellen in zijn Azure AI Foundry zou gaan hosten, waardoor de potentiële toepassingen van het model worden uitgebreid.

Bezorgdheid van Wetgevers: Belangenconflicten en Datalekken

In hun brief drongen wetgevers er bij Vought op aan om mogelijke belangenconflicten met betrekking tot Musk te onderzoeken, terwijl ze ook waarschuwden voor mogelijke datalekken. Ze beweerden dat AI, zoals gebruikt door DOGE, nog niet geschikt was voor overheidsapplicaties.

Ze voerden aan dat “zonder de juiste bescherming het invoeren van gevoelige gegevens in een AI-systeem het in het bezit brengt van de operator van een systeem - een enorme schending van het vertrouwen van het publiek en de werknemer en een toename van de cyberveiligheidsrisico’s rond die gegevens.” Ze merkten verder op dat “generatieve AI-modellen ook vaak fouten maken en aanzienlijke vooroordelen vertonen - de technologie is gewoonweg niet klaar voor gebruik in besluitvorming met een hoog risico zonder de juiste controle, transparantie, toezicht en vangrails.”

Hoewel Wired’s rapport suggereert dat DOGE geen gevoelige gegevens van de “Fork in the Road” e-mails naar een externe bron heeft verzonden, pleiten wetgevers voor een robuustere controle van AI-systemen om “het risico van het delen van persoonlijk identificeerbare of anderszins gevoelige informatie met de implementeerders van het AI-model” te beperken.

Een overheersende zorg is dat Musk zijn eigen modellen in toenemende mate zou kunnen gebruiken, mogelijk profiterend van overheidsgegevens die niet toegankelijk zijn voor zijn concurrenten, terwijl hij die gegevens tegelijkertijd blootstelt aan lekrisico’s. Wetgevers hopen dat DOGE zal worden gedwongen zijn AI-systemen stop te zetten. Vought lijkt echter meer op één lijn te zitten met DOGE’s aanpak, zoals blijkt uit zijn AI-richtlijnen voor federaal gebruik, die agentschappen aanmoedigen om “barrières voor innovatie weg te nemen en de beste waarde voor de belastingbetaler te bieden.”

De brief van de wetgevers benadrukt dat “hoewel we de federale overheid steunen bij het integreren van nieuwe, goedgekeurde AI-technologieën die de efficiëntie of effectiviteit kunnen verbeteren, we de veiligheid, privacy en passende gebruiksnormen niet kunnen opofferen bij interactie met federale gegevens.” Ze stellen ook dat “we het gebruik van AI-systemen, vaak bekend om hallucinaties en bias, niet kunnen goedkeuren bij beslissingen over beëindiging van federale tewerkstelling of federale financiering zonder voldoende transparantie en toezicht op die modellen - het risico van het verliezen van talent en kritisch onderzoek vanwege gebrekkige technologie of gebrekkig gebruik van dergelijke technologie is simpelweg te groot.”

Diepgaande Analyse van de Implicaties van AI-Gebruik in Overheidsefficiëntie-initiatieven

De zich ontvouwende saga van het gebruik van kunstmatige intelligentie door het Department of Government Efficiency (DOGE) in zijn operationele stroomlijningspogingen heeft een storm van debat en controle ontketend. De onthulling dat het agentschap leunde op Meta’s Llama 2-model - een open-source AI - in plaats van Elon Musks propriëtaire Grok AI heeft een extra complexiteit aan een toch al ingewikkeld verhaal toegevoegd. Deze situatie vereist een diepgaande analyse van de veelzijdige implicaties van het integreren van AI in overheidsoperaties, waarbij de inherente voordelen en risico’s, de ethische overwegingen en het potentieel voor belangenconflicten worden onderzocht.

De Aantrekkingskracht en Valkuilen van AI in de Overheid

De integratie van AI in overheidsfuncties belooft transformerende verbeteringen in efficiëntie, data-analyse en besluitvorming. Van het automatiseren van routinetaken tot het doorzoeken van enorme datasets, AI heeft het potentieel om ongekende niveaus van productiviteit te ontsluiten en de levering van openbare diensten te verbeteren. Stel je algoritmen voor die infrastructurele storingen kunnen voorspellen, onderwijs kunnen personaliseren of de toewijzing van middelen in rampenbestrijdingsinspanningen kunnen optimaliseren. De mogelijkheden zijn schijnbaar eindeloos.

Deze technologische revolutie is echter niet zonder gevaren. De afhankelijkheid van AI-systemen introduceert een complex web van ethische dilemma’s, beveiligingskwetsbaarheden en potentiële biases. AI-modellen worden getraind op basis van data, en als die data maatschappelijke vooroordelen weerspiegelt, zal de AI die biases bestendigen en zelfs versterken. Dit vormt een aanzienlijke bedreiging voor eerlijkheid en gelijkheid in overheidsdiensten, wat mogelijk leidt tot discrimerende uitkomsten op gebieden als wetshandhaving, sociale zekerheid en onderwijs.

Bovendien roept het gebruik van AI diepgaande vragen op over transparantie en verantwoordingsplicht. Wanneer beslissingen worden genomen door algoritmen, wordt het moeilijk om de achterliggende gedachtegang van die beslissingen te begrijpen, waardoor het moeilijk wordt om overheidsinstanties verantwoordelijk te houden voor hun acties.

Het Llama 2 vs. Grok Raadsel

De keuze voor Llama 2 boven Grok brengt zijn eigen reeks overwegingen met zich mee. Llama 2’s open-source aard maakt het gemakkelijk toegankelijk en aanpasbaar, waardoor overheidsinstanties het kunnen aanpassen aan hun specifieke behoeften zonder opgesloten te zitten in een propriëtair ecosysteem. Dit betekent echter ook dat het de toegewijde ondersteuning en het onderhoud mist die doorgaans bij propriëtaire AI-oplossingen horen.

Aan de andere kant biedt Grok, als een propriëtaire AI, de belofte van geavanceerde prestaties en gespecialiseerde expertise. Het roept echter ook zorgen op over mogelijke vendor lock-in, dataprivacy en bias die voortkomt uit de trainingsdata van de AI. Het benadrukt zorgen over het potentieel voor elke private entiteit, met name een die verbonden is aan een spraakmakend figuur die nauw verbonden is met de doelstellingen van de overheid, om ongepaste invloed uit te oefenen op de besluitvormingsprocessen.

Het Spook van Belangenconflicten

De betrokkenheid van Elon Musks entiteiten (SpaceX en xAI) bij overheids-AI-initiatieven roept het spook van belangenconflicten op. Als een prominent figuur met gevestigde belangen in verschillende sectoren, roept Musks betrokkenheid vragen op over de potentiële invloed die hij zou kunnen uitoefenen op het overheidsbeleid en de toekenning van contracten.

Zou de overheid Musks bedrijven een voorkeursbehandeling geven? Zijn er voldoende waarborgen getroffen om ervoor te zorgen dat beslissingen onpartijdig en in het beste belang van het publiek worden genomen? Dit zijn legitieme vragen die een rigoureuze controle vereisen.

Gegevensbeveiliging en Privacybezwaren

Het gebruik van AI in overheidsoperaties omvat onvermijdelijk het verzamelen, opslaan en verwerken van gevoelige gegevens van burgers. Dit creëert een verleidelijk doelwit voor cyberaanvallen en datalekken. De overheid moet robuuste beveiligingsmaatregelen implementeren om deze gegevens te beschermen tegen ongeoorloofde toegang en misbruik. Dit omvat niet alleen het beschermen van de gegevens tegen externe bedreigingen, maar ook het instellen van strikte toegangscontroles en verantwoordingsmechanismen om misbruik door insiders te voorkomen.

De zorgen over dataprivacy worden versterkt door de ondoorzichtige aard van AI-algoritmen. Burgers hebben vaak geen idee hoe hun gegevens worden verwerkt of gebruikt om beslissingen te nemen die hun leven beïnvloeden. Dit gebrek aan transparantie ondermijnt het vertrouwen in de overheid en kan leiden tot weerstand tegen AI-gedreven initiatieven.

De Implicaties voor de Toekomst van de Overheid

Het debat over DOGE’s gebruik van AI gaat niet alleen over een specifiek geval, maar over de bredere toekomst van de overheid in het tijdperk van kunstmatige intelligentie. Hoe kan de overheid de kracht van AI benutten om openbare diensten te verbeteren en tegelijkertijd de risico’s te beperken? Hoe kunnen we ervoor zorgen dat AI ethisch, transparant en verantwoordelijk wordt gebruikt?

De antwoorden op deze vragen vereisen een veelzijdige aanpak:

  • Stel Duidelijke Ethische Richtlijnen Vast: Codeer een duidelijke reeks ethische principes die het gebruik van AI in de overheid regelen. Deze principes moeten eerlijkheid, transparantie, verantwoordingsplicht en respect voor privacy prioriteren.

  • Bevorder Transparantie en Openheid: Maak AI-algoritmen en besluitvormingsprocessen transparanter. Publiceer rapporten waarin wordt beschreven hoe AI in de overheid wordt gebruikt en biedt burgers mogelijkheden om feedback te geven.

  • Waarborg Gegevensbeveiliging: Implementeer robuuste beveiligingsmaatregelen om gevoelige burgergegevens te beschermen tegen cyberdreigingen en misbruik door insiders.

  • Zorg voor Verantwoordingsplicht: Stel duidelijke lijnen vast voor de verantwoordingsplicht voor AI-gedreven beslissingen. Wijs overheidsfunctionarissen aan die verantwoordelijk zijn voor het toezicht op het gebruik van AI en het aanpakken van eventuele problemen die zich kunnen voordoen.

  • Cultiveer Openbaar Vertrouwen: Licht het publiek in over de voordelen en risico’s van AI in de overheid. Communiceer met burgers om hun zorgen weg te nemen en vertrouwen op te bouwen in het verantwoordelijke gebruik van deze technologie.

Door een proactieve en doordachte aanpak te omarmen, kan de overheid de transformerende kracht van AI benutten en tegelijkertijd het openbaar belang beschermen. De DOGE-controverse dient als een waardevolle herinnering aan het belang van zorgvuldige planning, open dialoog en een toewijding aan ethische principes in het tijdperk van kunstmatige intelligentie.

Het Zich Ontvouwende Verhaal

Het drama rond DOGE’s AI-gebruik is nog lang niet voorbij. Naarmate onderzoeken doorgaan en meer details opduiken, zal het incident ongetwijfeld gevolgen hebben voor de toekomstige inzet van AI binnen de overheid. Hopelijk zal deze situatie leiden tot een meer weloverwogen integratie van technologie.