De Grote AI 'Open Source' Maskerade: Gekaapt Ideaal

De term ‘open source’ resoneerde ooit met een zekere helderheid, een belofte van gedeelde kennis en collaboratieve vooruitgang die talloze wetenschappelijke en technologische sprongen voorwaarts heeft gestuwd. Het riep beelden op van gemeenschappen die samen bouwden, elkaars werk controleerden en op de schouders van reuzen stonden omdat de blauwdrukken vrij beschikbaar waren. Nu, navigerend door het landschap van Kunstmatige Intelligentie (AI), voelt die term steeds… glibberiger. Zoals benadrukt in de pagina’s van Nature en gefluisterd in laboratoria en bestuurskamers, hullen een zorgwekkend aantal spelers in de AI-goudkoorts hun creaties in de mantel van ‘open source’, terwijl ze de werkelijk kritieke componenten achter slot en grendel houden. Dit is niet zomaar een semantische haarkloverij; het is een praktijk die knaagt aan de fundamenten van wetenschappelijke integriteit en dreigt het pad van toekomstige innovatie te verduisteren. De onderzoeksgemeenschap, juist de groep die het meest te winnen of te verliezen heeft, moet deze schertsvertoning herkennen voor wat het is en krachtig pleiten voor AI-systemen die werkelijk de principes van transparantie en reproduceerbaarheid belichamen waar we al zo lang op vertrouwen.

De Gouden Eeuw van Openheid: Een Erfenis onder Druk

Decennialang is de open-sourcebeweging een onbezongen held van wetenschappelijke vooruitgang geweest. Denk verder dan de bekende tools zoals R Studio voor statistische tovenarij of OpenFOAM voor het modelleren van vloeistofdynamica. Beschouw de fundamentele systemen zoals Linux, die enorme delen van het internet en wetenschappelijke computerclusters aandrijven, of de Apache webserver, een testament aan collaboratieve softwareontwikkeling. De filosofie was eenvoudig: bied toegang tot de broncode, sta aanpassing en herdistributie toe onder permissieve licenties, en bevorder een wereldwijd ecosysteem waar verbeteringen iedereen ten goede komen.

Dit was geen louter altruïsme; het was pragmatisch genie. Openheid versnelde ontdekkingen. Onderzoekers konden experimenten repliceren, bevindingen valideren en voortbouwen op bestaand werk zonder het wiel opnieuw uit te vinden of door ondoorzichtige propriëtaire systemen te navigeren. Het bevorderde vertrouwen, aangezien de interne werking beschikbaar was voor inspectie, waardoor bugs collectief gevonden en verholpen konden worden. Het democratiseerde toegang, waardoor wetenschappers en ontwikkelaars wereldwijd, ongeacht institutionele affiliatie of budget, konden deelnemen aan baanbrekend werk. Deze collaboratieve geest, gebouwd op gedeelde toegang en wederzijdse controle, raakte diep verankerd in de wetenschappelijke methode zelf, zorgde voor robuustheid en bevorderde snelle vooruitgang in diverse velden. Juist het vermogen om de gebruikte tools te ontleden, te begrijpen en aan te passen was van het grootste belang. Het ging niet alleen om het gebruiken van de software; het ging om het begrijpen hoe het werkte, het waarborgen van de geschiktheid voor een specifieke wetenschappelijke taak, en het bijdragen aan de collectieve kennispool. Deze deugdzame cirkel dreef innovatie aan met een ongekende snelheid.

AI’s Data-afhankelijkheid: Waarom ‘Code Is Koning’ Tekortschiet

Betreed het tijdperk van grootschalige Kunstmatige Intelligentie, met name de fundamentele modellen die zoveel aandacht en investeringen trekken. Hier stuit het traditionele open-source paradigma, voornamelijk gericht op broncode, op een fundamentele mismatch. Hoewel de algoritmen en code die gebruikt worden om een AI-model te bouwen zeker deel uitmaken van het plaatje, zijn ze verre van het hele verhaal. Moderne AI, vooral deep learning-modellen, zijn vraatzuchtige consumenten van data. De trainingsdata zijn niet slechts een input; ze zijn aantoonbaar de primaire bepalende factor voor de capaciteiten, vooroordelen en beperkingen van het model.

Het vrijgeven van de code van het model, of zelfs de uiteindelijke getrainde parameters (de ‘gewichten’), zonder betekenisvolle toegang tot of gedetailleerde informatie over de kolossale datasets die voor training zijn gebruikt, is als iemand de sleutels van een auto geven maar weigeren te vertellen welk type brandstof het nodig heeft, waar ermee gereden is, of hoe de motor daadwerkelijk is geassembleerd. Je kunt er misschien mee rijden, maar je hebt beperkte mogelijkheden om de prestatie-eigenaardigheden te begrijpen, potentiële problemen te diagnosticeren of het betrouwbaar aan te passen voor nieuwe reizen.

Bovendien zijn de computationele middelen die nodig zijn om deze modellen vanaf nul te trainen immens, vaak oplopend tot miljoenen dollars voor een enkele trainingsrun. Dit creëert een andere barrière. Zelfs als de code en data volledig beschikbaar waren, bezitten slechts een handvol organisaties de infrastructuur om het trainingsproces te repliceren. Deze realiteit verandert de dynamiek fundamenteel in vergelijking met traditionele software, waar het compileren van code doorgaans binnen het bereik van de meeste ontwikkelaars of onderzoekers ligt. Voor AI blijven echte reproduceerbaarheid en de mogelijkheid om te experimenteren door opnieuw te trainen vaak ongrijpbaar, zelfs wanneer componenten als ‘open’ worden bestempeld. Daarom dekt het simpelweg toepassen van oude open-source definities, bedacht voor code, niet de noodzakelijkheden van dit nieuwe, data-centrische en rekenintensieve domein.

‘Openwashing’: Een Wolf in Schaapskleren

Deze kloof tussen traditionele open-source concepten en de realiteit van AI-ontwikkeling heeft vruchtbare grond gecreëerd voor een fenomeen dat bekend staat als ‘openwashing’. Bedrijven plakken gretig het ‘open source’-label op hun AI-modellen, profiterend van de public relations-voordelen en goodwill die met de term geassocieerd worden, terwijl ze licenties of toegangsbeperkingen hanteren die de geest, zo niet de strikte (en aantoonbaar verouderde) letter, van echte openheid verraden.

Hoe ziet dit er in de praktijk uit?

  • Code Vrijgeven zonder Data: Een bedrijf kan de architectuurcode van het model vrijgeven en misschien zelfs de vooraf getrainde gewichten, waardoor anderen het model ‘as is’ kunnen gebruiken of het kunnen fine-tunen op kleinere datasets. Echter, de massale, fundamentele trainingsdataset – de geheime saus die de kerncapaciteiten van het model definieert – blijft propriëtair en verborgen.
  • Restrictieve Licenties: Modellen kunnen worden vrijgegeven onder licenties die op het eerste gezicht open lijken, maar clausules bevatten die commercieel gebruik beperken, implementatie in bepaalde scenario’s beperken, of specifieke soorten aanpassing of analyse verbieden. Deze beperkingen druisen in tegen de vrijheden die doorgaans geassocieerd worden met open-source software.
  • Ambiguë Data-openbaarmaking: In plaats van gedetailleerde informatie over databronnen, verzamelmethoden, schoonmaakprocessen en potentiële vooroordelen, kunnen bedrijven vage beschrijvingen bieden of cruciale details helemaal weglaten. Dit gebrek aan ‘data-transparantie’ maakt het onmogelijk om de betrouwbaarheid of ethische implicaties van het model volledig te beoordelen.

Waarom zich bezighouden met dergelijke praktijken? De motivaties zijn waarschijnlijk divers. De positieve connotaties van ‘open source’ zijn onmiskenbaar waardevol voor het aantrekken van talent, het opbouwen van ontwikkelaarsgemeenschappen (zelfs als deze beperkt zijn) en het genereren van gunstige pers. Cynischer gezien, zoals Nature suggereert, kunnen er regelgevende prikkels zijn. De uitgebreide AI Act van de Europese Unie uit 2024 bevat bijvoorbeeld potentiële vrijstellingen of lichtere eisen voor systemen die als open source zijn geclassificeerd. Door het label strategisch te gebruiken, hopen sommige bedrijven mogelijk complexe regelgevingslandschappen met minder frictie te navigeren, en mogelijk de controle te omzeilen die bedoeld is voor krachtige, algemeen inzetbare AI-systemen. Deze strategische branding-oefening exploiteert de historische goodwill van de open-source beweging, terwijl het mogelijk inspanningen ondermijnt om een verantwoorde AI-implementatie te waarborgen.

Een Spectrum van Openheid: De Exponaten Onderzoeken

Het is cruciaal om te erkennen dat openheid in AI niet noodzakelijkerwijs een binaire staat is; het bestaat op een spectrum. Echter, de huidige etiketteringspraktijken verdoezelen vaak waar een bepaald model zich werkelijk op dat spectrum bevindt.

Beschouw enkele prominente voorbeelden die vaak in deze context worden besproken:

  • Meta’s Llama Serie: Hoewel Meta de gewichten en code voor Llama-modellen vrijgaf, was toegang aanvankelijk op aanvraag, en de licentie bevatte beperkingen, met name betreffende gebruik door zeer grote bedrijven en specifieke toepassingen. Cruciaal was dat de onderliggende trainingsdata niet werden vrijgegeven, wat volledige reproduceerbaarheid en diepgaande analyse van de kenmerken beperkte. Hoewel latere versies de voorwaarden hebben aangepast, blijft het kernprobleem van data-opaciteit vaak bestaan.
  • Microsoft’s Phi-2: Microsoft presenteerde Phi-2 als een ‘open-source’ klein taalmodel. Hoewel de modelgewichten beschikbaar zijn, heeft de licentie specifieke gebruiksbeperkingen, en gedetailleerde informatie over de trainingsdataset, cruciaal voor het begrijpen van de capaciteiten en potentiële vooroordelen (vooral gezien de training op ‘synthetische’ data), is niet volledig transparant.
  • Mistral AI’s Mixtral: Dit model, uitgebracht door een prominente Europese AI-startup, kreeg aandacht vanwege zijn prestaties. Hoewel componenten werden vrijgegeven onder een permissieve Apache 2.0-licentie (een echt open licentie voor de code/gewichten), blijft volledige transparantie over de samenstelling en curatie van de trainingsdata beperkt, wat diepgaande wetenschappelijke controle belemmert.

Contrasteer deze met initiatieven die streven naar grotere afstemming op traditionele open-source principes:

  • Allen Institute for AI’s OLMo: Dit project was expliciet gericht op het bouwen van een echt open taalmodel, waarbij prioriteit werd gegeven aan het vrijgeven van niet alleen de modelgewichten en code, maar ook de trainingsdata (de Dolma dataset) en de gedetailleerde trainingslogs. Deze toewijding maakt een ongekend niveau van reproduceerbaarheid en analyse door de bredere onderzoeksgemeenschap mogelijk.
  • LLM360’s CrystalCoder: Deze door de gemeenschap gedreven inspanning benadrukt eveneens het vrijgeven van alle componenten van de levenscyclus van modelontwikkeling, inclusief tussentijdse checkpoints en gedetailleerde documentatie over de data en het trainingsproces, wat een niveau van transparantie bevordert dat vaak ontbreekt bij bedrijfsreleases.

Deze contrasterende voorbeelden benadrukken dat echte openheid in AI mogelijk is, maar het vereist een bewuste toewijding die verder gaat dan alleen het vrijgeven van code of gewichten. Het vereist transparantie over de data en het proces, en het omarmen van de controle die daarmee gepaard gaat. De huidige ambiguïteit die door ‘openwashing’ wordt bevorderd, maakt het moeilijker voor onderzoekers om te onderscheiden welke tools echt open wetenschappelijk onderzoek ondersteunen.

De Corrosie van Vertrouwen: Wetenschappelijke Integriteit op het Spel

De implicaties van deze wijdverspreide ‘openwashing’ reiken veel verder dan louter branding. Wanneer onderzoekers vertrouwen op AI-modellen waarvan de interne werking, met name de data waarop ze zijn getraind, ondoorzichtig is, raakt dit het hart van de wetenschappelijke methodologie.

  • Reproduceerbaarheid Ondermijnd: Een hoeksteen van wetenschappelijke validiteit is het vermogen van onafhankelijke onderzoekers om resultaten te reproduceren. Als de trainingsdata en exacte trainingsmethodologieën onbekend zijn, wordt echte replicatie onmogelijk. Onderzoekers kunnen een vooraf getraind model gebruiken, maar ze kunnen de constructie ervan niet verifiëren of de fundamentele eigenschappen ervan, afgeleid van de verborgen data, onderzoeken.
  • Verificatie Belemmerd: Hoe kunnen wetenschappers de output van een model vertrouwen als ze de data waarvan het heeft geleerd niet kunnen inspecteren? Verborgen vooroordelen, onnauwkeurigheden of ethische bezwaren ingebed in de trainingsdata zullen onvermijdelijk manifesteren in het gedrag van het model, maar zonder transparantie zijn deze gebreken moeilijk te detecteren, diagnosticeren of mitigeren. Het gebruik van dergelijke black boxes voor wetenschappelijke ontdekkingen introduceert een onaanvaardbaar niveau van onzekerheid.
  • Innovatie Verstikt: Wetenschap vordert door voort te bouwen op eerder werk. Als fundamentele modellen worden vrijgegeven met beperkingen of zonder de noodzakelijke transparantie (vooral met betrekking tot data), belemmert dit het vermogen van anderen om te innoveren, te experimenteren met alternatieve trainingsregimes, of de modellen aan te passen voor nieuwe wetenschappelijke toepassingen op manieren die de oorspronkelijke makers misschien niet hadden voorzien. Vooruitgang wordt beperkt door de aanbieders van deze semi-ondoorzichtige systemen.

De afhankelijkheid van gesloten of gedeeltelijk gesloten bedrijfssystemen dwingt onderzoekers in een passieve consumentenrol in plaats van actieve deelnemers en innovators. Het riskeert een toekomst te creëren waarin kritieke wetenschappelijke infrastructuur wordt gecontroleerd door een paar grote entiteiten, die mogelijk commerciële belangen prioriteren boven de behoeften van open wetenschappelijk onderzoek. Deze erosie van transparantie vertaalt zich direct in een erosie van vertrouwen in de tools die modern onderzoek ondersteunen.

Marktconcentratie en het Remmende Effect op Innovatie

Naast de directe impact op de wetenschappelijke praktijk, heeft de prevalentie van nep-open source in AI significante economische en marktgevolgen. De ontwikkeling van grote fundamentele modellen vereist niet alleen aanzienlijke expertise, maar ook toegang tot enorme datasets en enorme rekenkracht – middelen die onevenredig in handen zijn van grote technologiebedrijven.

Wanneer deze bedrijven modellen uitbrengen onder een ‘open source’-vlag maar de controle behouden over de cruciale trainingsdata of restrictieve licenties opleggen, creëert dit een ongelijk speelveld.

  • Toetredingsdrempels: Startups en kleinere onderzoekslaboratoria missen de middelen om vergelijkbare fundamentele modellen vanaf nul te creëren. Als de zogenaamd ‘open’ modellen die door gevestigde partijen worden uitgebracht, voorwaarden bevatten (zoals beperkingen op commercieel gebruik of data-opaciteit die diepgaande aanpassing verhindert), beperkt dit het vermogen van deze kleinere spelers om effectief te concurreren of echt innovatieve toepassingen te bouwen.
  • Verankering van Gevestigde Partijen: ‘Openwashing’ kan dienen als een strategische slotgracht. Door modellen uit te brengen die nuttig maar niet echt open zijn, kunnen grote bedrijven ecosystemen bevorderen die afhankelijk zijn van hun technologie, terwijl ze voorkomen dat concurrenten hun kernactiva (de data en verfijnde trainingsprocessen) volledig repliceren of significant verbeteren. Het lijkt op openheid, maar functioneert meer als een gecontroleerde platformstrategie.
  • Verminderde Diversiteit van Benaderingen: Als innovatie te afhankelijk wordt van een paar dominante, semi-ondoorzichtige fundamentele modellen, kan dit leiden tot een homogenisering van AI-ontwikkeling, waarbij mogelijk alternatieve architecturen, trainingsparadigma’s of datastrategieën over het hoofd worden gezien die kleinere, onafhankelijke groepen zouden kunnen verkennen als het veld echt open was.

Echte open source is historisch gezien een krachtige motor geweest voor concurrentie en gedistribueerde innovatie. De huidige trend in AI dreigt de macht te concentreren en juist de dynamiek te verstikken die open samenwerking beoogt te bevorderen, wat mogelijk leidt tot een minder levendig en meer centraal gecontroleerd AI-landschap.

Regelgevende Blinde Vlekken en het Ethische Koorddansen

Het potentieel voor ‘openwashing’ om regelgevende mazen in de wet te exploiteren, met name met betrekking tot kaders zoals de EU AI Act, verdient nadere beschouwing. Deze wet beoogt risicogebaseerde regelgeving voor AI-systemen vast te stellen, waarbij strengere eisen worden gesteld aan toepassingen met een hoog risico. Vrijstellingen of lichtere verplichtingen voor open-source AI zijn bedoeld om innovatie te bevorderen en te voorkomen dat de open-source gemeenschap overbelast raakt.

Echter, als bedrijven met succes de ‘open source’-mantel kunnen claimen voor modellen die echte transparantie missen (vooral met betrekking tot data en training), kunnen ze belangrijke waarborgen omzeilen. Dit roept kritische vragen op:

  • Betekenisvolle Controle: Kunnen regelgevers de risico’s van een krachtig AI-model adequaat beoordelen als de trainingsdata – een belangrijke bepalende factor voor het gedrag en potentiële vooroordelen – verborgen blijven? Verkeerde etikettering zou potentieel risicovolle systemen met minder toezicht dan bedoeld kunnen laten opereren.
  • Verantwoordelijkheidslacunes: Wanneer dingen misgaan – als een model schadelijke vooroordelen vertoont of gevaarlijke output produceert – wie is dan verantwoordelijk als de onderliggende data en het trainingsproces ondoorzichtig zijn? Echte openheid faciliteert onderzoek en verantwoording; ‘openwashing’ verdoezelt het.
  • Ethisch Bestuur: Het verantwoord inzetten van AI vereist begrip van de beperkingen en potentiële maatschappelijke gevolgen. Dit begrip wordt fundamenteel ondermijnd wanneer kerncomponenten zoals trainingsdata geheim worden gehouden. Het maakt onafhankelijke audits, bias-beoordelingen en ethische reviews aanzienlijk uitdagender, zo niet onmogelijk.

Het strategisch gebruik van het ‘open source’-label om regelgeving te navigeren is niet alleen een juridische manoeuvre; het heeft diepgaande ethische implicaties. Het riskeert het ondermijnen van publiek vertrouwen en het belemmeren van inspanningen om ervoor te zorgen dat AI-ontwikkeling op een veilige, eerlijke en verantwoordelijke manier verloopt. Ervoor zorgen dat regelgevende definities van ‘open source AI’ overeenkomen met principes van echte transparantie is daarom van het grootste belang.

Een Koers Uitzetten Naar Echte AI Openheid

Gelukkig luiden de alarmbellen, en worden er inspanningen ondernomen om de betekenis van ‘open source’ terug te winnen in het tijdperk van AI. De Open Source Initiative (OSI), een langdurige hoeder van open-source definities, heeft een wereldwijd consultatieproces geleid om duidelijke standaarden voor Open Source AI vast te stellen (resulterend in de OSAID 1.0 definitie).

Een belangrijke innovatie in deze inspanning is het concept van ‘data-informatie’. Erkennend dat het vrijgeven van massale ruwe datasets in sommige gevallen juridisch of logistiek onhaalbaar kan zijn (vanwege privacy, auteursrecht of pure schaal), benadrukt het OSAID-raamwerk de noodzaak van uitgebreide openbaarmaking over de data. Dit omvat details over:

  • Bronnen: Waar kwamen de data vandaan?
  • Kenmerken: Wat voor soort data is het (tekst, afbeeldingen, code)? Wat zijn de statistische eigenschappen?
  • Voorbereiding: Hoe werden de data verzameld, gefilterd, schoongemaakt en voorbewerkt? Welke stappen zijn genomen om bias te verminderen?

Dit niveau van transparantie, zelfs zonder de ruwe data zelf, biedt cruciale context voor onderzoekers om de waarschijnlijke capaciteiten, beperkingen en potentiële vooroordelen van een model te begrijpen. Het vertegenwoordigt een pragmatisch compromis, dat aandringt op maximale transparantie binnen bestaande beperkingen. Naast OSI pleiten organisaties zoals Open Future voor een bredere verschuiving naar een ‘data-commons’-model, waarbij manieren worden onderzocht om gedeelde, ethisch verantwoorde en openlijk toegankelijke datasets voor AI-training te creëren, waardoor toetredingsdrempels verder worden verlaagd en collaboratieve ontwikkeling wordt bevorderd. Het vaststellen en naleven van dergelijke duidelijke, door de gemeenschap getoetste standaarden is de essentiële eerste stap om de mist van ‘openwashing’ te verdrijven.

De Imperatief voor de Onderzoeksgemeenschap

Wetenschappers en onderzoekers zijn niet louter consumenten van AI-tools; zij zijn cruciale belanghebbenden bij het waarborgen dat deze tools in lijn zijn met wetenschappelijke waarden. Actief betrokken zijn bij de evoluerende definities en standaarden, zoals OSAID 1.0, is van vitaal belang. Maar actie moet verder gaan dan louter bewustzijn:

  • Eis Transparantie: In publicaties, subsidieaanvragen en bij de selectie van tools moeten onderzoekers prioriteit geven aan en aandringen op grotere transparantie met betrekking tot de AI-modellen die ze gebruiken. Dit omvat het aandringen op gedetailleerde ‘data-informatie’-kaarten of datasheets die modelreleases vergezellen.
  • Ondersteun Echte Openheid: Draag actief bij aan, gebruik en citeer projecten zoals OLMo of andere initiatieven die een oprechte toewijding tonen aan het vrijgeven van code, data en methodologie. Stemmen met downloads en citaties zendt een krachtig marktsignaal uit.
  • Ontwikkel Evaluatiestandaarden: De gemeenschap heeft robuuste methoden en checklists nodig voor het evalueren van de mate van openheid van een AI-model, verdergaand dan simplistische labels. Peer review-processen moeten controle van de transparantieclaims met betrekking tot AI-tools die in onderzoek worden gebruikt, omvatten.
  • Pleit Binnen Instituten: Moedig universiteiten, onderzoeksinstituten en beroepsverenigingen aan om beleid aan te nemen dat het gebruik van echt open en transparante AI-tools en -platforms begunstigt of vereist.

De wetenschappelijke gemeenschap heeft aanzienlijke invloed. Door collectief aan te dringen op standaarden die reproduceerbaarheid, transparantie en collaboratieve toegang handhaven, kunnen onderzoekers terugduwen tegen misleidende claims en helpen een AI-ecosysteem vorm te geven dat bevorderlijk is voor rigoureus wetenschappelijk onderzoek.

Beleid, Financiering en de Weg Vooruit

Overheden en publieke financieringsinstanties hebben ook aanzienlijke macht bij het vormgeven van het AI-landschap. Hun beleid kan ‘openwashing’ impliciet onderschrijven of actief echte openheid bevorderen.

  • Mandaten voor Openheid: Instellingen zoals de Amerikaanse National Institutes of Health (NIH) hebben al mandaten die open licenties en het delen van data vereisen voor het onderzoek dat zij financieren. Het uitbreiden van vergelijkbare principes naar AI-modellen en datasets die met publiek geld zijn ontwikkeld, is een logische en noodzakelijke stap. Als publieke middelen AI-ontwikkeling ondersteunen, moeten de resultaten publiek toegankelijk en verifieerbaar zijn in de grootst mogelijke mate.
  • Inkoopmacht: Overheidsinstanties zijn grote afnemers van technologie. Door eisen te specificeren voor echte open-source AI (die voldoet aan standaarden zoals OSAID) in openbare aanbestedingscontracten, kunnen overheden een significante marktstimulans creëren voor bedrijven om transparantere praktijken aan te nemen. De Italiaanse eis voor open-source software in de publieke administratie biedt een potentieel sjabloon.
  • Investeren in Open Infrastructuur: Naast regelgeving kan publieke investering in ‘data commons’-initiatieven, open computationele middelen voor onderzoekers, en platforms gewijd aan het hosten en evalueren van echt open AI-modellen transformerend zijn. Dit kan helpen het speelveld gelijk te trekken en levensvatbare alternatieven bieden voor propriëtaire of semi-open systemen.
  • Wereldwijde Samenwerking: Gezien de wereldwijde aard van AI-ontwikkeling is internationale samenwerking bij het definiëren en bevorderen van open-source AI-standaarden essentieel om regelgevende fragmentatie te voorkomen en een consistente basislijn van transparantie en verantwoording wereldwijd te waarborgen.

Beleidsinstrumenten kunnen, wanneer ze doordacht worden toegepast, de prikkels aanzienlijk verschuiven van misleidende etikettering naar praktijken die wetenschappelijke integriteit en brede innovatie echt ondersteunen. De strijd tegen de ‘open source’-illusie in AI vereist een gezamenlijke inspanning. Onderzoekers moeten waakzame critici zijn en de transparantie eisen die nodig is voor wetenschappelijke nauwkeurigheid. Standaardiseringsorganen zoals de OSI moeten definities blijven verfijnen die de unieke aard van AI weerspiegelen. En beleidsmakers moeten hun invloed gebruiken om praktijken te stimuleren en te mandateren die in lijn zijn met het publieke belang in verifieerbare, betrouwbare en toegankelijke kunstmatige intelligentie. Het toekomstige traject van AI in de wetenschap – of het een echt open grens voor ontdekking wordt of een landschap gedomineerd door ondoorzichtige bedrijfssystemen – hangt in de balans.