De opkomst van geavanceerde kunstmatige intelligentie modellen zoals DeepSeek’s R1 heeft golven veroorzaakt in het Westerse technologielandschap, wat noodzakelijke introspectie teweegbrengt over strategieën met betrekking tot AI-ontwikkeling, met name rond de vaak concurrerende eisen van kosteneffectiviteit en geavanceerde capaciteit. De implicaties reiken echter veel verder dan louter technische benchmarks of economische efficiëntie. Het traject dat door DeepSeek wordt benadrukt, dwingt tot een diepere en urgentere overweging: Wat betekent de opkomst van specifieke soorten AI, vooral die welke worden gepromoot door niet-democratische staten, voor de toekomstige gezondheid en principes van de democratie zelf in een tijdperk dat steeds meer wordt gevormd door algoritmen?
Centraal in deze uitdaging staat het concept van open-source AI. Dit verwijst naar AI-systemen waarvan de fundamentele componenten – variërend van de onderliggende code tot de datasets die voor training worden gebruikt – publiek toegankelijk worden gemaakt. Deze transparantie stelt gebruikers niet alleen in staat om de tools te gebruiken, maar ook om hun innerlijke werking te bestuderen, ze aan te passen voor specifieke doeleinden en hun innovaties te delen. Hoewel de precieze definitie van ‘open source’ in de context van complexe AI-modellen nog steeds ter discussie staat, is het potentieel ervan immens. Het belooft AI-ontwikkeling te democratiseren, door een levendig ecosysteem te bevorderen waar ontwikkelaars kunnen samenwerken en voortbouwen op elkaars werk. Deze samenwerkingsgeest kan individuen, onderzoekers en gemeenschappen in staat stellen om AI-oplossingen op maat te maken voor kritieke sectoren zoals onderwijs, gezondheidszorg en financiële dienstverlening, wat mogelijk aanzienlijke innovatie ontsluit en economische vooruitgang over de hele linie versnelt.
Toch brengt deze veelbelovende technologische weg inherente complexiteiten en risico’s met zich mee, met name wat betreft de governance en onderliggende waarden. Rapporten rond het DeepSeek R1-model suggereren bijvoorbeeld dat het mechanismen kan bevatten die informatie censureren of selectief achterhouden voor gebruikers. Dit enkele voorbeeld onderstreept een groter gevaar: democratische naties riskeren niet alleen achterop te raken in de technologische race om superieure AI-prestaties. Ze worden geconfronteerd met het even kritieke gevaar van terrein prijsgeven in de cruciale strijd om de governance van AI vorm te geven, waardoor systemen die zijn ingebed met autoritaire principes zich mogelijk wereldwijd verspreiden en die welke zijn ontworpen om democratische normen zoals vrijheid van meningsuiting en toegang tot informatie te handhaven, overschaduwen.
Daarom vereist het huidige moment een proactieve en gecoördineerde reactie. Het is absoluut noodzakelijk dat de Verenigde Staten (United States) een sterk partnerschap smeden met hun democratische bondgenoten, waarbij de Europese Unie (European Union) een bijzonder vitale samenwerkingspartner is, om wereldwijde normen en best practices specifiek voor open-source AI vast te stellen. Door gebruik te maken van hun bestaande wetgevingskaders en aanzienlijke marktinvloed, zouden deze trans-Atlantische partners het voortouw moeten nemen bij het creëren van een robuuste governancestructuur voor dit opkomende veld. Een kritieke eerste stap omvat het officieel overeenkomen van een functionele definitie van open-source AI om regelgevende duidelijkheid en effectiviteit te waarborgen. Hierna is een gezamenlijke versnelling van inspanningen nodig om ervoor te zorgen dat democratische waarden – transparantie, eerlijkheid, verantwoordingsplicht en respect voor fundamentele rechten – diep verankerd zijn in de open-source AI-modellen die worden ontwikkeld en gepromoot. Een dergelijke strategische impuls is essentieel om de weg te effenen voor een AI-toekomst die echt open, transparant en empowerend is voor iedereen, in plaats van een die subtiel wordt gevormd door autocratische controle.
China’s Berekende Omarming van Openheid
Om de huidige dynamiek te begrijpen, is het nodig om China’s strategische manoeuvres in het AI-domein te waarderen. Een deel van het opmerkelijke succes van DeepSeek is niet alleen technische bekwaamheid; het sluit aan bij steeds duidelijkere signalen van de Chinese Communistische Partij (CCP) die wijzen op een intentie om de normstelling van open-source AI rechtstreeks te integreren in haar juridische en beleidsmatige architectuur. Een belangrijke indicator kwam in april 2024 met de concept Model AI Wet. Dit document articuleert expliciet de steun van Beijing voor het cultiveren van een binnenlands open-source AI-ecosysteem.
Artikel 19 van dit wetsontwerp verklaart dat de staat “de constructie van het open source ecosysteem bevordert” en actief “relevante entiteiten ondersteunt bij het bouwen of exploiteren van open source platforms, open source gemeenschappen en open source projecten.” Het gaat verder en moedigt bedrijven aan om “software broncode, hardware ontwerpen en applicatiediensten publiek beschikbaar te maken,” ogenschijnlijk om branchebrede deling en collaboratieve innovatie te bevorderen. Misschien wel het meest veelzeggend is dat het ontwerp suggereert om de wettelijke aansprakelijkheid te verminderen of zelfs op te heffen voor entiteiten die open-source AI-modellen leveren, op voorwaarde dat ze governancesystemen opzetten die voldoen aan “nationale normen” en “overeenkomstige veiligheidsmaatregelen” implementeren. Dit vertegenwoordigt een potentieel significante verschuiving ten opzichte van eerdere AI-gerelateerde wetgeving in China, die vaak explicieter de bescherming van gebruikersrechten benadrukte. Hoewel het nog een concept is, bieden de specifieke bepalingen in de Model AI Wet een waardevolle blauwdruk, die onthult hoe China voorziet open-source AI in eigen land in te zetten en, cruciaal, welke kenmerken zijn geëxporteerde AI-modellen zouden kunnen bezitten.
Verder versterkend voor deze strategische richting is het AI Safety Governance Framework, een document dat China internationaal wil gebruiken om “internationale samenwerking op het gebied van AI-veiligheidsgovernance op mondiaal niveau te bevorderen.” Dit raamwerk weerspiegelt de groeiende assertiviteit van het land met betrekking tot open-source AI. Opgesteld door China’s National Technical Committee 260 on Cybersecurity – een orgaan dat nauw verbonden is met de machtige Cyberspace Administration of China, wiens cybersecurityrichtlijnen formeel werden aangenomen door de CCP in september 2024 – stelt het raamwerk ondubbelzinnig: “We moeten kennisdeling in AI bevorderen, AI-technologieën beschikbaar maken voor het publiek onder open-source voorwaarden, en gezamenlijk AI-chips, frameworks en software ontwikkelen.” De opname van zo’n sterke verklaring in een document gericht op een wereldwijd publiek signaleert duidelijk China’s ambitie om niet alleen deel te nemen aan de open-source AI-beweging, maar om zichzelf te positioneren als een leidende voorstander en normsteller in deze kritieke technologische sfeer. Deze berekende omarming van “openheid” opereert echter binnen een duidelijk gecontroleerde omgeving, met als doel de innovatieve kracht van open source te benutten met behoud van afstemming op staatsdoelstellingen.
Amerika’s Aarzeling: Verdediging boven Richting
Aan de overkant van de Stille Oceaan presenteert het verhaal rond open-source AI in de Verenigde Staten (United States) een studie in contrasten. Al geruime tijd pleiten voorstanders binnen de tech-industrie en de academische wereld voor de aanzienlijke voordelen van open-source benaderingen. Prominente figuren uit de industrie hebben de Amerikaanse regering publiekelijk aangespoord om een grotere strategische nadruk te leggen op het bevorderen van open-source AI-ontwikkeling. Een opmerkelijk voorbeeld is Mark Zuckerberg’s lancering van het open-source model Llama 3.1, vergezeld van zijn bewering dat open source “de beste kans ter wereld vertegenwoordigt” om wijdverspreide “economische kansen en veiligheid voor iedereen” te creëren.
Ondanks deze vocale pleidooien vanuit invloedrijke kringen, hebben de Verenigde Staten (United States) opvallend nagelaten om een significant wetgevingskader op te zetten dat specifiek is ontworpen om de ontwikkeling van open-source AI te bevorderen of te begeleiden. Hoewel een Amerikaanse senator in 2023 een wetsvoorstel indiende gericht op het construeren van een raamwerk voor open-source software beveiliging, is deze wetgeving zonder betekenisvolle vooruitgang blijven liggen. Federale agentschappen hebben het onderwerp aangestipt, maar vaak met een voorzichtige of reactieve houding. Vorig jaar publiceerde de National Telecommunications and Information Administration (NTIA) een rapport waarin dual-use AI foundation models met “open weights” werden onderzocht. Het is belangrijk op te merken dat “open weights” doorgaans betekent dat de parameters van het model beschikbaar zijn voor gebruik, maar het voldoet niet noodzakelijkerwijs aan de volledige criteria om echt open source te zijn (wat vaak toegang tot trainingsdata en code omvat). Het NTIA-rapport adviseerde de regering om haar monitoring van de potentiële risico’s verbonden aan deze open-weight modellen te intensiveren om passende beperkingen beter te kunnen bepalen. Vervolgens nam het definitieve AI-regelgevingskader van de regering Biden een ietwat mildere houding aan ten opzichte van open modellen, door strengere eisen te stellen aan de krachtigste closed-weight modellen, terwijl open-weight modellen grotendeels werden uitgesloten van deze specifieke beperkingen.
Desalniettemin blijft een duidelijke, proactieve nationale strategie voor het verdedigen van democratische open-source AI ongrijpbaar. De toekomstige richting onder mogelijke leiderschapswisselingen voegt nog een laag van onzekerheid toe. Voormalig president Donald Trump heeft geen specifiek beleid of richtlijn gearticuleerd met betrekking tot open-source AI. Hoewel hij het oorspronkelijke AI executive order van president Biden introk, schetste het vervangende order geen concrete initiatieven gericht op het bevorderen of sturen van de ontwikkeling van open-source AI.
Over het algemeen lijkt de Amerikaanse aanpak overwegend defensief. De primaire focus lijkt te liggen op het ontwikkelen van zeer capabele, vaak propriëtaire, AI-modellen, terwijl tegelijkertijd aanzienlijke inspanningen worden geleverd om te voorkomen dat tegenstanders, met name China, toegang krijgen tot geavanceerde halfgeleidertechnologie en AI-capaciteiten. Deze defensieve houding, hoewel begrijpelijk vanuit een nationaal veiligheidsperspectief, riskeert het verwaarlozen van de cruciale offensieve strategie: het actief cultiveren en promoten van een wereldwijd ecosysteem van open-source AI geworteld in democratische principes. De US lijkt zich bezig te houden met het bewaken van haar technologische forten, en mist mogelijk de kans om het bredere wereldwijde landschap vorm te geven door de proactieve verspreiding van open, rechtenrespecterende AI-alternatieven.
Europa’s Regelgevingsparadox: Macht en Verlamming
De Europese Unie (European Union), bekend om haar assertieve regelgevende houding in het digitale domein, presenteert een ander soort uitdaging met betrekking tot open-source AI. Sinds de baanbrekende implementatie van de General Data Protection Regulation (GDPR), heeft de EU zichzelf met succes gepositioneerd als een wereldwijde normsteller voor de digitale economie. Landen en multinationale ondernemingen wereldwijd stemmen hun praktijken vaak af op EU-nalevingskaders, een trend die zich uitstrekt tot het domein van kunstmatige intelligentie met de komst van de uitgebreide EU AI Act. Deze wet heeft tot doel risicogebaseerde regelgeving voor AI-systemen in de hele Unie vast te stellen.
Echter, als het gaat om het specifiek aanpakken van open-source AI, lijkt het formidabele regelgevingsapparaat van de EU verrassend aarzelend en zijn de inspanningen enigszins onderontwikkeld. Artikel 2 van de AI Act bevat wel een korte vermelding, waarbij bepaalde vrijstellingen van regelgeving worden uitgesneden voor open-source AI-modellen. Toch lijkt de praktische impact van deze vrijstelling beperkt, vooral omdat deze doorgaans niet van toepassing is op modellen die voor commerciële doeleinden worden ingezet. Deze beperkte reikwijdte beknot aanzienlijk het reële effect ervan op het ontluikende open-source AI-landschap.
Deze paradoxale situatie – open source erkennen terwijl men nalaat het actief te bevorderen – blijft bestaan in andere EU-richtsnoeren. De meest recente General-Purpose AI Code of Practice, hypothetisch gepubliceerd in maart 2025 ten behoeve van deze discussie, zou de positieve bijdragen van open-source modellen aan het ontwikkelen van veilige, mensgerichte en betrouwbare AI kunnen erkennen. Dergelijke documenten missen echter vaak betekenisvolle uitwerking of concrete maatregelen die zijn ontworpen om de ontwikkeling en wijdverspreide adoptie van deze potentieel gunstige open-source AI-modellen actief te promoten. Zelfs binnen strategische kaders zoals het EU Competitiveness Compass – ogenschijnlijk ontworpen om overregulering aan te pakken en strategisch concurrentievermogen op sleutelgebieden zoals AI te versterken – is de term “open source” opvallend afwezig of krijgt deze minimale aandacht.
Deze voorzichtige, bijna terughoudende benadering van Brussel ten aanzien van het volledig omarmen en reguleren van open-source AI komt waarschijnlijk voort uit verschillende factoren. Een belangrijke hindernis is de inherente moeilijkheid om open-source AI precies te definiëren. In tegenstelling tot traditionele open-source software, die voornamelijk broncode omvat, omvat open-source AI complexe vooraf getrainde modellen, enorme datasets en ingewikkelde architecturen. Het ontbreken van een universeel aanvaarde juridische definitie, ondanks inspanningen van organisaties zoals het Open Source Initiative (OSI), creëert een niveau van juridische onzekerheid waar regelgevende instanties zoals de Europese Commissie doorgaans ongemakkelijk mee zijn.
Toch ligt de onderliggende drijfveer van deze relatieve inactiviteit mogelijk dieper. Het succes van de EU zelf bij het vaststellen van verstrekkende regelgevende regimes zoals GDPR zou de Commissie huiverig kunnen maken om brede vrijstellingen te creëren voor een technologie die zo krachtig en snel evolueert als AI, vooral wanneer de open-source variant ervan enigszins slecht gedefinieerd blijft. Er zou een angst kunnen bestaan dat het te gemakkelijk omarmen van open-source AI, zonder volledig vastgestelde vangrails, onbedoeld de zwaarbevochten wereldwijde regelgevende invloed van de EU zou kunnen verzwakken. Dit vormt een strategische gok – prioriteit geven aan uitgebreide controle boven het potentieel bevorderen van een dynamischer, zij het minder voorspelbaar, open innovatie-ecosysteem – een gok die Brussel tot nu toe weinig bereidheid heeft getoond om beslissend te nemen. Deze regelgevende verlamming laat een vacuüm achter dat anderen gretig vullen.
Het Veranderende Geopolitieke Landschap van AI
De samenloop van China’s strategische opmars in open-source AI en de relatieve aarzeling van de Verenigde Staten (United States) en de Europese Unie (European Union) is actief bezig het geopolitieke terrein van kunstmatige intelligentie opnieuw vorm te geven. China’s vastberaden streven naar technologische zelfvoorziening, een campagne die nu duidelijk het consolideren van zijn strategieën rond open-source AI omvat, kan deels worden begrepen als een reactie op aanhoudende Amerikaanse exportcontroles gericht op geavanceerde computerhardware en halfgeleiders, maatregelen die enkele jaren geleden zijn geïmplementeerd vanwege Amerikaanse zorgen over nationale veiligheid, economisch concurrentievermogen en bescherming van intellectueel eigendom. China’s tegenmaatregelen, waaronder de omarming van open source, weerspiegelen de bredere, intensiverende strategische concurrentie om technologische suprematie tussen de twee wereldmachten. De EU oefent ondertussen doorgaans haar invloed uit in deze race, niet door directe technologische concurrentie op dezelfde schaal, maar door wereldwijde normen vast te stellen gericht op de bescherming van fundamentele rechten, privacy en democratische waarden zoals eerlijkheid en algoritmische verantwoordingsplicht – normen die inderdaad het beleid van grote wereldwijde technologiebedrijven hebben gevormd.
Echter, door zichzelf agressief te positioneren als leider en voorstander van open-source AI, verandert China slim een uitdaging – beperkte toegang tot bepaalde Westerse technologieën – in een strategische kans. Het creëert en vermarkt effectief zijn eigen onderscheidende versie van AI-openheid aan de wereldgemeenschap, met name aan ontwikkelingslanden die op zoek zijn naar toegankelijke AI-tools. De opkomst van capabele Chinese modellen zoals DeepSeek’s R1, naast aanbiedingen van andere binnenlandse techgiganten zoals Alibaba, begint de wereldwijde dynamiek te verschuiven. Het vermindert mogelijk de wereldwijde vraag naar uitsluitend gesloten, propriëtaire AI-modellen, vooral als open alternatieven toegankelijker of kosteneffectiever lijken. DeepSeek heeft bijvoorbeeld kleinere, minder rekenintensieve modellen uitgebracht die geschikt zijn voor apparaten met beperkte verwerkingskracht. Platforms zoals Hugging Face, een belangrijk knooppunt voor AI-ontwikkeling, zijn naar verluidt begonnen met het analyseren en repliceren van aspecten van de trainingsmethoden van DeepSeek-R1 om hun eigen modellen te verbeteren. Zelfs Westerse techgiganten zoals Microsoft, OpenAI en Meta verkennen steeds vaker technieken zoals modeldistillatie, die deels aan bekendheid wonnen door de DeepSeek-ontwikkelingen.
Dit evoluerende landschap onthult dat China proactief het wereldwijde gesprek over AI-openheid bevordert, waardoor de Verenigde Staten (United States) voor het eerst gedwongen worden te reageren en zich aan te passen aan dit discours. Tegelijkertijd blijft de EU enigszins gevangen in een staat van juridische en regelgevende inertie met betrekking tot open source. Deze asymmetrie creëert een merkbaar machtsevenwicht specifiek binnen het cruciale domein van open-source AI-governance en -proliferatie.
Cruciaal is dat de versie van open-source AI die door China wordt gepropageerd, aanzienlijke zorgen baart voor democratische samenlevingen. De CCP lijkt strategisch een “tweesporen”-systeem te implementeren: relatieve openheid en samenwerking tussen AI-ontwikkelaars en bedrijven aanmoedigen om innovatie te stimuleren, terwijl tegelijkertijd controles en beperkingen worden ingebed in publiekgerichte modellen om de informatiestroom en vrijheid van meningsuiting te beperken. Deze “openheid” wordt sterk bepaald door China’s gevestigde patronen van technologische controle, waarbij vaak wordt geëist dat modelinputs en -outputs overeenkomen met door de staat gesanctioneerde narratieven, CCP-waarden en een positief nationaal imago projecteren. Zelfs binnen zijn wereldwijd georiënteerde AI Safety Governance Framework, waar Chinese autoriteiten openlijk open-source principes omarmen, is er veelzeggende taal over AI-gegenereerde inhoud die bedreigingen vormt voor “ideologische veiligheid”—een duidelijk signaal van de inherente beperkingen van de CCP op vrijheid van denken en meningsuiting.
Zonder een robuust, alternatief raamwerk gebaseerd op de bescherming van democratische principes en fundamentele mensenrechten, riskeert de wereld getuige te zijn van de wijdverspreide reproductie en adoptie van China’s meer restrictieve interpretatie van open-source AI. Autoritaire regimes en mogelijk zelfs niet-statelijke actoren wereldwijd zouden gemakkelijk op deze modellen kunnen voortbouwen, waardoor geavanceerde censuur en surveillance mogelijk worden gemaakt, terwijl ze misleidend beweren dat ze louter technologische toegankelijkheid bevorderen. Zich uitsluitend richten op het evenaren van China’s technologische prestaties is daarom onvoldoende. Democratieën moeten strategisch reageren door het voortouw te nemen bij het vaststellen en promoten van democratische governance voor het open-source AI-tijdperk.
Een Trans-Atlantische Weg Vooruit Smeden
Het huidige traject vereist beslissende actie en hernieuwde samenwerking tussen ‘s werelds leidende democratieën. De Verenigde Staten (United States) en de Europese Unie (European Union) zouden serieus moeten overwegen om een strategie van open-source diplomatie te starten. Dit houdt in dat proactief de ontwikkeling en het delen van capabele, betrouwbare en rechtenrespecterende AI-modellen wereldwijd wordt bevorderd als tegenwicht tegen autoritaire alternatieven. Centraal in deze inspanning staat de creatie van een verenigd governance raamwerk voor open-source AI, gezamenlijk ontwikkeld door de US en EU.
Om effectief een democratische AI-toekomst vorm te geven, is het opzetten van een toegewijde trans-Atlantische werkgroep voor open-source AI een kritieke volgende stap. Deze groep moet waar nodig gebruikmaken van bestaande structuren, zoals het Global Partnership on Artificial Intelligence (GPAI), maar moet cruciaal zorgen voor de actieve deelname en input van toonaangevende technologiebedrijven, academische onderzoekers en maatschappelijke experts van beide zijden van de Atlantische Oceaan gedurende het ontwikkelingsproces van het raamwerk. Deze inclusieve aanpak is essentieel voor het opstellen van normen die zowel principieel als praktisch zijn.
Ten tweede moeten zowel de Verenigde Staten (United States) als de EU tastbare middelen achter deze visie zetten. Dit betekent het strategisch richten van financiering op academische instellingen, onderzoekslaboratoria en innovatieve startups die specifiek gericht zijn op het ontwikkelen van open-source AI-modellen die expliciet aansluiten bij democratische waarden. Belangrijke kenmerken van dergelijke modellen zouden zijn:
- Transparantie in ontwerp en trainingsdata.
- Robuuste waarborgen tegen censuur en manipulatie.
- Mechanismen voor verantwoordingsplicht en biasmitigatie.
- Ingebouwd respect voor privacy en fundamentele rechten.
Het promoten van deze democratische modellen vereist een duidelijke erkenning van beleidsmakers in zowel Washington als Brussel dat de strategische voordelen op lange termijn van het bevorderen van een wereldwijd ecosysteem gebaseerd op deze principes aanzienlijk opwegen tegen de vermeende kortetermijnrisico’s die gepaard gaan met openheid. Tegelijkertijd moet de EU haar gevestigde regelgevende bekwaamheid beslissender inzetten op dit specifieke gebied. Met behoud van haar toewijding aan hoge normen, moet Brussel haar aarzeling met betrekking tot de juridische definitie van open-source AI overwinnen en sneller handelen om duidelijke richtlijnen en stimulansen vast te stellen, en zo China’s groeiende momentum bij het vormgeven van wereldwijde normen tegen te gaan. Het omarmen van een zekere mate van beheerde onzekerheid kan nodig zijn om te voorkomen dat verder terrein wordt prijsgegeven.
Hoewel trans-Atlantische betrekkingen periodiek turbulentie kunnen ondervinden op verschillende fronten, onderstreept de uitdaging die wordt gevormd door China’s opkomst in open-source AI de absolute noodzaak van US-EU samenwerking boven concurrentie op dit domein. Het herwinnen van leiderschap in deze cruciale technologische arena vereist een gezamenlijk, toekomstgericht trans-Atlantisch initiatief. Dit initiatief moet proactieve beleidsontwikkeling, gerichte onderzoeksfinanciering en ondersteuning voor innovatie integreren, allemaal gericht op het stellen van de wereldwijde standaard voor een AI-toekomst die echt rechtenrespecterend, transparant, creatief en empowerend is voor mensen wereldwijd. De tijd voor aarzelende observatie is voorbij; het moment voor beslissende, verenigde actie is nu.