Navigeren door het AI-landschap: Waarom het uitsluiten van China van regelgeving averechts kan werken
De meedogenloze opmars van kunstmatige intelligentie (AI) heeft een wereldwijd gesprek op gang gebracht, dat zich uitstrekt over industrieën en naties, over de noodzaak om robuuste toezichtmechanismen in te stellen. Deze mechanismen zijn bedoeld om de inherente risico’s te beperken die verbonden zijn aan de transformerende kracht van AI. Een recente beslissing van de Amerikaanse regering om een prominent Chinees onderzoeksinstituut op de zwarte lijst te plaatsen, heeft echter een schaduw geworpen over de vooruitzichten op internationale samenwerking op dit cruciale gebied. Deze stap, hoewel bedoeld om nationale belangen te beschermen, kan onbedoeld de ontwikkeling van een uniforme, mondiale benadering van AI-governance belemmeren.
De zwarte lijst van de Beijing Academy of Artificial Intelligence
In een stap die weerklank vond in de internationale AI-gemeenschap, werd de Beijing Academy of Artificial Intelligence (BAAI) op 28 maart 2025 door de Amerikaanse regering toegevoegd aan de Entity List. Deze actie beperkt effectief de toegang van BAAI tot Amerikaanse technologie en samenwerkingen, waarbij bezorgdheid wordt geuit over de mogelijke betrokkenheid van BAAI bij activiteiten die de Amerikaanse nationale veiligheid en buitenlandse beleidsbelangen bedreigen. De achtergrond van deze beslissing vloeit voort uit de vermeende dual-use aard van AI, waarbij technologieën die zijn ontwikkeld voor civiele toepassingen ook kunnen worden hergebruikt voor militaire of bewakingsdoeleinden.
BAAI, een toonaangevend onderzoeksinstituut in China, loopt voorop op het gebied van AI-innovatie en levert een belangrijke bijdrage aan gebieden zoals natuurlijke taalverwerking, computer vision en machine learning. De uitsluiting van internationale samenwerking roept zorgen op over de fragmentatie van AI-onderzoek en het potentieel voor uiteenlopende normen en waarden.
Het argument voor internationale samenwerking in AI-governance
De inherente aard van AI vereist een mondiale benadering van governance. AI-systemen zijn steeds meer onderling verbonden, overschrijden nationale grenzen en hebben wereldwijd invloed op samenlevingen. De uitdagingen die AI met zich meebrengt, zoals bias, schendingen van de privacy en het potentieel voor misbruik, vereisen collectieve actie en gedeelde verantwoordelijkheid.
De behoefte aan geharmoniseerde normen
Een van de belangrijkste argumenten voor internationale samenwerking is de behoefte aan geharmoniseerde normen. Naarmate AI-technologieën zich in verschillende landen verspreiden, kan het gebrek aan gemeenschappelijke normen leiden tot interoperabiliteitsproblemen, waardoor de naadloze integratie van AI-systemen wordt belemmerd en belemmeringen worden opgeworpen voor internationale handel en samenwerking. Geharmoniseerde normen kunnen ook vertrouwen en transparantie bevorderen, waardoor ervoor wordt gezorgd dat AI-systemen op een verantwoorde en ethische manier worden ontwikkeld en ingezet.
Ethische kwesties aanpakken
AI roept een groot aantal ethische vragen op, waaronder bias, eerlijkheid en verantwoordingsplicht. AI-systemen kunnen bestaande maatschappelijke biases in stand houden en versterken als ze zijn getraind op biased data of zijn ontworpen zonder voldoende aandacht voor ethische principes. Internationale samenwerking is essentieel om ethische richtlijnen en kaders te ontwikkelen die deze zorgen aanpakken en ervoor zorgen dat AI-systemen worden gebruikt op een manier die het menselijk welzijn en sociale rechtvaardigheid bevordert.
De risico’s van AI-misbruik beperken
Het potentieel voor AI-misbruik, met name op gebieden zoals autonome wapens en bewakingstechnologieën, vormt een aanzienlijke bedreiging voor de mondiale veiligheid en mensenrechten. Internationale samenwerking is cruciaal om normen en voorschriften vast te stellen die de ontwikkeling en inzet van AI-systemen die voor kwaadaardige doeleinden kunnen worden gebruikt, voorkomen. Dit omvat maatregelen zoals exportcontroles, transparantievereisten en internationale overeenkomsten over het verantwoorde gebruik van AI.
De mogelijke gevolgen van het uitsluiten van China
Hoewel de beslissing van de Amerikaanse regering om BAAI op de zwarte lijst te plaatsen kan worden ingegeven door legitieme veiligheidsbelangen, brengt deze mogelijke gevolgen met zich mee die de bredere inspanningen om een mondiaal systeem van AI-governance te creëren, kunnen ondermijnen.
Het belemmeren van dialoog en samenwerking
Het uitsluiten van China, een belangrijke speler op het AI-gebied, van internationale fora en samenwerkingen kan de dialoog en samenwerking over kritieke kwesties zoals AI-veiligheid, ethiek en beveiliging belemmeren. Zonder de deelname van China zal elk mondiaal kader voor AI-governance waarschijnlijk onvolledig en ineffectief zijn.
Het bevorderen van technologische divergentie
De zwarte lijst van BAAI kan de trend van technologische divergentie versnellen, waarbij verschillende landen hun eigen AI-normen en -waarden ontwikkelen, wat leidt tot fragmentatie en incompatibiliteit. Dit kan belemmeringen opwerpen voor internationale handel en samenwerking, en het risico vergroten dat AI-systemen worden gebruikt voor kwaadaardige doeleinden.
Het beperken van de toegang tot talent en expertise
China heeft een enorme pool van AI-talent en -expertise, en het uitsluiten van Chinese onderzoekers en instellingen van internationale samenwerkingen kan de toegang tot deze waardevolle bron beperken. Dit kan het tempo van AI-innovatie vertragen en de ontwikkeling van oplossingen voor mondiale uitdagingen belemmeren.
De weg voorwaarts: Veiligheidsproblemen in evenwicht brengen met de behoefte aan samenwerking
Het navigeren door het complexe landschap van AI-governance vereist een delicaat evenwicht tussen het aanpakken van legitieme veiligheidsbelangen en het bevorderen van internationale samenwerking. Hoewel het belangrijk is om nationale belangen te beschermen en misbruik van AI te voorkomen, is het even belangrijk om met alle belanghebbenden, inclusief China, in gesprek te gaan om een gedeeld begrip te ontwikkelen van de risico’s en kansen die AI biedt.
Duidelijke rode lijnen vaststellen
Een benadering is het vaststellen van duidelijke rode lijnen die onaanvaardbaar gedrag definiëren bij de ontwikkeling en inzet van AI. Deze rode lijnen kunnen zich richten op gebieden zoals autonome wapens, bewakingstechnologieën en het gebruik van AI voor mensenrechtenschendingen. Door deze grenzen duidelijk te verwoorden, kan de internationale gemeenschap een krachtige boodschap afgeven dat bepaalde toepassingen van AI onaanvaardbaar zijn en niet zullen worden getolereerd.
Transparantie en verantwoordingsplicht bevorderen
Een andere belangrijke stap is het bevorderen van transparantie en verantwoordingsplicht bij de ontwikkeling en inzet van AI-systemen. Dit omvat maatregelen zoals het verplichten van ontwikkelaars om de data en algoritmen die in hun systemen worden gebruikt, openbaar te maken, evenals het instellen van mechanismen voor onafhankelijke audits en toezicht. Door transparantie en verantwoordingsplicht te vergroten, kan de internationale gemeenschap vertrouwen opbouwen in AI-systemen en het risico op misbruik verminderen.
Dialoog en betrokkenheid bevorderen
Ondanks de uitdagingen is het essentieel om de dialoog en betrokkenheid met China over AI-governance te bevorderen. Dit kan inhouden dat er regelmatige bijeenkomsten worden gehouden tussen overheidsfunctionarissen, onderzoekers en vertegenwoordigers van het bedrijfsleven om kwesties van gemeenschappelijk belang te bespreken. Het kan ook inhouden dat er gezamenlijke onderzoeksprojecten en initiatieven worden gesteund die samenwerking bevorderen op het gebied van AI-veiligheid, ethiek en beveiliging.
De nadruk leggen op gedeelde belangen
Ten slotte is het belangrijk om de gedeelde belangen te benadrukken die alle landen hebben bij het waarborgen van de verantwoorde ontwikkeling en inzet van AI. Deze gedeelde belangen omvatten het bevorderen van economische groei, het verbeteren van de gezondheidszorg, het aanpakken van klimaatverandering en het verbeteren van de mondiale veiligheid. Door zich te concentreren op deze gemeenschappelijke doelen, kan de internationale gemeenschap een basis leggen voor samenwerking op het gebied van AI-governance.
De bredere implicaties voor mondiale tech-samenwerking
De acties van de Amerikaanse regering met betrekking tot BAAI zijn indicatief voor een bredere trend van toenemende geopolitieke spanningen in de technologiesector. Deze trend roept zorgen op over de toekomst van de mondiale tech-samenwerking en het potentieel voor een gefragmenteerd technologisch landschap.
Het risico van een “splinternet”
Een van de grootste risico’s is het ontstaan van een “splinternet”, waarbij verschillende landen hun eigen afzonderlijke internetecosystemen ontwikkelen, met verschillende normen, protocollen en governanc structuren. Dit kan belemmeringen opwerpen voor grensoverschrijdende gegevensstromen, de internationale handel en samenwerking belemmeren, en het moeilijker maken om mondiale uitdagingen zoals cyberbeveiliging en klimaatverandering aan te pakken.
De behoefte aan multilateralisme
Om het worstcasescenario te vermijden, is het essentieel om de principes van multilateralisme en internationale samenwerking in de technologiesector te bekrachtigen. Dit omvat het werken via internationale organisaties zoals de Verenigde Naties, de Wereldhandelsorganisatie en de Internationale Telecommunicatie-unie om gemeenschappelijke normen en waarden te ontwikkelen voor het digitale tijdperk.
Openheid en interoperabiliteit bevorderen
Het is ook belangrijk om openheid en interoperabiliteit in de technologiesector te bevorderen. Dit betekent het vermijden van protectionistische maatregelen die de markttoegang beperken of buitenlandse bedrijven discrimineren. Het betekent ook het ondersteunen van open-source technologieën en standaarden die innovatie en concurrentie bevorderen.
De cruciale rol van openbaar debat en bewustzijn
Uiteindelijk hangt het succes van elke poging om AI te besturen en mondiale tech-samenwerking te bevorderen af van het bevorderen van een geïnformeerd openbaar debat en het vergroten van het bewustzijn over de uitdagingen en kansen die deze technologieën bieden.
Het publiek opleiden
Het is essentieel om het publiek voor te lichten over AI en de mogelijke impact ervan op de samenleving. Dit omvat het verstrekken van accurate en toegankelijke informatie over AI-technologieën, evenals het bevorderen van kritisch denken over de ethische en sociale implicaties van AI.
De maatschappelijke middenveld betrekken
Maatschappelijke organisaties, waaronder belangenorganisaties, denktanks en academische instellingen, spelen een cruciale rol bij het vormgeven van het debat over AI-governance. Deze organisaties kunnen onafhankelijke analyses leveren, pleiten voor een verantwoord beleid en overheden en bedrijven ter verantwoording roepen.
Mediawijsheid bevorderen
Ten slotte is het belangrijk om mediawijsheid te bevorderen en desinformatie over AI te bestrijden. Dit omvat het leren van mensen hoe ze informatie online kritisch kunnen evalueren, evenals het ondersteunen van initiatieven voor factchecking en inspanningen om desinformatiecampagnes te bestrijden.
Kortom, de beslissing om China uit te sluiten van het vaststellen van de regels voor AI is complex en heeft mogelijk verstrekkende gevolgen. Hoewel legitieme veiligheidsbelangen moeten worden aangepakt, is het cruciaal om een manier te vinden om deze belangen in evenwicht te brengen met de behoefte aan internationale samenwerking. De weg voorwaarts vereist het vaststellen van duidelijke rode lijnen, het bevorderen van transparantie en verantwoordingsplicht, het bevorderen van dialoog en betrokkenheid, en het benadrukken van gedeelde belangen. Door samen te werken kan de internationale gemeenschap de kracht van AI ten goede benutten, terwijl de risico’s worden beperkt en een rechtvaardiger en duurzamere toekomst voor iedereen wordt gewaarborgd. De belangen zijn groot en de tijd om actie te ondernemen is nu.