De innovatie-afweging: een tweesnijdend zwaard
Het grootste slachtoffer van een algeheel verbod op buitenlandse AI-technologie is het potentieel voor innovatie. Hoewel de uitgesproken bedoeling kan zijn om onbetrouwbare AI buiten te houden, zou het daadwerkelijke resultaat de isolatie van het Amerikaanse innovatie-ecosysteem kunnen zijn, die mogelijk zelfs de beperkingen van China overtreft. Deze verboden, vaak met een brede borstel bedacht, hebben de neiging een grotere impact te hebben dan aanvankelijk werd verwacht, waardoor de toegang tot vitale technologieën wordt beperkt en tegelijkertijd de marktdynamiek en samenwerkingsinspanningen worden verstikt.
Dergelijke technologische silo’s zullen op zijn minst de dynamiek van de Amerikaanse markt verminderen door de heilzame druk van buitenlandse concurrentie weg te nemen. De voordelen van internationale rivaliteit zijn al duidelijk zichtbaar voor Amerikaanse AI-bedrijven. Onder een restrictief AI-regime zou deze krachtige stimulans verdwijnen, wat mogelijk zou kunnen leiden tot een vertraging van de vooruitgang.
Naast het temperen van de marktwerking, zou een verbod op buitenlandse AI de innovatie verder belemmeren door de kruisbestuiving van technologische ontwikkelingen te stoppen. Toegang tot een breed scala aan technologieën stelt Amerikaanse ingenieurs in staat om vrij te experimenteren, te leren en waardevolle innovaties van over de hele wereld te integreren. In de Amerikaanse AI-sector, die lange tijd een dominante positie heeft ingenomen, wordt deze dynamiek mogelijk ondergewaardeerd. Mocht de Amerikaanse industrie echter achterop raken, dan zou het herwinnen van de voorsprong wel eens kunnen afhangen van deze ongehinderde uitwisseling van technologische ideeën.
Voor degenen die voorop lopen in innovatie, kan toegang tot buitenlandse AI van groot belang zijn. Ongeacht of de Verenigde Staten hun leiderschap op de AI-markt behouden, dienen internationale modellen als een cruciale bron van leren, inspiratie en nieuwe ideeën. Mochten de Verenigde Staten ooit hun leidende positie opgeven, dan zou de vrijheid om te studeren en zich aan te passen aan geavanceerde systemen absoluut essentieel kunnen worden voor ons vermogen om terrein terug te winnen. Beleidsmakers die gokken met een verbod, riskeren het concurrentievoordeel van buitenlandse entiteiten te verstevigen.
Implicaties voor cyberbeveiliging: een verzwakte verdediging
Het beperken van de toegang tot Chinese AI brengt ook het risico met zich mee dat de cyberbeveiliging in gevaar komt. AI-systemen worden in toenemende mate begiftigd met cybercapaciteiten en spelen een dubbele rol in zowel offensieve als defensieve operaties.
Deze ontwikkelingen wijzen erop dat AI binnenkort een cruciale rol zal spelen in het evoluerende cyberdreigingslandschap. Voor beveiligingsonderzoekers zal het begrijpen van en verdedigen tegen deze opkomende dreigingen een grondig begrip van buitenlandse AI-systemen vereisen. Zonder voortdurend, onbeperkt experimenteren met deze modellen, zullen Amerikaanse beveiligingsexperts de cruciale kennis en vertrouwdheid missen die nodig zijn om kwaadaardige AI-toepassingen effectief te bestrijden.
Voor de defensieve cyberbeveiligingshouding van de private sector zou toegang tot buitenlandse modellen binnenkort nog onmisbaarder kunnen worden.
Mochten AI-gestuurde scanningtools de industriestandaard worden, dan is toegang tot een breed scala aan modellen van het grootste belang. Elk model bezit unieke sterke en zwakke punten en kennisdomeinen. Onvermijdelijk zal elk model verschillende kwetsbaarheden identificeren. Een uitgebreide cyberbeveiligingsstrategie in de nabije toekomst zou scanningsoftware kunnen vereisen die is uitgerust met meerdere AI-systemen. Voor Amerikaanse organisaties zou een verbod op Chinese of andere buitenlandse AI zich vertalen in blinde vlekken voor anderszins detecteerbare kwetsbaarheden. Met gebonden handen zou Amerikaanse software kwetsbaarder worden, waardoor buitenlandse concurrenten mogelijk de wereldwijde beveiligingsstandaard kunnen dicteren.
Navigeren door de risico’s: een afgemeten aanpak
In de snel evoluerende AI-markt blijft toegang tot buitenlandse technologie essentieel voor het behoud van technologische pariteit, het bevorderen van innovatie en het waarborgen van robuuste beveiliging. Dit wil niet zeggen dat de Verenigde Staten de nationale veiligheidsrisico’s van technologie afkomstig van vijandige naties moeten negeren. Idealiter zou geavanceerde technologie uitsluitend worden ontwikkeld door marktgerichte, liberaal-democratische naties, waardoor deze niet langer zou dienen voor autoritaire regimes in spionage, censuur of de verspreiding van opzettelijke cyberonzekerheden. Dit is echter niet de huidige realiteit, en totalitaire en vijandige regimes zullen blijven investeren in technologische ontwikkeling. Deepseek opereert bijvoorbeeld onder toezicht van de Chinese overheid, en scepsis is gerechtvaardigd gezien de wettelijke bevoegdheid van de overheid om bedrijfsgegevens op te vragen en haar geschiedenis van het opzettelijk implanteren van beveiligingslekken in consumententechnologie.
Om de essentiële voordelen van open technologische toegang te behouden en tegelijkertijd deze risico’s te beperken, moeten ambtenaren het opleggen van ingrijpende verboden vermijden. In plaats daarvan moeten beleidsmakers een minder restrictieve aanpak nastreven die geïnformeerd gebruik, app store-beveiligingscuratie en, wanneer absoluut noodzakelijk, nauwkeurig afgestemde regelgeving gericht op specifieke, beveiligingskritieke contexten combineert.
Voor de gemiddelde gebruiker zijn de huidige beveiligingsrisico’s die gepaard gaan met Chinese AI waarschijnlijk marginaal, en de meest effectieve algemene risicobeperkingsstrategie is geïnformeerd gebruik. Gezien de overvloed aan keuzes en productinformatie die beschikbaar is op de AI-markt, hebben gebruikers een aanzienlijke vrijheid om zichzelf te informeren en de specifieke modellen te selecteren die aansluiten bij hun individuele beveiligings- en privacybehoeften. In de meeste gevallen kunnen en zullen gebruikers standaard kiezen voor Amerikaanse modellen. Wanneer ze echter willen experimenteren met buitenlandse alternatieven, moeten ze daartoe de gelegenheid krijgen. In situaties waarin zelfstudie en keuze mogelijk niet volstaan, kan app store-curatie dienen als een fundamentele beveiligingsstop. Toonaangevende app stores scannen het aanbod al actief op duidelijke beveiligingsproblemen en verwijderen, indien nodig, onveilige software.
In gevallen waarin Chinese of buitenlandse AI-systemen werkelijk onaanvaardbare risico’s met zich meebrengen, moeten beleidsmakers de regelgeving nauwkeurig afstemmen op die specifieke contexten. Zeer gevoelige federale gegevens mogen bijvoorbeeld niet worden verwerkt door Chinese AI. Een passend voorbeeld hiervan is de No Deepseek on Government Devices Act, die het gebruik van Deepseek op federale systemen zou beperken. Dit regelgevingsmodel zou als leidraad moeten dienen voor soortgelijke inspanningen. Regelgeving zou de uitzondering moeten zijn, niet de regel, maar wanneer dit vereist is, moet deze contextspecifiek zijn om onnodige beperking van de algemene vrijheid van gebruik en experimenteren te voorkomen.
Een weg vooruit: evenwicht tussen beveiliging en openheid
Deepseek en andere Chinese AI-technologieën verdienen ontegenzeggelijk nauwkeurig onderzoek en scepsis, gezien de geopolitieke spanningen en tegenstrijdige waarden die spelen. Een alomvattend verbod zou echter niet alleen de algemene vrijheid van gebruik opofferen, maar ook cruciale marktdynamiek, innovatiemogelijkheden en cyberbeveiligingsvoordelen. Door een afgemeten aanpak na te streven die prioriteit geeft aan geïnformeerd gebruik, app store-curatie en, wanneer absoluut noodzakelijk, nauwkeurig afgestemde regelgeving, kunnen de Verenigde Staten de technologische openheid behouden die essentieel is voor zowel beveiliging als mondiaal leiderschap.
Om specifieke punten verder uit te werken:
1. De nuances van marktdynamiek:
Het concept van ‘marktdynamiek’ gaat verder dan simpele concurrentie. Het omvat het gehele ecosysteem van innovatie, waaronder:
- Innovatiesnelheid: Buitenlandse concurrentie werkt als een katalysator, waardoor binnenlandse bedrijven worden gedwongen sneller te innoveren om hun concurrentievoordeel te behouden.
- Diversiteit van benaderingen: Verschillende bedrijven en onderzoeksgroepen, zowel binnenlands als buitenlands, zullen verschillende benaderingen onderzoeken om AI-problemen op te lossen. Deze diversiteit leidt tot een rijkere pool van ideeën en potentiële doorbraken.
- Aantrekken van talent: Een levendig en open AI-ecosysteem trekt toptalent van over de hele wereld aan, wat de innovatie verder stimuleert.
- Investeringsstromen: Een gezond concurrentielandschap trekt investeringen aan, die de middelen verschaffen die nodig zijn voor onderzoek en ontwikkeling.
Het beperken van de toegang tot buitenlandse AI zou deze aspecten van de marktdynamiek verstikken, wat mogelijk zou kunnen leiden tot een minder innovatieve en minder concurrerende Amerikaanse AI-sector.
2. De details van technologische kruisbestuiving:
‘Technologische kruisbestuiving’ is niet alleen het kopiëren van ideeën. Het omvat:
- Begrijpen van verschillende architecturen: Het onderzoeken van hoe buitenlandse AI-modellen zijn ontworpen, kan inzicht geven in alternatieve architecturen en benaderingen die Amerikaanse onderzoekers mogelijk niet hebben overwogen.
- Identificeren van nieuwe technieken: Buitenlandse AI-modellen kunnen unieke algoritmen of trainingstechnieken gebruiken die kunnen worden aangepast en verbeterd door Amerikaanse onderzoekers.
- Benchmarking en evaluatie: Het vergelijken van de prestaties van Amerikaanse en buitenlandse AI-modellen op verschillende taken levert waardevolle benchmarks op en helpt bij het identificeren van verbeterpunten.
- Inspiratie en creativiteit: Blootstelling aan verschillende benaderingen kan nieuwe ideeën opwekken en creatieve oplossingen inspireren voor uitdagende AI-problemen.
Door de toegang tot buitenlandse AI te beperken, zouden de VS zichzelf deze waardevolle leermogelijkheden ontnemen.
3. Cyberbeveiliging: verder dan defensieve maatregelen:
De implicaties van AI voor cyberbeveiliging zijn niet beperkt tot defensieve maatregelen. AI kan ook worden gebruikt voor:
- Offensieve cyberoperaties: AI-gestuurde tools kunnen het ontdekken van kwetsbaarheden, het ontwikkelen van exploits en het uitvoeren van cyberaanvallen automatiseren.
- Dreigingsinformatie: AI kan worden gebruikt om enorme hoeveelheden gegevens te analyseren om opkomende dreigingen te identificeren en toekomstige aanvallen te voorspellen.
- Misleiding en desinformatie: AI kan worden gebruikt om realistische nep-inhoud te genereren, waaronder tekst, afbeeldingen en video’s, met als doel desinformatie te verspreiden of de publieke opinie te manipuleren.
Begrijpen hoe buitenlandse tegenstanders AI op deze gebieden gebruiken, is cruciaal voor het ontwikkelen van effectieve tegenmaatregelen.
4. Het belang van geïnformeerd gebruik:
‘Geïnformeerd gebruik’ is niet simpelweg het lezen van productbeschrijvingen. Het omvat:
- De risico’s begrijpen: Gebruikers moeten zich bewust zijn van de potentiële beveiligings- en privacyrisico’s die verbonden zijn aan het gebruik van elk AI-systeem, ongeacht de oorsprong ervan.
- De bron evalueren: Gebruikers moeten de reputatie en betrouwbaarheid van het bedrijf of de organisatie die het AI-systeem heeft ontwikkeld, in overweging nemen.
- Privacybeleid lezen: Gebruikers moeten het privacybeleid van AI-systemen zorgvuldig doornemen om te begrijpen hoe hun gegevens worden verzameld, gebruikt en gedeeld.
- Sterke wachtwoorden en beveiligingspraktijken gebruiken: Gebruikers moeten elementaire best practices voor cyberbeveiliging volgen, zoals het gebruik van sterke wachtwoorden en het inschakelen van tweefactorauthenticatie, bij het gebruik van AI-systemen.
- Op de hoogte blijven: Gebruikers moeten op de hoogte blijven van het laatste nieuws en de best practices op het gebied van AI-beveiliging en privacy.
Het empoweren van gebruikers met deze kennis is een cruciale eerste verdedigingslinie.
5. App store-curatie: een noodzakelijke vangnet:
App store-curatie biedt een extra beschermingslaag door:
- Apps controleren op beveiligingsproblemen: App stores kunnen apps scannen op bekende beveiligingsproblemen voordat ze beschikbaar worden gesteld aan gebruikers.
- Schadelijke apps verwijderen: App stores kunnen apps verwijderen die schadelijk blijken te zijn of die hun servicevoorwaarden schenden.
- Gebruikersrecensies en -beoordelingen bieden: Gebruikersrecensies en -beoordelingen kunnen gebruikers helpen bij het informeren over de kwaliteit en betrouwbaarheid van apps.
- Beveiligingsnormen afdwingen: App stores kunnen beveiligingsnormen afdwingen voor ontwikkelaars, waarbij ze worden verplicht om bepaalde beveiligingsmaatregelen in hun apps te implementeren.
Dit curatieproces helpt bij het creëren van een veiligere omgeving voor gebruikers om te experimenteren met AI-technologieën.
6. Nauwkeurig afgestemde regelgeving: de uitzondering, niet de regel:
Regelgeving moet spaarzaam worden gebruikt en alleen wanneer dit absoluut noodzakelijk is. Wanneer dit vereist is, moet het:
- Gericht zijn: Regelgeving moet gericht zijn op specifieke risico’s en specifieke contexten, in plaats van brede verboden.
- Proportioneel zijn: Regelgeving moet in verhouding staan tot het risico dat ze beogen aan te pakken.
- Op bewijs gebaseerd zijn: Regelgeving moet gebaseerd zijn op solide bewijs van schade, in plaats van speculatie of angst.
- Regelmatig worden herzien: Regelgeving moet regelmatig worden herzien om ervoor te zorgen dat ze nog steeds noodzakelijk en effectief zijn.
- Transparant zijn: Het proces van het ontwikkelen en implementeren van regelgeving moet transparant zijn en openstaan voor publieke inbreng.
Deze aanpak zorgt ervoor dat regelgeving de innovatie niet onnodig verstikt of de vrijheid van gebruikers en onderzoekers beperkt. De No Deepseek on Government Devices Act biedt een goed model.
Door deze factoren zorgvuldig te overwegen en een genuanceerde aanpak te hanteren, kunnen de Verenigde Staten het complexe landschap van AI-ontwikkeling navigeren en hun leidende positie behouden, terwijl ze hun nationale veiligheid waarborgen. De sleutel is het vinden van een evenwicht tussen openheid en beveiliging, het bevorderen van innovatie en het beperken van risico’s.