Botsende Visies: VS AI-Strijd

Een rode draad in de voorstellen van verschillende grote AI-bedrijven is een voelbare bezorgdheid over het groeiende lappendeken van AI-regelgeving op staatsniveau. OpenAI, de maker van ChatGPT, riep expliciet op tot redding van wat het beschouwt als een dreigende stortvloed van meer dan 700 uiteenlopende wetsvoorstellen die momenteel op staatsniveau circuleren. De door OpenAI voorgestelde oplossing is echter geen federale wetgeving, maar eerder een beperkt, vrijwillig kader. Dit kader zou, cruciaal, voorrang geven aan staatsregels en AI-bedrijven een soort veilige haven bieden. In ruil voor deze bescherming zouden bedrijven toegang krijgen tot lucratieve overheidscontracten en vooraf waarschuwingen ontvangen over potentiële veiligheidsrisico’s. De overheid zou op haar beurt de bevoegdheid krijgen om nieuwe modelcapaciteiten te testen en deze te benchmarken met buitenlandse tegenhangers.

Google sluit zich hierbij aan en pleit voor het voorrang geven aan staatswetten met een “verenigd nationaal kader voor grensverleggende AI-modellen”. Dit kader zou volgens Google prioriteit moeten geven aan nationale veiligheid en tegelijkertijd een omgeving moeten bevorderen die bevorderlijk is voor Amerikaanse AI-innovatie. In tegenstelling tot OpenAI is Google echter niet inherent tegen federale AI-regulering, mits deze zich richt op specifieke toepassingen van de technologie. Een belangrijk voorbehoud voor Google is dat AI-ontwikkelaars niet aansprakelijk mogen worden gesteld voor het misbruik van hun tools door anderen. Google maakte ook van de gelegenheid gebruik om aan te dringen op een nieuw federaal privacybeleid, met het argument dat dit de AI-industrie beïnvloedt.

Naast binnenlandse regelgeving dringt Google er bij de Amerikaanse regering op aan om actief samen te werken met andere regeringen op het gebied van AI-wetgeving. Het bedrijf waarschuwt specifiek voor wetten die bedrijven zouden kunnen dwingen om handelsgeheimen prijs te geven. Het voorziet een internationale norm waarbij alleen de overheid van het thuisland van een bedrijf de bevoegdheid zou hebben om diepgaande evaluaties van zijn AI-modellen uit te voeren.

De Uitdaging van China: Exportcontroles en Strategische Concurrentie

Het spookbeeld van China’s snelle vooruitgang in AI doemt groot op in de voorstellen van alle grote spelers. De “AI diffusion”-regel, die in januari 2024 door de regering-Biden werd geïntroduceerd om China’s toegang tot geavanceerde Amerikaanse technologie te beperken, werd een centraal punt van discussie. Hoewel alle bedrijven het bestaan van de regel erkenden, onthullen hun voorgestelde wijzigingen sterk verschillende benaderingen.

OpenAI stelt een strategie van “commerciële diplomatie” voor. Het suggereert om de hoogste categorie van de regel, die momenteel onbeperkte import van Amerikaanse AI-chips toestaat, uit te breiden met meer landen. De voorwaarde? Deze landen moeten zich committeren aan “democratische AI-principes” en AI-systemen inzetten op manieren die “meer vrijheden voor hun burgers bevorderen”. Deze aanpak probeert het Amerikaanse technologische leiderschap te benutten om de adoptie van op waarden afgestemde AI-governance wereldwijd te stimuleren.

Microsoft deelt OpenAI’s wens om de hoogste categorie van de Diffusion Rule uit te breiden. Microsoft benadrukt echter ook de noodzaak van verbeterde handhaving. Het roept op tot meer middelen voor het ministerie van Handel om ervoor te zorgen dat geavanceerde AI-chips alleen worden geëxporteerd en ingezet in datacenters die door de Amerikaanse overheid als vertrouwd en veilig zijn gecertificeerd. Deze maatregel is bedoeld om te voorkomen dat Chinese bedrijven de beperkingen omzeilen door toegang te krijgen tot krachtige AI-chips via een groeiende “grijze markt” van kleinere, minder gecontroleerde datacenterproviders in Azië en het Midden-Oosten.

Anthropic, de ontwikkelaar van het Claude AI-model, pleit voor nog strengere controles op landen in de tweede categorie van de AI-diffusieregel, waarbij hun toegang tot Nvidia’s H100-chips specifiek wordt beperkt. Bovendien dringt Anthropic er bij de VS op aan om de exportcontroles uit te breiden tot Nvidia’s H20-chips, die specifiek zijn ontworpen voor de Chinese markt om te voldoen aan de bestaande Amerikaanse regelgeving. Dit toont Anthropic’s meer havikachtige standpunt over het voorkomen dat China technologie verwerft die zijn AI-capaciteiten zou kunnen versterken.

Google, in een duidelijke afwijking van zijn concurrenten, spreekt zich ronduit uit tegen de AI-diffusieregel. Hoewel Google de geldigheid van de nationale veiligheidsdoelen erkent, stelt het dat de regel “onevenredige lasten oplegt aan Amerikaanse cloudserviceproviders”. Dit standpunt weerspiegelt Google’s bredere bezorgdheid over het potentieel van regelgeving om innovatie te verstikken en zijn wereldwijde concurrentievermogen te belemmeren.

Naast de diffusieregel gaat OpenAI nog verder door een wereldwijd verbod op Huawei-chips en Chinese “modellen die de privacy van gebruikers schenden en veiligheidsrisico’s creëren, zoals het risico op diefstal van intellectueel eigendom” voor te stellen. Dit wordt ook breed geïnterpreteerd als een steek onder water naar DeepSeek.

Auteursrecht en de Brandstof van AI: Navigeren door Intellectueel Eigendom

De netelige kwestie van auteursrecht, met name in de context van het trainen van AI-modellen, krijgt ook veel aandacht. OpenAI bekritiseert, in een duidelijke afwijzing van de Europese AI Act, de bepaling die rechthebbenden de mogelijkheid geeft om zich af te melden voor het gebruik van hun werken voor AI-training. OpenAI dringt er bij de Amerikaanse regering op aan om “te voorkomen dat minder innovatieve landen hun wettelijke regimes opleggen aan Amerikaanse AI-bedrijven en onze vooruitgang vertragen”. Dit standpunt weerspiegelt OpenAI’s overtuiging dat onbeperkte toegang tot data cruciaal is voor het behoud van het Amerikaanse concurrentievoordeel in AI.

Google daarentegen pleit voor “evenwichtige auteursrechtwetten” en ook privacywetten die automatisch een uitzondering verlenen voor openbaar beschikbare informatie. Dit suggereert een meer genuanceerde aanpak, waarbij de rechten van makers worden erkend, maar ook het belang van data voor AI-ontwikkeling. Google stelt ook een herziening voor van “ten onrechte verleende AI-patenten”, waarbij wordt gewezen op het toenemende aantal Amerikaanse AI-patenten dat door Chinese bedrijven wordt verworven.

De Toekomst Aandrijven: Infrastructuur en Energiebehoeften

De enorme rekenkracht die nodig is om geavanceerde AI-modellen te trainen en te gebruiken, vereist een aanzienlijke uitbreiding van de infrastructuur en energiebronnen. OpenAI, Anthropic en Google pleiten allemaal voor het stroomlijnen van het vergunningsproces voor transmissielijnen, met als doel de uitbouw van de energie-infrastructuur te versnellen om nieuwe AI-datacenters te ondersteunen.

Anthropic neemt een bijzonder gedurfd standpunt in en roept op tot een extra 50 gigawatt aan energie in de VS, uitsluitend voor AI-gebruik, tegen 2027. Dit onderstreept de immense energiebehoefte van het snel evoluerende AI-landschap en het potentieel voor AI om een belangrijke motor van het energieverbruik te worden.

Veiligheid, Overheidsadoptie en de AI-Aangedreven Staat

De voorstellen gaan ook in op het snijvlak van AI, nationale veiligheid en overheidsoperaties. OpenAI stelt voor om de goedkeuringen voor cyberbeveiliging voor top AI-tools te versnellen, zodat overheidsinstanties deze gemakkelijker kunnen testen en implementeren. Het suggereert ook publiek-private partnerschappen om op nationale veiligheid gerichte AI-modellen te ontwikkelen die mogelijk geen levensvatbare commerciële markt hebben, zoals modellen die zijn ontworpen voor geheime nucleaire taken.

Anthropic sluit zich aan bij de oproep tot snellere aanbestedingsprocedures om AI in overheidsfuncties te integreren. Opmerkelijk is dat Anthropic ook het belang benadrukt van robuuste veiligheidsevaluatierollen voor het National Institute of Standards and Technology (NIST) en het U.S. AI Safety Institute.

Google stelt dat nationale veiligheidsinstanties commerciële opslag- en rekenbronnen zouden moeten kunnen gebruiken voor hun AI-behoeften. Het pleit er ook voor dat de overheid haar datasets vrijgeeft voor commerciële AI-training en om open datastandaarden en API’s te verplichten voor verschillende cloudimplementaties van de overheid om “AI-gedreven inzichten” te faciliteren.

De Maatschappelijke Impact: Arbeidsmarkten en de AI-Gedreven Transformatie

Ten slotte raken de voorstellen aan de bredere maatschappelijke implicaties van AI, met name de potentiële impact op de arbeidsmarkten. Anthropic dringt er bij de regering op aan om de trends op de arbeidsmarkt nauwlettend te volgen en zich voor te bereiden op aanzienlijke verstoringen. Google erkent eveneens dat er verschuivingen op komst zijn en benadrukt de noodzaak van bredere ontwikkeling van AI-vaardigheden. Google vraagt ook om meer financiering voor AI-onderzoek en een beleid om ervoor te zorgen dat Amerikaanse onderzoekers voldoende toegang hebben tot rekenkracht, data en modellen.

In wezen schetsen de voorstellen voor het ‘AI Action Plan’ een beeld van een industrie op een cruciaal moment. Hoewel ze verenigd zijn in hun ambitie om AI-technologie te bevorderen, hebben de toonaangevende Amerikaanse bedrijven fundamenteel verschillende opvattingen over hoe om te gaan met de complexe uitdagingen van regulering, internationale concurrentie en maatschappelijke impact. De komende maanden en jaren zullen uitwijzen hoe deze uiteenlopende visies de toekomst van AI zullen vormgeven, niet alleen in de Verenigde Staten, maar wereldwijd.