AI’s groeiende vaardigheid in virologielabs wekt bezorgdheid over biohazards
Een baanbrekende studie onthult dat geavanceerde modellen voor kunstmatige intelligentie (AI), waaronder platforms zoals ChatGPT en Claude, nu probleemoplossende vaardigheden demonstreren in virologische natte laboratoria die die van ervaren virologen met een PhD overtreffen. Deze onthulling, hoewel ze een immens potentieel biedt voor het bevorderen van ziektepreventie, roept ook aanzienlijkezorgen op over het mogelijke misbruik van AI om dodelijke biowapens te creëren, met name door personen zonder de noodzakelijke expertise en ethische overwegingen.
Het tweesnijdende zwaard van AI in de virologie
De studie, die exclusief met TIME werd gedeeld, was een gezamenlijke inspanning van onderzoekers van het Center for AI Safety, MIT’s Media Lab, UFABC (een Braziliaanse universiteit) en SecureBio, een non-profitorganisatie die zich inzet voor pandemiepreventie. Het onderzoeksteam raadpleegde vooraanstaande virologen om een zeer uitdagende praktische test te ontwerpen die het vermogen van AI-modellen beoordeelde om effectief problemen op te lossen met complexe labprocedures en -protocollen die vaak worden gebruikt in virologisch onderzoek.
De resultaten van de test waren opvallend. Virologen met een PhD, ondanks hun uitgebreide training en ervaring, behaalden een gemiddelde nauwkeurigheidsscore van slechts 22,1% in hun verklaarde expertisegebieden. In schril contrast hiermee behaalde OpenAI’s o3-model een indrukwekkende nauwkeurigheid van 43,8%, terwijl Google’s Gemini 2.5 Pro 37,6% scoorde. Deze bevindingen suggereren dat AI-modellen snel de kennis en vaardigheden verwerven die nodig zijn om complexe taken in virologielabs uit te voeren, waardoor ze mogelijk de capaciteiten van menselijke experts op bepaalde gebieden overtreffen.
Bezorgdheid over het creëren van biowapens
Seth Donoughe, een onderzoekswetenschapper bij SecureBio en een co-auteur van de studie, uitte zijn bezorgdheid over de implicaties van deze bevindingen. Hij merkte op dat, voor het eerst in de geschiedenis, vrijwel iedereen met toegang tot deze AI-modellen een niet-oordelende AI-virologie-expert tot zijn beschikking zou kunnen hebben, die hen mogelijk door de complexe labprocessen leidt die nodig zijn om biowapens te creëren.
Donoughe benadrukte dat er door de geschiedenis heen talloze pogingen zijn gedaan om biowapens te ontwikkelen, maar dat veel van deze pogingen zijn mislukt vanwege het gebrek aan toegang tot de nodige expertise. Hij waarschuwde dat de wijdverbreide beschikbaarheid van AI-modellen die deze expertise kunnen bieden, ernstige zorgen oproept over het potentieel voor misbruik en de noodzaak van voorzichtigheid bij de manier waarop deze capaciteiten worden verspreid.
- Het risico van misbruik door niet-experts.
- Het potentieel voor het creëren van dodelijke biowapens.
- De noodzaak van voorzichtigheid bij het verspreiden van AI-virologie-expertise.
AI-laboratoria reageren op de zorgen
Als reactie op de bevindingen van de studie deelden de auteurs de resultaten met grote AI-laboratoria, wat sommige ertoe aanzette actie te ondernemen. xAI publiceerde bijvoorbeeld een risicomanagementframework waarin zijn intentie werd uiteengezet om virologische veiligheidsmaatregelen te implementeren in toekomstige versies van zijn AI-model Grok. OpenAI informeerde TIME dat het ‘nieuwe mitigaties op systeemniveau voor biologische risico’s’ had ingezet voor zijn nieuwe modellen die vorige week werden uitgebracht. Anthropic nam de resultaten van de modelprestaties op het papier op in recente systeemkaarten, maar stelde geen specifieke mitigatiemaatregelen voor. Google’s Gemini weigerde commentaar te geven aan TIME.
Deze reacties duiden op een groeiend bewustzijn onder AI-ontwikkelaars van de potentiële risico’s die verbonden zijn aan de toenemende capaciteiten van AI in de virologie en de noodzaak om veiligheidsmaatregelen te implementeren om misbruik te voorkomen.
De belofte van AI in de strijd tegen ziekten
Ondanks de zorgen over het creëren van biowapens, biedt AI ook een immense belofte voor het bevorderen van virologisch onderzoek en het bestrijden van infectieziekten. AI-leiders hebben lange tijd het potentieel van AI erkend om de biomedische wetenschap radicaal te veranderen en de ontwikkeling van nieuwe behandelingen en genezingen te versnellen.
OpenAI CEO Sam Altman verklaarde bijvoorbeeld in januari in het Witte Huis dat ‘naarmate deze technologie vordert, we zullen zien dat ziekten in een ongekend tempo worden genezen’. Dit optimisme wordt ondersteund door bemoedigende tekenen van vooruitgang op dit gebied. Eerder dit jaar ontwikkelden onderzoekers van het Emerging Pathogens Institute van de Universiteit van Florida een algoritme dat in staat is te voorspellen welke coronavirusvariant zich het snelst zou kunnen verspreiden.
Het vermogen van AI evalueren om virologisch labwerk uit te voeren
Hoewel AI veelbelovend is gebleken in het verstrekken van informatie in academische stijl met betrekking tot virologie, bleef er een groot hiaat bestaan in het begrijpen van zijn vermogen om daadwerkelijk virologisch labwerk uit te voeren. Om dit hiaat aan te pakken, ontwierpen Donoughe en zijn collega’s een test specifiek voor moeilijke, niet-Googlebare vragen die praktische assistentie en de interpretatie van afbeeldingen en informatie vereisen die doorgaans niet in wetenschappelijke artikelen voorkomen.
De vragen waren ontworpen om de uitdagingen na te bootsen waarmee virologen in hun dagelijkse werk worden geconfronteerd, zoals het oplossen van problemen die zich voordoen bij het kweken van virussen in specifieke celtypen en -omstandigheden.
De indeling was als volgt ontworpen:
- Een specifiek scenario presenteren.
- Details verstrekken over de experimentele opzet.
- De AI vragen om het meest waarschijnlijke probleem te identificeren.
AI presteert beter dan virologen op praktische tests
De resultaten van de test onthulden dat vrijwel elk AI-model beter presteerde dan virologen met een PhD, zelfs binnen hun eigen expertisegebieden. Deze bevinding suggereert dat AI-modellen niet alleen in staat zijn om toegang te krijgen tot enorme hoeveelheden virologische kennis en deze te verwerken, maar ook om deze kennis toe te passen om praktische problemen in het laboratorium op te lossen.
De onderzoekers observeerden ook dat de modellen in de loop van de tijd aanzienlijke verbetering vertoonden, wat aangeeft dat ze voortdurend leren en hun vaardigheden in de virologie verfijnen. Zo sprong Anthropic’s Claude 3.5 Sonnet van 26,9% naar 33,6% nauwkeurigheid van zijn juni 2024-model naar zijn oktober 2024-model. En een preview van OpenAI’s GPT 4.5 in februari presteerde bijna 10 procentpunten beter dan GPT-4o.
De implicaties van de groeiende capaciteiten van AI
Dan Hendrycks, de directeur van het Center for AI Safety, benadrukte dat AI-modellen nu een zorgwekkende hoeveelheid praktische kennis verwerven. Als AI-modellen inderdaad zo capabel zijn in natte labomgevingen als de studie suggereert, zijn de implicaties verstrekkend.
Aan de ene kant zou AI onschatbare hulp kunnen bieden aan ervaren virologen bij hun cruciale werk in de strijd tegen virussen, het versnellen van de tijdlijnen van medicijnen- en vaccinontwikkeling en het verbeteren van klinische onderzoeken en ziekteopsporing. Tom Inglesby, de directeur van het Johns Hopkins Center for Health Security, merkte op dat AI wetenschappers in verschillende delen van de wereld zou kunnen machtigen, met name degenen die geen gespecialiseerde vaardigheden of middelen hebben, om waardevol dagelijks werk te verrichten aan ziekten die in hun land voorkomen.
- Het versnellen van medicijnen- en vaccinontwikkeling.
- Het verbeteren van klinische onderzoeken en ziekteopsporing.
- Het machtigen van wetenschappers in omgevingen met beperkte middelen.
Het risico van misbruik door kwaadwillende actoren
Aan de andere kant roept de studie ernstige zorgen op over het mogelijke misbruik van AI door kwaadwillende actoren die deze modellen zouden kunnen gebruiken om te leren hoe ze virussen kunnen creëren zonder de typische training en toegang die nodig is om een Biosafety Level 4 (BSL-4) laboratorium te betreden, dat de gevaarlijkste en meest exotische infectueuze agentia behandelt. Inglesby waarschuwde dat AI meer mensen met minder training in staat zou kunnen stellen om virussen te beheren en te manipuleren, wat mogelijk tot catastrofale gevolgen zou leiden.
Hendrycks drong er bij AI-bedrijven op aan om vangrails te implementeren om dit type gebruik te voorkomen, en suggereerde dat het nalaten daarvan binnen zes maanden roekeloos zou zijn. Hij stelde voor dat een oplossing is om deze modellen afgeschermd te maken, zodat alleen vertrouwde derden met legitieme redenen om dodelijke virussen te manipuleren, zoals onderzoekers van de MIT-biologieafdeling, toegang hebben tot hun ongefilterde versies.
- Het voorkomen van misbruik door het implementeren van vangrails.
- Het afschermen van modellen om de toegang tot vertrouwde partijen te beperken.
- Het ervoor zorgen dat alleen geautoriseerde onderzoekers toegang hebben tot gevoelige mogelijkheden.
De haalbaarheid van zelfregulering door de industrie
Hendrycks is van mening dat het technologisch haalbaar is voor AI-bedrijven om zichzelf te reguleren en dit soort veiligheidsmaatregelen te implementeren. Hij uitte echter zijn bezorgdheid over de vraag of sommige bedrijven zullen talmen of gewoonweg de nodige stappen niet zullen ondernemen.
xAI, het AI-lab van Elon Musk, erkende het paper en gaf aan dat het bedrijf ‘mogelijk gebruik zou maken van’ bepaalde veiligheidsmaatregelen rond het beantwoorden van virologische vragen, waaronder het trainen van Grok om schadelijke verzoeken af te wijzen en het toepassen van input- en outputfilters.
OpenAI verklaarde dat zijn nieuwste modellen, de o3 en o4-mini, werden ingezet met een reeks veiligheidsmaatregelen met betrekking tot biologische risico’s, waaronder het blokkeren van schadelijke outputs. Het bedrijf meldde ook dat het een duizend uur durende red-teamingcampagne had uitgevoerd waarin 98,7% van de onveilige bio-gerelateerde gesprekken succesvol werden gemarkeerd en geblokkeerd.
- Het trainen van AI-modellen om schadelijke verzoeken af te wijzen.
- Het toepassen van input- en outputfilters om gevaarlijke inhoud te blokkeren.
- Het uitvoeren van red-teamingoefeningen om risico’s te identificeren en te beperken.
De noodzaak van beleid en regulering
Ondanks deze inspanningen stelt Inglesby dat zelfregulering door de industrie niet voldoende is en roept hij wetgevers en politieke leiders op om een beleidsaanpak te ontwikkelen voor het reguleren van de biologische risico’s van AI. Hij benadrukte dat, hoewel sommige bedrijven tijd en geld investeren om deze risico’s aan te pakken, andere dat misschien niet doen, waardoor er een situatie ontstaat waarin het publiek geen inzicht heeft in wat er gebeurt.
Inglesby stelde voor dat, voordat een nieuwe versie van een LLM wordt uitgebracht, deze moet worden geëvalueerd om ervoor te zorgen dat deze geen pandemie-achtige resultaten zal opleveren. Dit zou een meer alomvattende en gecoördineerde aanpak vereisen voor het reguleren van de capaciteiten van AI in de virologie, waarbij zowel de industrie als overheidsstakeholders betrokken zijn.
- Het evalueren van LLM’s vóór de release om pandemie-achtige resultaten te voorkomen.
- Het ontwikkelen van een alomvattende beleidsaanpak voor het reguleren van de biologische risico’s van AI.
- Het betrekken van zowel de industrie als overheidsstakeholders bij het reguleringsproces.
Een evenwicht vinden tussen innovatie en veiligheid
De uitdaging ligt in het vinden van een evenwicht tussen het bevorderen van innovatie in AI en het waarborgen dat deze krachtige technologieën niet worden misbruikt om dodelijke biowapens te creëren. Dit vereist een veelzijdige aanpak die omvat:
- Het ontwikkelen van robuuste veiligheidsmaatregelen om misbruik te voorkomen.
- Het beperken van de toegang tot gevoelige mogelijkheden tot vertrouwde partijen.
- Het reguleren van de capaciteiten van AI in de virologie.
- Het bevorderen van verantwoorde innovatie en ethische overwegingen.
Door deze stappen te nemen, kunnen we het immense potentieel van AI benutten om virologisch onderzoek te bevorderen en infectieziekten te bestrijden, terwijl we de risico’s die verbonden zijn aan het misbruik ervan beperken. De toekomst van AI in de virologie hangt af van ons vermogen om dit complexe landschap op verantwoorde wijze te navigeren en ervoor te zorgen dat deze krachtige technologieën worden gebruikt ten behoeve van de mensheid.