Van Jaipur tot DeepSeek: Open AI

Een literair festival, een AI-openbaring

Een paar weken geleden werd het bruisende Jaipur Literature Festival (JLF) in India een onverwacht forum voor een cruciale discussie over de toekomst van kunstmatige intelligentie. Tijdens een panel dat ogenschijnlijk gericht was op de erfenis van het imperium, nam het gesprek een scherpe wending. Het publiek, geboeid door Pankaj Mishra’s ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’, stelde een reeks gerichte vragen, niet over literatuur, maar over DeepSeek, een nieuw generatief AI-model uit China.

Deze vragen – Hoe zijn we hier gekomen? Hoe creëren we het best mogelijke pad voor de toekomst van AI? Waarom is open source cruciaal in AI-ontwikkeling? – resoneerden ver buiten het festivalterrein. Ze raakten aan een diepgewortelde historische rivaliteit, een verlangen naar zelfredzaamheid en een groeiende wereldwijde beweging die pleit voor een meer open en collaboratieve benadering van AI-ontwikkeling.

De historische wortels van DeepSeek's ontvangst

Dat DeepSeek op een literatuurfestival opdook, lijkt misschien vreemd. De prominentie ervan is echter nauw verweven met historische gebeurtenissen en een langdurige rivaliteit, met name tussen Azië en het Westen. Terwijl Europese AI-labs lof hebben geoogst voor hun open-source doorbraken, draagt de ontvangst van DeepSeek in Azië een veel diepere historische resonantie.

De lancering van DeepSeek werd met intense media-aandacht ontvangen. De ontvangst op JLF onthulde een sentiment dat de loutere discussies over AI-prestaties oversteeg. Indiase schrijvers en journalisten, vaak kritisch over China, vonden zich verenigd door een gedeelde strijd tegen de dominantie van Amerikaanse AI Corporations (AIC’s). Dit enthousiasme voor DeepSeek in heel Azië is geworteld in de koloniale geschiedenis en, meer recentelijk, in provocerende bedrijfsverklaringen.

AI: Een moderne strijd voor zelfredzaamheid

Voor Stephen Platt, auteur van ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’, zijn de technologische ambities van China onlosmakelijk verbonden met zijn historische littekens. De Opiumoorlogen (1839–1860) dienen als een krachtig symbool van hoe de technologische en militaire superioriteit van Groot-Brittannië China vernederde. Deze ‘Eeuw van Vernedering’ voedt China’s huidige streven naar zelfredzaamheid, zijn agressieve investeringen in AI, halfgeleiders en andere kritieke technologieën. Het is een vastberadenheid om afhankelijkheid van westerse technologie te vermijden, een les die in het nationale bewustzijn is gegrift.

De Indiase panelleden op JLF vonden een gemeenschappelijke basis in dit verhaal. Net als China draagt India het duistere stempel van de invloed van de Oost-Indische Compagnie. Bovendien benadrukte de Britse journalist Anita Anand een controversiële video van OpenAI CEO Sam Altman die het potentieel van India om te concurreren met AIC’s bij het trainen van fundamentele modellen afwees, en verklaarde dat het “totaal hopeloos” was. Dergelijke opmerkingen hebben de vastberadenheid voor zelfredzaamheid in de regio alleen maar versterkt.

Open Source AI: Een symbool van verzet

DeepSeek, en Europese labs die eraan voorafgingen, hebben een baken van hoop geboden in de AI-race. Hun keuze om open source te omarmen is een krachtig symbool geworden van verzet tegen de dominantie van propriëtaire AI-modellen.

De release van DeepSeek R1 moet worden begrepen in de context van een diepgewortelde rivaliteit, met name met de Verenigde Staten. Deze rivaliteit is zo diepgaand dat Europa vaak over het hoofd wordt gezien in discussies over concurrentie met Amerikaanse technologie.

De dominantie van AIC’s heeft zelfs in het Westen tot vergelijkingen met kolonialisme geleid. In een opiniestuk uit augustus 2024 met de titel ‘The Rise of Techno-Colonialism’, schreven Hermann Hauser, lid van de Europese Innovatieraad, en Hazem Danny Nakib, Senior Researcher aan University College London (UCL): ‘In tegenstelling tot het kolonialisme van vroeger, gaat techno-kolonialisme niet over het veroveren van grondgebied, maar over het beheersen van de technologieën die de wereldeconomie en ons dagelijks leven ondersteunen. Om dit te bereiken, zijn de VS en China steeds meer bezig met het onshoren van de meest innovatieve en complexe segmenten van wereldwijde toeleveringsketens, waardoor strategische knelpunten ontstaan.’

De baanbrekende open-source benadering van Europese AI-labs zoals Mistral, kyutai en Meta’s FAIR Paris-team, en nu DeepSeek, heeft een overtuigend alternatief geboden voor de propriëtaire AI-modelstrategie van de AIC’s. Deze open-source bijdragen resoneren wereldwijd en hebben de omarming van open-source AI als symbool van verzet tegen Amerikaanse AI-dominantie verder versterkt.

De zaak voor Open Source: Geschiedenis herhaalt zich

Technologische samenwerking gedijt op energie en snelheid, iets dat inherent is aan de evolutie van softwarecode.

De Franse Nobelprijswinnaar Economie Jean Tirole, aanvankelijk verbaasd over de opkomst van open source, vroeg zich in zijn paper uit 2000 met Josh Lerner, ‘The Simple Economics of Open Source’, af: ‘Waarom zouden duizenden top-programmeurs vrijelijk bijdragen aan de voorziening van een publiek goed? Elke verklaring gebaseerd op altruïsme gaat maar tot op zekere hoogte.’

Hoewel destijds begrijpelijk, zou iedereen die de vooruitgang van AI in de afgelopen jaren volgt, vooral na de release van DeepSeek R1, het antwoord vanzelfsprekend vinden. De impact van FAIR Paris bij Meta’s open-sourcing van Llama, de snelle opkomst van Mistral en zijn oprichters door het open-sourcen van een 7B taal-leermodel (LLM), en DeepSeek R1 tonen de overtuigende redenen achter de toewijding van deze programmeurs en wetenschappers aan open source.

Het verduidelijkt ook waarom Sam Altman en zijn medeoprichters de naam ‘OpenAI’ kozen om talent aan te trekken. Zouden een van deze frontier labs zo’n klinkende publiciteit hebben bereikt en zulke sterke persoonlijke merken hebben opgebouwd binnen de AI-gemeenschap als ze hadden gekozen voor een propriëtaire aanpak? Het antwoord is een volmondig nee.

Twee krachtige citaten uit 1999, van respectievelijk programmeur Richard Stallman en ontwikkelaar Eric Raymond, opgenomen aan het begin van het paper, verhelderen de ontvangst van DeepSeek op JLF en onderstrepen de diepere ideologische krachten die spelen:

  • ‘Het idee dat het propriëtaire softwaresociale systeem – het systeem dat zegt dat je software niet mag delen of wijzigen – onsociaal is, dat het onethisch is, dat het gewoonweg verkeerd is, kan voor sommige mensen als een verrassing komen. Maar wat kunnen we anders zeggen over een systeem dat gebaseerd is op het verdelen van het publiek en het hulpeloos houden van gebruikers?’ - Richard Stallman

  • ‘De nutsfunctie die Linux-hackers maximaliseren is niet klassiek economisch, maar is het ontastbare van hun eigen ego-bevrediging en reputatie onder andere hackers. … Vrijwillige culturen die op deze manier werken zijn eigenlijk niet ongewoon; een andere waaraan ik lang heb deelgenomen is sciencefiction fandom, die in tegenstelling tot hackerdom expliciet egoboo erkent (de verbetering van iemands reputatie onder andere fans).’ - Eric Raymond

Het traject van Unix in de jaren 1970 en 1980 biedt een overtuigende analogie voor de huidige staat van AI. AT&T’s initiële promotie en gratis distributie van Unix binnen de academische wereld bevorderden innovatie en adoptie. Toen AT&T echter eind jaren zeventig een propriëtaire licentie oplegde, leidde dit er onvermijdelijk toe dat Berkeley University BSD Unix lanceerde, een open alternatief, en uiteindelijk Linus Torvalds om Linux te creëren. Torvalds’ ontwikkeling van Linux in Europa verschoof het epicentrum van open-source software weg van de VS.

De parallellen zijn opvallend, zelfs geografisch, met de evolutie van AI. Deze keer zijn er echter nieuwe geografieën ontstaan: Abu Dhabi’s TII met zijn Falcon Models, China’s DeepSeek, Alibaba’s Qwen, en meer recentelijk, India’s Krutrim AI Lab met zijn open-source modellen voor Indische talen.

Het Meta FAIR Paris-team, samen met toonaangevende Europese AI-labs en nieuwere frontier labs (DeepSeek, Falcon, Qwen, Krutrim), hebben de AI-innovatie aanzienlijk versneld. Door openlijk onderzoekspapers en code te delen, hebben ze:

  • Een nieuwe generatie AI-ingenieurs en -onderzoekers getraind in state-of-the-art AI-technieken.
  • Een ecosysteem van open samenwerking gecreëerd, waardoor snelle vooruitgang buiten propriëtaire AI-labs mogelijk is.
  • Alternatieve AI-modellen geboden, waardoor AI niet wordt gemonopoliseerd door Amerikaanse AI Corporations.

Deze vier ecosystemen (Europa, India, Abu Dhabi en China) zouden een krachtige open-source AI-alliantie kunnen smeden om de dominante AIC’s uit te dagen die nog steeds opereren onder een propriëtaire AI-mindset.

In een Ask Me Anything (AMA) vragenlijst op 31 januari 2025, na de release van DeepSeek R1, erkende Altman dat de propriëtaire AI-modelaanpak aan de verkeerde kant van de geschiedenis had gestaan.

Na verloop van tijd kunnen AI-labs over de hele wereld ervoor kiezen om zich bij deze alliantie aan te sluiten om het veld collectief vooruit te helpen. Dit zou niet de eerste keer zijn dat een wetenschappelijk veld grenzen en politieke ideologieën overstijgt door middel van een non-profit initiatief. Het biedt een manier van concurrentie die voorkomt dat de anti-koloniale grieven worden getriggerd die vaak door het Globale Zuiden worden geuit.

Historische precedenten: Het Human Genome Project als model voor AI

Als bioloog ben ik me bijzonder bewust van de prestaties van het Human Genome Project (HGP) en hoe het uiteindelijk het for-profit initiatief van Celera Genomics overtrof, ten voordele van het veld en de mensheid als geheel.

Het HGP was een baanbrekend internationaal onderzoeksinitiatief dat het hele menselijke genoom in kaart bracht en sequentiëerde. Voltooid in 2003 na 13 jaar samenwerking, heeft het bijna $800 miljard aan economische impact gegenereerd uit een investering van $3 miljard, volgens een rapport uit 2011 dat in 2013 werd bijgewerkt (een rendement op investering voor de Amerikaanse economie van 141 op één – elke $1 aan federale HGP-investering heeft bijgedragen aan de generatie van $141 in de economie). Het heeft een revolutie teweeggebracht in de geneeskunde, biotechnologie en genetica, waardoor vooruitgang in gepersonaliseerde geneeskunde, ziektepreventie en genoomonderzoek mogelijk is geworden. Het sequentiewerk en onderzoek werden uitgevoerd door 20 laboratoria in zes landen: de VS, het VK, Frankrijk, Duitsland, Japan en China.

Terwijl Celera Genomics probeerde genomische sequenties te sequentiëren voor winst, gaf het HGP prioriteit aan het open delen van data, vastgelegd in zijn Bermuda Principles. Deze principes, die werden vastgesteld tijdens de International Strategy Meeting on Human Genome Sequencing in Bermuda in februari 1996, waren cruciaal bij het vormgeven van het beleid voor het delen van data voor het HGP en hebben een blijvende impact gehad op de praktijken van genoomonderzoek wereldwijd. De belangrijkste principes waren:

  1. Onmiddellijke vrijgave van data: Alle menselijke genomische sequentiedata gegenereerd door het HGP moesten worden vrijgegeven in openbare databases, bij voorkeur binnen 24 uur na generatie. Deze snelle verspreiding was bedoeld om wetenschappelijke ontdekkingen te versnellen en maatschappelijke voordelen te maximaliseren.
  2. Vrije en onbeperkte toegang: De data moesten gratis beschikbaar worden gesteld aan de wereldwijde wetenschappelijke gemeenschap en het publiek, zonder beperkingen op het gebruik ervan voor onderzoeks- of ontwikkelingsdoeleinden.
  3. Preventie van claims op intellectueel eigendom: Deelnemers kwamen overeen dat er geen intellectuele eigendomsrechten zouden worden geclaimd op de primaire genomische sequentiedata, waardoor een open-science ethos werd bevorderd en potentiële belemmeringen voor onderzoek als gevolg van patentering werden voorkomen.

Wat betreft governance was het HGP een collaboratief en gecoördineerd wetenschappelijk initiatief, geen op zichzelf staande organisatie of corporatie. Het was een gedecentraliseerde inspanning die werd gefinancierd door middel van overheidssubsidies en contracten aan verschillende onderzoeksinstellingen. Een deel van het budget (3–5%) was gewijd aan het bestuderen en aanpakken van ethische, juridische en sociale kwesties met betrekking tot menselijke genoomsequentiebepaling.

AI-veiligheid en Open Source AI overbruggen

Een ander cruciaal voordeel van open-source AI is de rol ervan in AI-veiligheidsonderzoek.

De AI Seoul Summit in 2024 richtte zich uitsluitend op existentiële risico’s in een tijd dat AIC’s een aanzienlijke voorsprong hadden op de rest van de wereld. Nog in mei 2024 beweerde voormalig Google CEO Eric Schmidt dat de VS 2–3 jaar voorliepen op China in AI, terwijl Europa te veel bezig was met regelgeving om relevant te zijn. Als de top was geslaagd, zou het effectief de controle over AI-veiligheidsbeslissingen aan deze corporaties hebben afgestaan. Gelukkig is dat niet gebeurd.

Nu open-source AI de technologische kloof overbrugt, zullen veiligheidsdiscussies niet langer uitsluitend worden gedicteerd door een handvol dominante spelers. In plaats daarvan heeft een bredere en meer diverse groep belanghebbenden – waaronder onderzoekers, beleidsmakers en AI-labs uit Europa, India, China en Abu Dhabi – de mogelijkheid om de discussie samen met de AIC’s vorm te geven.

Bovendien verbetert open-source AI de wereldwijde afschrikkingsmogelijkheden, waardoor wordt gegarandeerd dat geen enkele actor geavanceerde AI-systemen kan monopoliseren of misbruiken zonder verantwoording af te leggen. Deze gedecentraliseerde benadering van AI-veiligheid zal helpen potentiële existentiële bedreigingen te beperken door zowel capaciteiten als toezicht eerlijker te verdelen over het wereldwijde AI-ecosysteem.

Een Human AI Project met de Parijse Principes

Welke rol kan de AI Action Summit in Parijs volgende week spelen bij het vormgeven van de toekomst van AI?

Dit biedt een cruciale kans om een Human AI Project op te zetten, gemodelleerd naar het Human Genome Project, om open-source AI-ontwikkeling op wereldschaal te bevorderen en te ondersteunen. De huidige open-source bijdragen, van baanbrekende Europese AI-labs tot DeepSeek, versnellen het veld al en helpen de kloof met AIC’s te dichten.

De mogelijkheden van AI worden aanzienlijk verbeterd door de volwassenheid van het algemene open-source ecosysteem, met duizenden volwassen projecten, toegewijde governancemodellen en diepe integratie in bedrijven, de academische wereld en de overheid.

Het AI open-source ecosysteem profiteert ook van platforms zoals Github en Gitlab. Meer recentelijk zijn speciale platforms voor open-source AI, zoals Hugging Face – een Amerikaanse corporatie mede-opgericht door drie Franse ondernemers – een vitale rol gaan spelen als distributieplatforms voor de gemeenschap.

Gezien de relatieve volwassenheid van het open-source AI-ecosysteem in vergelijking met menselijke genoomsequentiebepaling in de vroege jaren 1990, hoe zou open-source AI kunnen profiteren van een Human AI Project?

Ten eerste wordt de Europese Unie vaak bekritiseerd door AIC’s en haar eigen frontier AI Labs vanwege haar regulering van open source. Een Human AI Project zou een gezamenlijke inspanning kunnen wijden aan het ontwikkelen van regelgevingsafstemming en standaarden in deelnemende landen en regio’s. Een gecoördineerde aanpak, met initiële bijdragen van Europa, India, Abu Dhabi en China, zou de verspreiding van open-source modellen in deze gedeelde regelgevingsregio (een soort vrijhandelszone voor open source) kunnen vergemakkelijken.

Hoewel niet definitief bewezen, zijn er parallellen met de door rivaliteit gedreven dynamiek die de reactie op DeepSeek op JLF vormde. Evenzo zou AI-regulering kunnen worden opgesteld met een focus op het bevorderen van innovatie en het maximaliseren van het publieke voordeel – zowel voor bedrijven als consumenten – in plaats van te dienen als een potentieel mechanisme om de vooruitgang van AIC’s te belemmeren of de eigen AI-kampioenen te hinderen die ernaar streven de kloof te dichten.

Het project zou ook talentuitwisseling kunnen vergemakkelijken en een gedeelde compute-infrastructuur (gekoppeld aan energie-infrastructuur) voor open-source AI kunnen financieren. Uit onderstaande grafiek blijkt duidelijk dat getalenteerde STEM-afgestudeerden in sommige delen van de wereld momenteel moeite kunnen hebben om toegang te krijgen tot de AI-infrastructuur van wereldklasse die hun land mist.

Een ander samenwerkingsgebied zou zijn om best practices vast te stellen voor open toegangsstandaarden voor modellen en datasets, inclusief gewichten, code en documentatie.

Het project zou ook de wereldwijde samenwerking op het gebied van AI Safety Research kunnen bevorderen. In plaats van in het geheim te racen om uitlijningsproblemen op te lossen, zouden onderzoekers van Parijs tot Beijing tot Bangalore kunnen samenwerken aan het evalueren van modellen en het beperken van risico’s. Alle veiligheidsbevindingen (bijv. methoden om schadelijke outputs te verminderen of tools voor interpreteerbaarheid) zouden onmiddellijk in het open domein kunnen worden gedeeld.

Dit principe zou erkennen dat AI-veiligheid een wereldwijd publiek goed is – een doorbraak in één lab (zeg, een nieuw algoritme om AI-redenering transparant te maken) zou iedereen ten goede moeten komen, niet propriëtair worden gehouden. Gezamenlijke veiligheidsbenchmarks en challenge-evenementen zouden kunnen worden georganiseerd om een cultuur van collectieve verantwoordelijkheid aan te moedigen. Door veiligheidsonderzoek te bundelen, zou het project ernaar streven potentieel AI-misbruik of -ongevallen voor te blijven, en het publiek geruststellen dat krachtige AI-systemen met zorg worden beheerd.

De focus op existentiële risico’s tijdens de 2023 UK AI Safety Summit in Bletchley Park, door de analogie van nucleaire proliferatie te overbenadrukken, miste een kans om andere gebieden te onderzoeken waar veiligheid als een publiek goed wordt beschouwd: cyberbeveiliging, antibiotica en immunologie (met verschillende interessante initiatieven na Covid-19), en luchtvaartveiligheid.

Het project zou ook kunnen samenwerken met en het werk kunnen bevorderen dat momenteel wordt uitgevoerd door de private ARC Prize Foundation om de ontwikkeling van veilige en geavanceerde AI-systemen te bevorderen. De ARC Prize, mede-opgericht door François Chollet, maker van de Keras open-source bibliotheek, en Mike Knoop, mede-oprichter van het softwarebedrijf Zapier, is een non-profitorganisatie die openbare competities organiseert om onderzoek naar kunstmatige algemene intelligentie (AGI) te bevorderen. Hun vlaggenschip-evenement, de ARC Prize-competitie, biedt meer dan $1 miljoen aan deelnemers die oplossingen kunnen ontwikkelen en open-sourcen voor de ARC-AGI-benchmark – een test die is ontworpen om het vermogen van een AI-systeem om te generaliseren en nieuwe vaardigheden efficiënt te verwerven, te evalueren.

De nadruk van de ARC Prize Foundation op open-source oplossingen en openbare competities sluit naadloos aan bij de doelstellingen van het Human AI Project om internationale samenwerking en transparantie in AI-ontwikkeling te bevorderen, zoals vermeld op de website van de ARC Prize Foundation onder ‘AGI’:

‘LLM’s worden getraind op onvoorstelbaar grote hoeveelheden data, maar blijven niet in staat zich aan te passen aan eenvoudige problemen waarvoor ze niet zijn getraind, of nieuwe uitvindingen te doen, hoe basaal ook. Sterke marktprikkels hebben ertoe geleid dat frontier AI-onderzoek closed source is geworden. Onderzoeks-aandacht en -middelen worden naar een doodlopende weg getrokken. ARC Prize is ontworpen om onderzoekers te inspireren om nieuwe technische benaderingen te ontdekken die de open AGI-vooruitgang vooruit helpen.’

Net als het HGP zou het Human AI Project een deel van zijn financiering wijden aan ethisch bestuur en toezicht. Dit zou discussies over auteursrecht omvatten. Het project zou de samenleving kunnen helpen bij het overwegen van de ethiek van het gratis toegang krijgen tot de beste bron van informatie bij training, terwijl er propriëtaire modellen bovenop worden ontwikkeld. In de biologiewereld is het bekend dat de Protein Data Bank, die cruciaal was voor Google DeepMind’s AlphaFold-model om de eiwitstructuur te voorspellen, waarschijnlijk het equivalent van $10 miljard aan financiering nodig had over een periode van 50 jaar. Het project zou kunnen helpen bij het nadenken over hoe we AI-ontwikkeling blijven financieren of hoe de propriëtaire AIC’s inkomsten zouden moeten delen met makers van origineel werk.

Samen zouden deze Parijse Principes en het Human AI Project helpen om AI wereldwijd op een meer open, collaboratieve en ethische manier vooruit te helpen. Ze zouden voortbouwen op de prestaties van toonaangevende open-source bijdragers van Europa tot het Midden-Oosten, India en nu China, binnen de bestaande open-source software en AI-specifieke frameworks en platforms.

Geschiedenis herhaalt zich met AI

De kans die voor ons ligt is immens. Mistral AI, kyutai, BFL, Stability, en meer recentelijk DeepSeek hebben het publiek de hoop gegeven dat een toekomst waarin samenwerking de propriëtaire AIC’s evenaart of zelfs overtreft, mogelijk is.

We bevinden ons nog in de beginfase van deze technologische doorbraak. We zouden dankbaar moeten zijn voor de bijdragen die AIC’s aan het veld hebben geleverd. De AI Action Summit zou een kans moeten zijn om coöperatieve innovatie op ongekende schaal te bevorderen en zoveel mogelijk spelers naar de goede kant van de geschiedenis te brengen.

Het is 1789 opnieuw. We zijn getuige van een strijd voor technologische soevereiniteit, een decentralisatie van macht en een roep om AI als publiek goed. En net als in 1789 zal deze revolutie niet worden ingeperkt.