De nieuwste versie van het DeepSeek R1 AI-model, ontwikkeld door het Chinese AI-startupbedrijf DeepSeek, heeft opmerkelijke resultaten behaald in benchmarks voor code, wiskunde en algemene kennis, en nadert daarmee de prestaties van OpenAI’s vlaggenschip o3-model. Echter, de geüpgradede R1, ook wel bekend als “R1-0528”, is mogelijk minder geneigd om controversiële vragen te beantwoorden, vooral over onderwerpen die door de Chinese overheid als gevoelig worden beschouwd.
Volgens tests uitgevoerd door de anonieme ontwikkelaar achter SpeechMap, is de tolerantie van R1-0528 voor controversiële onderwerpen met betrekking tot de vrijheid van meningsuiting aanzienlijk lager dan bij eerdere versies van DeepSeek, en is het “het tot nu toe meest gecensureerde DeepSeek-model wat betreft kritiek op de Chinese overheid”. SpeechMap is een platform dat vergelijkt hoe verschillende modellen omgaan met gevoelige en controversiële onderwerpen.
Zoals Wired in januari uitlegde, moeten Chinese modellen voldoen aan strenge informatiecontrole. Een wet uit 2023 verbiedt modellen om inhoud te genereren die “de nationale eenheid en sociale harmonie schaadt”, wat kan worden geïnterpreteerd als alles wat in tegenspraak is met het officiële verhaal van de regering over geschiedenis en politiek. Om aan de regels te voldoen, censureren Chinese startups hun modellen doorgaans door middel van filters op prompt-niveau of finetuning. Uit onderzoek bleek dat de oorspronkelijke R1 van DeepSeek weigerde om 85% van de vragen te beantwoorden over onderwerpen die de Chinese overheid als politiek controversieel beschouwt.
Volgens xlr8harder censureert R1-0528 antwoorden op onderwerpen zoals de detentiekampen in de Chinese regio Xinjiang, waar meer dan een miljoen Oeigoerse moslims willekeurig worden vastgehouden. Hoewel het soms bepaalde aspecten van het Chinese overheidsbeleid bekritiseert – in de tests van xlr8harder gaf het de kampen in Xinjiang als voorbeeld van schendingen van de mensenrechten – geeft het model vaak het officiële standpunt van de Chinese overheid, wanneer het direct wordt gevraagd.
TechCrunch heeft dit ook waargenomen in onze korte tests.
Chinese openbaar beschikbare AI-modellen, waaronder modellen voor het genereren van video’s, zijn in het verleden bekritiseerd vanwege het censureren van onderwerpen die gevoelig zijn voor de Chinese overheid, zoals het bloedbad op het Tiananmenplein. In december waarschuwde Clément Delangue, de CEO van het AI-ontwikkelingsplatform Hugging Face, voor onbedoelde gevolgen van westerse bedrijven die bouwen op krachtige, openbaar gelicenseerde Chinese AI.
De impact van censuur op AI-modellen is al lang een belangrijk aandachtspunt, vooral in de context van geopolitieke spanningen. Het geval van DeepSeek R1-0528 benadrukt de complexe balans tussen het nastreven van technologische vooruitgang in AI en het handhaven van de vrijheid van denken en toegang tot informatie. Het is de moeite waard om dieper in te gaan op hoe DeepSeek deze uitdagingen aangaat en wat dit betekent voor de toekomstige ontwikkeling van de AI-industrie.
Definitie en vormen van censuur
Censuur, in de breedste zin van het woord, verwijst naar de beperking of onderdrukking van informatie en kan vele vormen aannemen. Op het gebied van kunstmatige intelligentie (AI) komt censuur vaak tot uiting in de volgende vormen:
- Inhoudsfiltering: Hierbij wordt voorkomen dat modellen bepaalde soorten inhoud genereren of weergeven, zoals inhoud die betrekking heeft op politiek gevoelige onderwerpen, geweld, discriminatie, enzovoort.
- Informatievervorming: De informatie die door het model wordt gepresenteerd, wordt aangepast of verdraaid om aan een bepaalde ideologie of politieke standpunt te voldoen.
- Antwoorden vermijden: Modellen weigeren bepaalde vragen te beantwoorden of geven vage, dubbelzinnige antwoorden.
- Prompt engineering: Door middel van zorgvuldig ontworpen prompts wordt het model geleid om antwoorden te geven die overeenkomen met een bepaalde bedoeling.
Het geval van DeepSeek R1-0528 suggereert dat het model mogelijk verschillende van de bovengenoemde censuurmethoden heeft toegepast, vooral als het gaat om onderwerpen die gevoelig zijn voor de Chinese overheid.
Redenen en motieven voor censuur
De redenen en motieven voor het censureren van AI-modellen zijn vaak veelzijdig:
- Wetten en voorschriften: Sommige landen of regio’s hebben wetten en voorschriften opgesteld die vereisen dat AI-modellen voldoen aan specifieke informatiecontrolenormen. De relevante wetten van China verbieden bijvoorbeeld modellen om inhoud te genereren die “de nationale eenheid en sociale harmonie schaadt”.
- Politieke druk: Regeringen of politieke groeperingen kunnen druk uitoefenen op AI-bedrijven om de inhoud van hun modellen te censureren om hun politieke belangen te behartigen.
- Sociale verantwoordelijkheid: AI-bedrijven kunnen uit overwegingen van sociale verantwoordelijkheid proactief de inhoud van hun modellen censureren om te voorkomen dat schadelijke informatie wordt verspreid of dat sociale onrust wordt veroorzaakt.
- Commerciële belangen: Om te voorkomen dat ze de regering of het publiek beledigen, kunnen AI-bedrijven de inhoud van hun modellen censureren om hun commerciële belangen te behartigen.
DeepSeek, als een Chinees AI-bedrijf, kan worden geconfronteerd met overwegingen van wetten en voorschriften, politieke druk en sociale verantwoordelijkheid, waardoor het gedwongen wordt om R1-0528 te censureren.
Potentiële impact van censuur
De censuur van AI-modellen kan de volgende potentiële gevolgen hebben:
- Beperking van toegang tot informatie: Censuur kan de toegang van gebruikers tot uitgebreide, objectieve informatie beperken, wat hun oordeel en besluitvorming kan beïnvloeden.
- Onderdrukken van innovatie: Censuur kan de ontwikkeling van AI-technologie beperken, omdat onderzoekers mogelijk niet vrij zijn om verschillende ideeën te verkennen en te testen.
- Verergeren van sociale verdeeldheid: Censuur kan de sociale verdeeldheid verergeren, omdat verschillende groepen mogelijk alleen toegang hebben tot informatie die overeenkomt met hun eigen standpunten.
- Schaden van vertrouwen: Als gebruikers ontdekken dat een AI-model zich bezighoudt met censuur, kunnen ze het vertrouwen in dat model verliezen.
Het geval van DeepSeek R1-0528 suggereert dat censuur de toegang van gebruikers tot informatie over onderwerpen die gevoelig zijn voor de Chinese overheid kan beperken.
Strategieën om AI-censuur te bestrijden
Om AI-censuur te bestrijden, kunnen de volgende strategieën worden toegepast:
- Technische middelen: Ontwikkeling van technologieën die censuurfilters kunnen detecteren en omzeilen.
- Juridische stappen: Het aanspannen van rechtszaken tegen censuur die de vrijheid van meningsuiting schendt.
- Publieke belangenbehartiging: Het vergroten van het publieke bewustzijn over AI-censuur en het oproepen tot actie door regeringen en bedrijven.
- Gedecentraliseerde AI: Ontwikkeling van gedecentraliseerde AI-platforms om de kans op censuur te verkleinen.
- Open source samenwerking: Het aanmoedigen van open source samenwerking om gezamenlijk openere, transparantere AI-modellen te ontwikkelen.
Reactie van DeepSeek
DeepSeek heeft nog niet publiekelijk gereageerd op de beschuldigingen van censuur van R1-0528. Als DeepSeek reageert, is het de moeite waard om op de volgende aspecten te letten:
- Erkent DeepSeek dat R1-0528 is gecensureerd?
- Zo ja, wat zijn de redenen en motieven voor de censuur van DeepSeek?
- Is DeepSeek van plan zijn censuurbeleid te wijzigen?
- Hoe brengt DeepSeek het evenwicht tussen technologische vooruitgang en de vrijheid van informatie?
De reactie van DeepSeek zal een belangrijke impact hebben op de AI-industrie.
Censuur en ethische overwegingen
AI-censuur roept een reeks ethische vragen op, waaronder:
- Vrijheid van meningsuiting: Moeten AI-modellen de vrijheid van meningsuiting genieten?
- Toegang tot informatie: Hebben gebruikers het recht op toegang tot volledige, objectieve informatie?
- Transparantie: Zijn AI-bedrijven verplicht hun censuurbeleid openbaar te maken?
- Verantwoordelijkheid: Wie is verantwoordelijk voor AI-censuur?
- Vertrouwen: Hoe kan vertrouwen worden opgebouwd in het AI-tijdperk?
Deze ethische vragen vereisen een diepgaande discussie.
Specificiteit van de Chinese censuur
De Chinese censuur heeft zijn eigen specificiteit, die zich voornamelijk uit in de volgende aspecten:
- Breed bereik: Het censuurbereik van China omvat politiek, geschiedenis, cultuur, religie en andere gebieden.
- Strikte handhaving: De handhaving van de censuur in China is zeer streng en kan zelfs de censuur van individuele spraak omvatten.
- Geavanceerde technologie: China heeft een groot censuurteam en gebruikt geavanceerde technologie om censuur uit te voeren.
- Juridische steun: China heeft een reeks wetten en voorschriften opgesteld om juridische steun te bieden aan het censuursysteem.
Deze specificiteit maakt de ontwikkeling van AI-modellen in China tot een unieke uitdaging.
Vergelijking van wereldwijde AI-censuur
Naast China zijn er ook verschillende vormen van AI-censuur in andere landen, die zich voornamelijk in de volgende aspecten uiten:
- Europa: De Europese Unie heeft de AI-wet aangenomen, die tot doel heeft de toepassing van AI te reguleren en te voorkomen dat deze wordt gebruikt voor discriminatie of schending van mensenrechten.
- Verenigde Staten: De Verenigde Staten reguleren de ontwikkeling van AI voornamelijk via marktmechanismen en zelfregulering van de industrie, maar er zijn ook enkele controverses over inhoudscensuur.
- Andere landen: Andere landen hebben ook verschillende AI-regelgevingen opgesteld op basis van hun eigen omstandigheden, waarvan sommige betrekking kunnen hebben op inhoudscensuur.
Door de AI-censuursystemen van verschillende landen te vergelijken, kan een beter begrip worden verkregen van de complexiteit en diversiteit van censuur.
Toekomstige trends in AI-censuur
De toekomstige trends in AI-censuur kunnen de volgende aspecten omvatten:
- Technologische vooruitgang: Censuurtechnologie en anti-censuurtechnologie zullen zich blijven ontwikkelen en een kat-en-muisspel vormen.
- Versterkte regulering: Regeringen over de hele wereld zullen waarschijnlijk de regulering van AI versterken, inclusief inhoudscensuur.
- Internationale samenwerking: Landen zullen waarschijnlijk de internationale samenwerking op het gebied van AI-beheer versterken, inclusief inhoudscensuur.
- Maatschappelijke aandacht: De samenleving zal steeds meer aandacht besteden aan de impact van AI-censuur en zal oproepen tot meer verantwoorde praktijken.
Impact van censuur op DeepSeek
DeepSeek, als een Chinees AI-bedrijf, wordt diepgaand beïnvloed door het Chinese censuursysteem. DeepSeek moet een evenwicht vinden tussen het naleven van Chinese wet- en regelgeving en het voldoen aan de behoeften van gebruikers. De toekomstige ontwikkeling van DeepSeek zal afhangen van hoe het bedrijf de uitdagingen van
censuur aangaat.
AI en vooroordelen
Censuur is nauw verbonden met de kwestie van AI-vooroordelen. Censuur kan ertoe leiden dat modellen slechts een deel van de informatie leren, waardoor er vooroordelen ontstaan. DeepSeek moet maatregelen nemen om ervoor te zorgen dat zijn modellen volledige en objectieve informatie kunnen leren en vooroordelen kunnen vermijden.
Transparantie en verklaarbaarheid
Om de uitdagingen van censuur aan te gaan, moet DeepSeek de transparantie en verklaarbaarheid van zijn modellen vergroten. DeepSeek moet zijn censuurbeleid openbaar maken en uitleggen hoe zijn modellen gevoelige onderwerpen behandelen. Dit zal helpen om het vertrouwen van gebruikers op te bouwen en de gezonde ontwikkeling van AI te bevorderen.
Samenvatting
Het geval van DeepSeek R1-0528 benadrukt de complexiteit en het belang van AI-censuur. Censuur heeft een belangrijke impact op de toegang tot informatie, technologische innovatie, sociale verdeeldheid en het vertrouwen van gebruikers. Het bestrijden van censuur vereist verschillende strategieën, waaronder technische middelen, juridische stappen, publieke belangenbehartiging, gedecentraliseerde AI en open source samenwerking. DeepSeek moet als Chinees AI-bedrijf een evenwicht vinden tussen het naleven van Chinese wet- en regelgeving en het voldoen aan de behoeften van gebruikers. DeepSeek moet de transparantie en verklaarbaarheid van zijn modellen vergroten om de uitdagingen van censuur aan te gaan.