DeepSeek Onder Vuur: Baidu CEO Bezorgd

DeepSeek, een Chinees AI-model dat eerder dit jaar aanzienlijke aandacht en lof oogstte, is onlangs onder de loep genomen door Robin Li, de voorzitter en CEO van Baidu. Tijdens de Baidu AI Developer Conference op 25 april uitte Li bedenkingen over de capaciteiten van DeepSeek, waarbij hij wees op de beperkingen in het verwerken van diverse mediaformaten, de trage prestaties en hoge kosten, en de neiging om onnauwkeurige informatie te genereren, waardoor het onbetrouwbaar is voor wijdverbreid gebruik.

DeepSeek’s Controversiële Debuut

Volgens rapporten van Guancha.cn en Sina.com sprak Li tijdens de conferentie over het fluctuerende landschap van grootschalige AI-modellen. Hij benadrukte de intense concurrentie tussen modelontwikkelaars, vaak omschreven als een ‘rattenrace’, en de daaruit voortvloeiende verwarring en aarzeling bij ontwikkelaars om met vertrouwen applicaties te creëren.

Li benadrukte dat “Zonder applicaties zijn chips en modellen waardeloos.” Hij wees op de hoge kosten en onpraktischheid van het gebruik van huidige grootschalige modellen als een belangrijke hindernis voor ontwikkelaars die AI-applicaties willen bouwen.

DeepSeek, een startup gevestigd in Hangzhou, China, bracht in januari zijn open-source redeneermodel, R1, uit. Destijds prezen staatsmedia DeepSeek omdat het de prestaties van bedrijven als OpenAI overtrof. Uit latere onderzoeken door gebruikers en onderzoekers bleken echter tekortkomingen, beveiligingslekken en potentiële risico’s. Talrijke regeringen, waaronder Taiwan, Japan, Zuid-Korea, de Verenigde Staten, Canada, Italië, Australië en Nederland, samen met honderden bedrijven, hebben het gebruik van DeepSeek op overheids- en bedrijfsapparaten verboden.

Op 8 februari deelden AI-beveiligingsexperts de resultaten van diepgaande beveiligingstests op DeepSeek met de media. Ze ontdekten dat DeepSeek gevoeliger was voor ‘jailbreaking’ in vergelijking met ChatGPT, Gemini en Claude. Dankzij deze kwetsbaarheid konden gebruikers de oorspronkelijke veiligheidsbeperkingen van de AI omzeilen, waardoor het gemakkelijker werd om potentieel gevaarlijke, schadelijke of illegale inhoud te verkrijgen.

In maart kondigde ‘Luchen Technology’, een AI-infrastructuurbedrijf met banden met Tsinghua University, dat als een van de eersten DeepSeek-modellen integreerde om API- en cloud-mirrordiensten te leveren, de opschorting van gerelateerde diensten aan. De oprichter van het bedrijf, You Yang, onthulde in een bericht dat de werkelijke kosten die aan DeepSeek verbonden waren aanzienlijk hoger waren dan de theoretische kosten. Na online terugslag verklaarde hij publiekelijk dat DeepSeek op korte termijn niet kon werken zonder gebruik te maken van Amerikaanse technologie, en vroeg hij zich af waarom deze realiteit niet openlijk kon worden erkend.

Volgens een rapport van Sina Technology van 4 maart kondigde DeepSeek op 1 maart om 17:02 uur een theoretische kostenwinstmarge van 545% aan voor zijn online systeem. Vervolgens kondigde Luchen Technology aan dat het binnen een week zou stoppen met het leveren van DeepSeek API-diensten, waarbij gebruikers werden aangespoord om hun resterende saldi te gebruiken.

Het rapport merkte op dat Luchen Technology de specifieke redenen voor het stopzetten van de DeepSeek API-service niet openbaar heeft gemaakt. De uitgebreide analyse van de kosten van DeepSeek door de oprichter op platforms zoals Zhihu suggereert echter dat kosten een primaire factor waren in de beslissing om te stoppen met het aanbieden van de API-service.

Bezorgdheid Over Nationale Veiligheid

De banden tussen DeepSeek en de Chinese overheid zijn mogelijk directer dan aanvankelijk werd gedacht. Feroot Security, een Canadees cyberbeveiligingsbedrijf, ontdekte aanzienlijke links tussen de inlogpagina van de DeepSeek-website en China Mobile, een Chinees staatsbedrijf dat eerder door de Amerikaanse overheid was gesanctioneerd.

De afgelopen maanden hebben zorgen over de nationale veiligheid geleid tot toenemende oproepen tot een verbod op DeepSeek.

Op 24 april stuurden verschillende leden van het Amerikaanse Huis van Afgevaardigden een brief naar DeepSeek, waarin ze hun bezorgdheid uitten over de banden van het bedrijf met de Chinese Communistische Partij (CCP) en informatie vroegen over de Amerikaanse gegevens die werden gebruikt om de AI-modellen te trainen.

Vertegenwoordiger Brett Guthrie, voorzitter van de House Energy and Commerce Committee, en vertegenwoordiger Gus Bilirakis, voorzitter van de Subcommittee on Innovation, Data, and Commerce, richtten samen met tien andere leden van de subcommissie een brief aan DeepSeek waarin ze hun bezorgdheid uitten over de “verzameling van persoonlijke gegevens van Amerikanen” door het bedrijf en de bijbehorende nationale veiligheidsrisico’s.

In de brief verklaarden Guthrie en Bilirakis dat “DeepSeek toegeeft persoonlijke gegevens van Amerikaanse gebruikers door te sturen naar servers in China, waar die informatie ongetwijfeld toegankelijk zou zijn voor functionarissen die zijn aangesloten bij de Chinese Communistische Partij. We zijn bezorgd dat deze agentschaprelatie met onze belangrijkste tegenstander onze gegevens en nationale veiligheid in gevaar brengt.

“Om ervoor te zorgen dat Amerikaanse gebruikers en hun bedrijven worden beschermd tegen buitenlandse inmenging, starten we een onderzoek naar DeepSeek en de bedreiging die het vormt voor onze natie.”

De brief vervolgde: “Volgens mediaberichten deelt het bedrijf ook persoonlijke informatie van gebruikers met andere entiteiten die zijn aangesloten bij de Chinese Communistische Partij, waaronder ByteDance.

“Tegelijkertijd hebben onderzoekers kritieke kwetsbaarheden ontdekt in de vermeende beveiligingscontroles en modelbeschermingen van DeepSeek. Als reactie op deze risico’s heeft een groeiend aantal staten, waaronder New York, Texas en Virginia, het gebruik van DeepSeek op overheidsapparaten verboden, en hebben staatsadvocaten-generaal opgeroepen tot bredere verboden.”

Op 16 april bracht de US House Select Committee on the Chinese Communist Party een rapport uit waarin werd benadrukt dat DeepSeek een aanzienlijke bedreiging vormt voor de Amerikaanse nationale veiligheid. Het rapport beschuldigde DeepSeek van het verzamelen van gebruikersgegevens voor de CCP en het in het geheim manipuleren van resultaten, waardoor het het nieuwste hulpmiddel wordt voor de CCP om zichzelf te verfraaien, buitenlandse burgers te monitoren en de Amerikaanse exportcontrolebeperkingen te stelen en te ondermijnen.

Het rapport wees erop dat, hoewel DeepSeek misschien slechts een andere AI-chatbot lijkt te zijn die gebruikers een manier biedt om tekst te genereren en vragen te beantwoorden, een nadere beschouwing onthult dat DeepSeek in het geheim verkregen persoonlijke gegevens doorstuurt naar China Mobile, dat banden heeft met het Chinese leger, waardoor beveiligingslekken voor gebruikers ontstaan. De VS heeft China Mobile al verboden om in de Verenigde Staten te opereren.

Een Diepe Duik in DeepSeek’s Vermeende Tekortkomingen

Hoewel de aanvankelijke hype rond DeepSeek een beeld schetste van een AI-wonder dat klaar stond om verschillende sectoren te revolutioneren, heeft nader onderzoek een meer genuanceerde en complexe realiteit aan het licht gebracht. De zorgen die door Baidu’s CEO, Robin Li, zijn geuit, en de daaropvolgende onderzoeken door cyberbeveiligingsexperts en overheidsinstanties, benadrukken verschillende kritieke gebieden waar DeepSeek tekortschiet en potentiële risico’s met zich meebrengt.

Beperkte Multimodale Capaciteiten

Een van de belangrijkste kritiekpunten op DeepSeek is het beperkte vermogen om multimodale inhoud te verwerken. In tegenstelling tot meer geavanceerde AI-modellen die verschillende vormen van gegevens, waaronder tekst, afbeeldingen, audio en video, naadloos kunnen integreren en begrijpen, zou DeepSeek moeite hebben om iets anders dan basis tekstinvoer te begrijpen. Deze beperking beperkt de toepasbaarheid in real-world scenario’s aanzienlijk, waar informatie vaak wordt gepresenteerd in een combinatie van formaten. DeepSeek zou bijvoorbeeld moeite kunnen hebben om een social media-post te analyseren die zowel tekst als een afbeelding bevat, of om een videoconferentie te transcriberen en te begrijpen.

Prestatieproblemen: Snelheid en Kosten

Naast de beperkingen bij het verwerken van diverse media, kampt DeepSeek ook met uitdagingen op het gebied van prestaties. Volgens Robin Li wordt het model gekenmerkt door zijn ‘trage’ snelheid en ‘hoge’ kosten, waardoor het minder aantrekkelijk is voor ontwikkelaars die schaalbare en kosteneffectieve AI-applicaties willen bouwen. De hoge computerbronnen die nodig zijn om DeepSeek te draaien, kunnen zich vertalen in aanzienlijke kosten voor bedrijven, met name bedrijven met grootschalige implementaties. Bovendien kan de lage verwerkingssnelheid real-time applicaties belemmeren, zoals chatbots of virtuele assistenten, waar reactievermogen cruciaal is voor een positieve gebruikerservaring.

Het “Hallucinatiepercentage” Probleem

Een ander groot probleem met betrekking tot DeepSeek is het hoge “hallucinatiepercentage”, verwijzend naar de neiging van het model om onnauwkeurige of onzinnige informatie te genereren. Dit probleem vormt een aanzienlijke uitdaging voor applicaties die betrouwbare en geloofwaardige outputs vereisen. In kritieke domeinen, zoals de gezondheidszorg of financiën, waar nauwkeurigheid van het grootste belang is, kan het risico dat DeepSeek valse of misleidende informatie produceert ernstige gevolgen hebben. Het “hallucinatiepercentage” ondermijnt de geloofwaardigheid van het model en beperkt de bruikbaarheid ervan in gevoelige contexten.

Beveiligingslekken en Jailbreaking

De onthulling dat DeepSeek gevoeliger is voor “jailbreaking” dan andere toonaangevende AI-modellen, roept aanzienlijke beveiligingsproblemen op. “Jailbreaking” verwijst naar het proces van het omzeilen van de veiligheidsbeperkingen van een AI om schadelijke, onethische of illegale inhoud te ontlokken. Het feit dat DeepSeek op deze manier gemakkelijker kan worden gemanipuleerd, suggereert zwakke punten in de onderliggende beveiligingsarchitectuur. Deze kwetsbaarheid zou kunnen worden uitgebuit door kwaadwillende actoren om desinformatie te genereren, propaganda te verspreiden of andere schadelijke activiteiten te ontplooien.

Gegevensprivacy en Nationale Veiligheidsrisico’s

De vermeende banden tussen DeepSeek en de Chinese overheid, met name de praktijken voor het delen van gegevens met China Mobile, hebben alarmbellen doen rinkelen over gegevensprivacy en nationale veiligheid. Het doorsturen van persoonlijke gegevens van Amerikaanse gebruikers naar servers in China, waar deze toegankelijk zouden kunnen zijn voor functionarissen die zijn aangesloten bij de CCP, roept ernstige zorgen op over mogelijke surveillance, spionage en de compromittering van gevoelige informatie. Het onderzoek van de Amerikaanse overheid naar DeepSeek onderstreept het groeiende bewustzijn van de potentiële risico’s die verbonden zijn aan AI-modellen die zijn ontwikkeld door buitenlandse entiteiten met nauwe banden met vijandige regeringen.

De Bredere Implicaties

De zorgen rond DeepSeek reiken verder dan de specifieke beperkingen en kwetsbaarheden van dit specifieke AI-model. Ze weerspiegelen bredere uitdagingen en risico’s die verbonden zijn aan de snelle ontwikkeling en implementatie van AI-technologieën. De DeepSeek-zaak benadrukt het belang van:

  • Rigoureus Testen en Evalueren: Grondig testen en evalueren zijn essentieel om potentiële zwakke punten, vooroordelen en beveiligingslekken in AI-modellen te identificeren en aan te pakken voordat ze op grote schaal worden ingezet.
  • Transparantie en Verantwoording: Ontwikkelaars moeten transparant zijn over de gegevens die worden gebruikt om hun modellen te trainen en de algoritmen die ze gebruiken. Ze moeten ook verantwoordelijk worden gehouden voor de outputs en gevolgen van hun AI-systemen.
  • Gegevensprivacy en Beveiligingsmaatregelen: Er zijn sterke maatregelen voor gegevensprivacy en beveiliging nodig om de persoonlijke informatie van gebruikers te beschermen tegen ongeoorloofde toegang, misbruik of uitbuiting.
  • Internationale Samenwerking: Internationale samenwerking is cruciaal om gemeenschappelijke normen en regels vast te stellen voor AI-ontwikkeling en -implementatie, zodat deze technologieën op verantwoorde en ethische wijze worden gebruikt.
  • Kritisch Denken en Mediawijsheid: Gebruikers moeten worden aangemoedigd om de informatie die door AI-modellen wordt gegenereerd kritisch te evalueren en mediawijsheidsvaardigheden te ontwikkelen om onderscheid te maken tussen nauwkeurige en misleidende inhoud.

De DeepSeek-controverse dient als een waarschuwend verhaal en herinnert ons eraan dat het nastreven van AI-innovatie in evenwicht moet worden gebracht met een zorgvuldige afweging van de potentiële risico’s en maatschappelijke implicaties.