DeepSeek sous le feu des critiques : Baidu s'inquiète

Le Début Controversé de DeepSeek

Un modèle d’IA chinois, DeepSeek, qui a suscité une attention et des éloges considérables plus tôt cette année, a récemment été soumis à un examen minutieux de la part de Robin Li, le président et PDG de Baidu. Lors de la conférence Baidu AI Developer Conference le 25 avril, Li a exprimé des réserves quant aux capacités de DeepSeek, citant ses limites dans le traitement de divers formats multimédias, ses performances lentes et ses coûts élevés, ainsi que sa propension à générer des informations inexactes, ce qui le rend peu fiable pour une utilisation généralisée.

Selon des informations de Guancha.cn et Sina.com, Li a abordé le paysage fluctuant des modèles d’IA à grande échelle lors de la conférence. Il a souligné l’intense concurrence entre les développeurs de modèles, souvent décrite comme une ‘course de rats’, et la confusion et l’hésitation qui en résultent chez les développeurs à créer des applications en toute confiance.

Li a souligné que ‘Sans applications, les puces et les modèles ne valent rien.’ Il a souligné le coût élevé et le caractère impraticable de l’utilisation des modèles à grande échelle actuels comme un obstacle majeur pour les développeurs visant à créer des applications d’IA.

DeepSeek, une startup basée à Hangzhou, en Chine, a publié son modèle de raisonnement open source, R1, en janvier. À l’époque, les médias d’État ont salué DeepSeek comme surpassant des entreprises comme OpenAI. Cependant, des enquêtes ultérieures menées par des utilisateurs et des chercheurs ont révélé des lacunes, des vulnérabilités en matière de sécurité et des risques potentiels. De nombreux gouvernements, dont Taïwan, le Japon, la Corée du Sud, les États-Unis, le Canada, l’Italie, l’Australie et les Pays-Bas, ainsi que des centaines d’entreprises, ont interdit l’utilisation de DeepSeek sur les appareils gouvernementaux et d’entreprise.

Le 8 février, des experts en sécurité de l’IA ont partagé les résultats de tests de sécurité approfondis sur DeepSeek avec les médias. Ils ont découvert que DeepSeek était plus susceptible d’être ‘piraté’ par rapport à ChatGPT, Gemini et Claude. Cette vulnérabilité permettait aux utilisateurs de contourner les restrictions de sécurité originales de l’IA, ce qui facilitait l’obtention de contenu potentiellement dangereux, nuisible ou illégal.

En mars, ‘Luchen Technology’, une société d’infrastructure d’IA liée à l’université Tsinghua, qui a été parmi les premières à intégrer les modèles DeepSeek pour fournir des services d’API et de cloud mirror, a annoncé la suspension des services connexes. Le fondateur de l’entreprise, You Yang, a révélé dans un message que les coûts réels associés à DeepSeek étaient significativement plus élevés que les coûts théoriques. Suite à une réaction négative en ligne, il a déclaré publiquement que DeepSeek ne pouvait pas fonctionner sans utiliser la technologie américaine à court terme, se demandant pourquoi cette réalité ne pouvait pas être reconnue ouvertement.

Selon un rapport de Sina Technology daté du 4 mars, DeepSeek a annoncé une marge bénéficiaire théorique de 545 % pour son système en ligne le 1er mars à 17h02. Par la suite, Luchen Technology a annoncé qu’elle cesserait de fournir les services API de DeepSeek dans un délai d’une semaine, exhortant les utilisateurs à utiliser leurs soldes restants.

Le rapport a noté que Luchen Technology n’a pas divulgué publiquement les raisons spécifiques de l’arrêt du service API de DeepSeek. Cependant, l’analyse approfondie des coûts de DeepSeek par le fondateur sur des plateformes comme Zhihu suggère que le coût a été un facteur primordial dans la décision de cesser de fournir le service API.

Inquiétudes Concernant la Sécurité Nationale

Les liens entre DeepSeek et le gouvernement chinois sont potentiellement plus directs qu’initialement perçus. Feroot Security, une société canadienne de cybersécurité, a découvert des liens importants entre la page de connexion du site web de DeepSeek et China Mobile, une société d’État chinoise précédemment sanctionnée par le gouvernement américain.

Ces derniers mois, les préoccupations concernant la sécurité nationale ont conduit à des appels croissants à l’interdiction de DeepSeek.

Le 24 avril, plusieurs membres de la Chambre des représentants américaine ont envoyé une lettre à DeepSeek, exprimant des inquiétudes quant aux liens de l’entreprise avec le Parti communiste chinois (PCC) et demandant des informations concernant les données américaines utilisées pour former ses modèles d’IA.

Le représentant Brett Guthrie, président de la commission de l’énergie et du commerce de la Chambre, et le représentant Gus Bilirakis, président de la sous-commission de l’innovation, des données et du commerce, ainsi que dix autres membres de la sous-commission, ont adressé une lettre à DeepSeek exprimant des inquiétudes quant à la ‘collecte des données personnelles des Américains’ par l’entreprise et aux risques associés pour la sécurité nationale.

Dans la lettre, Guthrie et Bilirakis ont déclaré que ‘DeepSeek admet transmettre les données personnelles des utilisateurs américains à des serveurs en Chine, où ces informations seraient sans aucun doute accessibles aux fonctionnaires affiliés au Parti communiste chinois. Nous craignons que cette relation d’agence avec notre principal adversaire ne mette en danger nos données et notre sécurité nationale.

‘Pour garantir que les utilisateurs américains et leurs entreprises soient protégés contre les interférences étrangères, nous lançons une enquête sur DeepSeek et la menace qu’elle représente pour notre nation.’

La lettre indiquait en outre : ‘Selon les informations parues dans les médias, l’entreprise partage également les informations personnelles des utilisateurs avec d’autres entités affiliées au Parti communiste chinois, notamment ByteDance.

‘Dans le même temps, des chercheurs ont découvert des vulnérabilités critiques dans les contrôles de sécurité et les mesures de protection des modèles de DeepSeek. En réponse à ces risques, un nombre croissant d’États, dont New York, le Texas et la Virginie, ont interdit l’utilisation de DeepSeek sur les appareils gouvernementaux, et les procureurs généraux des États ont appelé à des interdictions plus larges.’

Le 16 avril, la commission spéciale de la Chambre des représentants américaine sur le Parti communiste chinois a publié un rapport soulignant que DeepSeek constitue une menace importante pour la sécurité nationale américaine. Le rapport accusait DeepSeek de collecter des données utilisateur pour le PCC et de manipuler secrètement les résultats, devenant ainsi le dernier outil permettant au PCC de s’embellir, de surveiller les citoyens étrangers, de voler et de saper les restrictions américaines en matière de contrôle des exportations.

Le rapport a souligné que, bien que DeepSeek puisse sembler être un simple chatbot d’IA fournissant aux utilisateurs un moyen de générer du texte et de répondre à des questions, un examen plus approfondi révèle que DeepSeek transmet secrètement les données personnelles obtenues à China Mobile, qui a des liens avec l’armée chinoise, créant ainsi des vulnérabilités de sécurité pour les utilisateurs. Les États-Unis ont déjà interdit à China Mobile d’opérer aux États-Unis.

Un Examen Approfondi des Lacunes Alléguées de DeepSeek

Alors que le battage médiatique initial autour de DeepSeek brossait le portrait d’une merveille de l’IA prête à révolutionner divers secteurs, un examen plus attentif a révélé une réalité plus nuancée et complexe. Les préoccupations soulevées par le PDG de Baidu, Robin Li, et les enquêtes ultérieures menées par des experts en cybersécurité et des organismes gouvernementaux, mettent en évidence plusieurs domaines critiques dans lesquels DeepSeek ne répond pas aux attentes et soulève des risques potentiels.

Capacités Multimodales Limitées

L’une des principales critiques formulées à l’encontre de DeepSeek est sa capacité limitée à traiter le contenu multimodal. Contrairement aux modèles d’IA plus avancés qui peuvent intégrer et comprendre de manière transparente diverses formes de données, notamment le texte, les images, l’audio et la vidéo, DeepSeek aurait du mal à comprendre quoi que ce soit au-delà de la saisie de texte de base. Cette limitation restreint considérablement son applicabilité dans des scénarios du monde réel où les informations sont souvent présentées dans une combinaison de formats. Par exemple, DeepSeek pourrait avoir du mal à analyser une publication sur les médias sociaux qui comprend à la fois du texte et une image, ou à transcrire et à comprendre une vidéoconférence.

Problèmes de Performance : Vitesse et Coût

Au-delà de ses limitations dans le traitement de divers médias, DeepSeek est également confronté à des défis liés à ses performances. Selon Robin Li, le modèle se caractérise par sa vitesse ‘lente’ et son coût ‘élevé’, ce qui le rend moins attrayant pour les développeurs cherchant à créer des applications d’IA évolutives et rentables. Les ressources informatiques élevées nécessaires pour exécuter DeepSeek peuvent se traduire par des dépenses importantes pour les entreprises, en particulier celles qui déploient des systèmes à grande échelle. De plus, la faible vitesse de traitement peut entraver les applications en temps réel, telles que les chatbots ou les assistants virtuels, où la réactivité est essentielle pour une expérience utilisateur positive.

Le Problème du ‘Taux d’Hallucination’

Une autre préoccupation majeure concernant DeepSeek est son ‘taux d’hallucination’ élevé, faisant référence à la tendance du modèle à générer des informations inexactes ou absurdes. Ce problème pose un défi important pour les applications qui nécessitent des résultats fiables et dignes de confiance. Dans les domaines critiques, tels que la santé ou la finance, où la précision est primordiale, le risque que DeepSeek produise des informations fausses ou trompeuses pourrait avoir de graves conséquences. Le ‘taux d’hallucination’ mine la crédibilité du modèle et limite son utilisation dans des contextes sensibles.

Vulnérabilités de Sécurité et Piratage

La révélation que DeepSeek est plus susceptible d’être ‘piraté’ que d’autres modèles d’IA de premier plan soulève d’importantes préoccupations en matière de sécurité. Le ‘piratage’ fait référence au processus de contournement des restrictions de sécurité d’une IA pour obtenir un contenu nuisible, contraire à l’éthique ou illégal. Le fait que DeepSeek puisse être plus facilement manipulé de cette manière suggère des faiblesses dans son architecture de sécurité sous-jacente. Cette vulnérabilité pourrait être exploitée par des acteurs malveillants pour générer de la désinformation, diffuser de la propagande ou se livrer à d’autres activités préjudiciables.

Confidentialité des Données et Risques pour la Sécurité Nationale

Les liens allégués entre DeepSeek et le gouvernement chinois, en particulier ses pratiques de partage de données avec China Mobile, ont sonné l’alarme concernant la confidentialité des données et la sécurité nationale. La transmission des données personnelles des utilisateurs américains à des serveurs en Chine, où elles pourraient être consultées par des fonctionnaires affiliés au PCC, soulève de sérieuses préoccupations concernant la surveillance potentielle, l’espionnage et la compromission d’informations sensibles. L’examen minutieux de DeepSeek par le gouvernement américain souligne la prise de conscience croissante des risques potentiels associés aux modèles d’IA développés par des entités étrangères ayant des liens étroits avec des gouvernements adverses.

Les Implications Plus Larges

Les préoccupations concernant DeepSeek vont au-delà des limitations et des vulnérabilités spécifiques de ce modèle d’IA particulier. Elles reflètent des défis et des risques plus larges associés au développement et au déploiement rapides des technologies d’IA. Le cas DeepSeek met en évidence l’importance de :

  • Tests et Évaluations Rigoureux : Des tests et des évaluations approfondis sont essentiels pour identifier et traiter les faiblesses potentielles, les biais et les vulnérabilités en matière de sécurité des modèles d’IA avant qu’ils ne soient largement déployés.
  • Transparence et Responsabilité : Les développeurs doivent faire preuve de transparence quant aux données utilisées pour former leurs modèles et aux algorithmes qu’ils emploient. Ils doivent également être tenus responsables des résultats et des conséquences de leurs systèmes d’IA.
  • Confidentialité des Données et Mesures de Sécurité : Des mesures strictes de confidentialité des données et de sécurité sont nécessaires pour protéger les informations personnelles des utilisateurs contre tout accès, utilisation abusive ou exploitation non autorisés.
    *Coopération Internationale : La coopération internationale est cruciale pour établir des normes et des réglementations communes pour le développement et le déploiement de l’IA, en veillant à ce que ces technologies soient utilisées de manière responsable et éthique.
  • Pensée Critique et Littératie Médiatique : Les utilisateurs doivent être encouragés à évaluer de manière critique les informations générées par les modèles d’IA et à développer des compétences en matière de littératie médiatique afin de distinguer le contenu précis du contenu trompeur.

La controverse DeepSeek sert de mise en garde, nous rappelant que la poursuite de l’innovation en matière d’IA doit être contrebalancée par un examen attentif des risques potentiels et des implications sociétales. L’intelligence artificielle ne doit pas être créée de manière à ce qu’elle devienne un danger pour l’humanité, mais doit servir à son bien-être. Des normes strictes doivent être définies afin d’empêcher les pirates ou les acteurs malveillants d’utiliser ces outils d’IA à des fins malhonnêtes. Les États doivent être capables de contrôler ces menaces potentielles à l’avenir, et des réglementations internationales devraient voir le jour en conséquence. Il est de la responsabilité des gouvernements de garantir la sécurité des citoyens, et la protection de leurs données personnelles est essentielle. L’innovation en matière d’intelligence artificielle est une chose très positive, mais ne doit pas être créée au détriment de la sécurité nationale. L’espionnage de nations étrangères via ces outils d’IA doit absolument être évité, tout comme la diffusion de fausses informations. L’accès à ces outils par des entités malveillantes doit être rendu aussi difficile que possible, et les peines pour abus doivent être sévères. L’intelligence artificielle a le potentiel d’aider l’humanité, mais sa création doit être faite avec la prudence nécessaire afin d’empêcher des scénarios indésirables.