Censure renforcée du modèle DeepSeek R1

La société chinoise d’intelligence artificielle DeepSeek a récemment mis à jour son modèle d’IA, DeepSeek R1, qui a obtenu des résultats impressionnants dans les tests d’évaluation de codage, de mathématiques et de connaissances générales, dépassant presque le modèle phare o3 d’OpenAI. Cependant, la version améliorée de R1, également connue sous le nom de "R1-0528", pourrait être moins disposée à répondre à des questions controversées, en particulier sur des sujets que le gouvernement chinois juge sensibles.

Selon des tests effectués par le développeur anonyme de SpeechMap, R1-0528 affiche une tolérance beaucoup plus faible pour les sujets controversés liés à la liberté d’expression que les versions précédentes de DeepSeek. Il est également décrit comme le "modèle DeepSeek le plus strictement censuré à ce jour en matière de critiques envers le gouvernement chinois." SpeechMap est une plateforme qui compare la manière dont différents modèles traitent des sujets sensibles et controversés.

Comme l’a expliqué Wired dans un article de janvier, les modèles chinois sont soumis à des contrôles d’information stricts. Une loi de 2023 interdit aux modèles de générer du contenu "nuisant à l’unité nationale et à l’harmonie sociale", ce qui peut être interprété comme s’opposant aux récits historiques et politiques du gouvernement. Pour se conformer à ces réglementations, les startups chinoises censurent généralement leurs modèles en utilisant des filtres au niveau des invites ou en effectuant un réglage fin. Une étude a révélé que la version originale de DeepSeek R1 refusait de répondre à 85 % des questions sur des sujets que le gouvernement chinois jugeait politiquement sensibles.

Selon xlr8harder, R1-0528 censure les réponses concernant des sujets tels que les camps de détention dans la région chinoise du Xinjiang, où plus d’un million de musulmans ouïghours ont été arbitrairement détenus. Bien qu’il critique parfois certains aspects de la politique du gouvernement chinois – dans les tests de xlr8harder, il a cité les camps du Xinjiang comme exemples de violations des droits de l’homme – le modèle donne souvent la position officielle du gouvernement chinois lorsqu’il est directement interrogé sur ces sujets.

TechCrunch a également observé cela lors de nos propres tests.

Les modèles d’IA accessibles au public en Chine, y compris les modèles de génération de vidéos, ont déjà été critiqués pour avoir censuré des sujets sensibles pour le gouvernement chinois, tels que le massacre de la place Tiananmen. En décembre, Clément Delangue, PDG de la plateforme de développement d’IA Hugging Face, a mis en garde contre les conséquences imprévues de l’utilisation par les entreprises occidentales de l’IA chinoise performante et sous licence publique.

L’impact de la censure sur les modèles d’IA est depuis longtemps une source de préoccupation, en particulier dans un contexte de tensions géopolitiques. Le cas de DeepSeek R1-0528 met en évidence l’équilibre complexe entre la poursuite des progrès technologiques en matière d’IA et le maintien de la liberté d’expression et de l’accès à l’information. Il est important d’examiner en profondeur la manière dont DeepSeek relève ces défis et les implications que cela pourrait avoir pour l’avenir du secteur de l’IA.

Définition et formes de la censure

La censure, au sens large, fait référence à la restriction ou à la suppression d’informations et peut prendre de nombreuses formes. Dans le domaine de l’intelligence artificielle, la censure se manifeste généralement par :

  • Filtrage de contenu : Empêcher le modèle de générer ou d’afficher certains types de contenu, tels que des sujets politiquement sensibles, de la violence, de la discrimination, etc.
  • Distorsion de l’information : L’information présentée par le modèle est modifiée ou déformée pour correspondre à une certaine idéologie ou position politique.
  • Évitement des réponses : Le modèle refuse de répondre à certaines questions ou donne des réponses vagues et ambiguës.
  • Ingénierie des invites : Guider le modèle pour qu’il donne des réponses conformes à une intention spécifique grâce à des invites soigneusement conçues.

Le cas de DeepSeek R1-0528 suggère que le modèle pourrait avoir adopté plusieurs des méthodes de censure ci-dessus, en particulier lorsqu’il s’agit de sujets sensibles pour le gouvernement chinois.

Raisons et motivations de la censure

Les raisons et les motivations de la censure des modèles d’IA sont généralement multiples :

  • Lois et règlements : Certains pays ou régions ont adopté des lois et des règlements qui exigent que les modèles d’IA se conforment à des normes spécifiques de contrôle de l’information. Par exemple, les lois pertinentes en Chine interdisent aux modèles de générer du contenu "nuisant à l’unité nationale et à l’harmonie sociale."
  • Pression politique : Les gouvernements ou les groupes politiques peuvent exercer des pressions sur les entreprises d’IA, exigeant qu’elles censurent le contenu des modèles afin de défendre leurs intérêts politiques.
  • Responsabilité sociale : Les entreprises d’IA peuvent, par souci de responsabilité sociale, censurer de manière proactive le contenu des modèles afin d’éviter la diffusion d’informations nuisibles ou de provoquer des troubles sociaux.
  • Intérêts commerciaux : Afin d’éviter de provoquer la colère du gouvernement ou du public, les entreprises d’IA peuvent censurer le contenu des modèles afin de protéger leurs intérêts commerciaux.

En tant qu’entreprise chinoise d’intelligence artificielle, DeepSeek peut être confrontée à des considérations multiples en matière de lois et règlements, de pression politique et de responsabilité sociale, ce qui l’oblige à censurer le R1-0528.

Impacts potentiels de la censure

La censure des modèles d’IA peut avoir les impacts potentiels suivants :

  • Limitation de l’accès à l’information : La censure limitera la capacité des utilisateurs à accéder à des informations complètes et objectives, affectant ainsi leur jugement et leurs décisions.
  • Étendre l’innovation : La censure limitera le développement de la technologie de l’IA, car les chercheurs pourraient ne pas être en mesure d’explorer et de tester librement diverses idées.
  • Exacerber les divisions sociales : La censure peut exacerber les divisions sociales, car différents groupes peuvent n’être exposés qu’à des informations qui correspondent à leurs propres positions.
  • Nuire à la confiance : Si les utilisateurs découvrent que le modèle d’IA a été censuré, ils peuvent perdre confiance dans ce modèle.

Le cas de DeepSeek R1-0528 suggère que la censure peut limiter la capacité des utilisateurs à accéder à des informations sur des sujets sensibles pour le gouvernement chinois.

Stratégies pour faire face à la censure de l’IA

Afin de faire face à la censure de l’IA, les stratégies suivantes peuvent être adoptées :

  • Moyens techniques : Développer des technologies capables de détecter et de contourner les filtres de censure.
  • Actions en justice : Engager des actions en justice contre les actes de censure qui violent la liberté d’expression.
  • Plaidoyer public : Sensibiliser le public à la censure de l’IA et appeler les gouvernements et les entreprises à agir.
  • IA décentralisée : Développer des plateformes d’IA décentralisées afin de réduire le risque de censure.
  • Collaboration open source : Encourager la collaboration open source pour développer conjointement des modèles d’IA plus ouverts et transparents.

Réponse de DeepSeek

DeepSeek n’a pas encore répondu publiquement aux allégations de censure du R1-0528. Si DeepSeek répond, il convient de prêter attention aux aspects suivants :

  • DeepSeek admet-il avoir censuré le R1-0528 ?
  • Si oui, quelles sont les raisons et les motivations de la censure de DeepSeek ?
  • DeepSeek prévoit-il de modifier sa politique de censure ?
  • Comment DeepSeek équilibre-t-il la relation entre les progrès technologiques et la liberté de l’information ?

La réponse de DeepSeek aura un impact significatif sur l’industrie de l’IA.

Discussions sur la censure et l’éthique

La censure de l’IA soulève une série de questions éthiques, notamment :

  • Liberté d’expression : Les modèles d’IA doivent-ils jouir de la liberté d’expression ?
  • Accès à l’information : Les utilisateurs ont-ils le droit d’accéder à des informations complètes et objectives ?
  • Transparence : Les entreprises d’IA sont-elles tenues de divulguer leurs politiques de censure ?
  • Responsabilité : Qui doit être tenu responsable de la censure de l’IA ?
  • Confiance : Comment établir la confiance à l’ère de l’IA ?

Ces questions éthiques nécessitent une discussion approfondie.

Caractéristiques spécifiques de la censure en Chine

La censure en Chine a ses propres caractéristiques spécifiques, qui se manifestent principalement dans les aspects suivants :

  • Large portée : La portée de la censure chinoise couvre la politique, l’histoire, la culture, la religion et d’autres domaines.
  • Forte force : La force de la censure chinoise est très forte, atteignant même la censure des discours individuels.
  • Technologie avancée : La Chine dispose d’une vaste équipe de censure et utilise des moyens technologiques avancés pour procéder à la censure.
  • Soutien juridique : La Chine a formulé une série de lois et de règlements pour fournir un soutien juridique au système de censure.

Ces spécificités rendent le développement de modèles d’IA en Chine confronté à des défis uniques.

Comparaison de la censure de l’IA au niveau mondial

Outre la Chine, d’autres pays ont également différentes formes de censure de l’IA, qui se manifestent principalement dans les aspects suivants :

  • Europe : L’Union européenne a publié la "Loi sur l’IA", qui vise à réglementer l’application de l’IA et à l’empêcher d’être utilisée pour la discrimination ou les violations des droits de l’homme.
  • États-Unis : Les États-Unis réglementent principalement le développement de l’IA par le biais de mécanismes de marché et d’autorégulation de l’industrie, mais il existe également des différends concernant la censure du contenu.
  • Autres pays : D’autres pays ont également formulé différentes politiques de réglementation de l’IA en fonction de leurs propres conditions nationales, dont certaines peuvent impliquer la censure du contenu.

En comparant les différents systèmes de censure de l’IA des pays, il est possible de mieux comprendre la complexité et la diversité de la censure.

Tendances futures de la censure de l’IA

Les tendances futures de la censure de l’IA peuvent inclure les aspects suivants :

  • Progrès technologiques : Les technologies de censure et de lutte contre la censure continueront d’évoluer, formant un jeu du chat et de la souris.
  • Renforcement de la réglementation : Les gouvernements du monde entier peuvent renforcer la réglementation de l’IA, y compris en termes de censure de contenu.
  • Coopération internationale : Les pays peuvent renforcer la coopération internationale en matière de gouvernance de l’IA, y compris en termes de censure de contenu.
  • Sensibilisation de la société : Tous les secteurs de la société seront plus attentifs à l’impact de la censure de l’IA et appelleront à des pratiques plus responsables.

Impact de la censure sur DeepSeek

En tant qu’entreprise chinoise d’intelligence artificielle, le développement de DeepSeek est profondément influencé par le système de censure chinois. DeepSeek doit trouver un équilibre entre le respect des lois et réglementations chinoises et la satisfaction des besoins des utilisateurs. L’évolution future de DeepSeek dépendra de la manière dont elle relèvera les défis posés par le système de censure.

IA et préjugés

La censure est étroitement liée au problème des préjugés dans l’IA. La censure peut amener les modèles à n’apprendre que des informations partielles, ce qui entraîne des préjugés. DeepSeek doit prendre des mesures pour s’assurer que ses modèles peuvent apprendre des informations complètes et objectives et éviter les préjugés.

Transparence et explicabilité

Afin de relever les défis posés par la censure, DeepSeek doit améliorer la transparence et l’explicabilité de ses modèles. DeepSeek doit divulguer sa politique de censure et expliquer comment ses modèles traitent des sujets sensibles. Cela contribuera à instaurer la confiance des utilisateurs et à promouvoir le développement sain de l’IA.

Conclusion

Le cas de DeepSeek R1-0528 met en évidence la complexité et l’importance de la censure de l’IA. La censure a un impact significatif sur l’accès à l’information, l’innovation technologique, les divisions sociales et la confiance des utilisateurs. Faire face à la censure nécessite une combinaison de moyens techniques, d’actions en justice, de plaidoyer public, d’IA décentralisée et de collaboration open source. En tant qu’entreprise chinoise d’intelligence artificielle, DeepSeek doit trouver un équilibre entre le respect des lois et réglementations chinoises et la satisfaction des besoins des utilisateurs. DeepSeek doit améliorer la transparence et l’explicabilité de ses modèles afin de relever les défis posés par la censure.