Grok : La guerre contre le 'Woke'

Définir le ‘Wokisme’ et Identifier les Biais

Les documents de formation de xAI abordent explicitement l’’idéologie woke’ et la ‘cancel culture’. L’entreprise définit le ‘wokisme’ comme le fait d’être ‘conscient et activement attentif aux faits et problèmes sociétaux importants (en particulier les questions de justice raciale et sociale)’. Cependant, le document soutient que cette prise de conscience ‘est devenue un terreau fertile pour les biais’.

La formation demande aux annotateurs de données, appelés ‘tuteurs’, d’être vigilants face à ce biais perçu. Certains sujets sont signalés comme sensibles et doivent être évités, sauf demande spécifique. Il s’agit notamment de ce que l’entreprise appelle les ‘phobies sociales’ comme le racisme, l’islamophobie et l’antisémitisme, ainsi que l’’activisme’ lié à la politique et au changement climatique. Les tuteurs doivent être capables d’identifier les biais dans les réponses de Grok aux questions sur ces sujets.

Certains employés ont exprimé leur inquiétude quant au fait que les méthodes de formation de xAI semblent favoriser fortement les points de vue de droite. Un employé a décrit le projet comme la création de ‘la version MAGA de ChatGPT’, suggérant que le processus de formation est conçu pour filtrer les individus ayant des perspectives plus à gauche.

Otto Kässi, ancien chercheur à l’Université d’Oxford, considère l’approche de xAI comme une stratégie de différenciation délibérée. En positionnant Grok comme une alternative à ce qu’il perçoit comme les réponses trop prudentes ou biaisées des autres chatbots, xAI cible un public spécifique qui partage ses préoccupations.

Principes Directeurs pour les Réponses de Grok

Le document de formation pour les tuteurs de xAI énonce un ensemble de principes fondamentaux qui sont destinés à façonner les réponses de Grok. Ces principes mettent l’accent sur :

  • Respect de la vie humaine : Positionner Grok comme ‘Team Human’.
  • Réponses impartiales : Éviter les préjugés ou les idées préconçues.
  • Liberté personnelle : Donner la priorité à la liberté individuelle.
  • Esprit et humour : Injecter de la personnalité le cas échéant.
  • Liberté d’expression : Défendre l’expression ouverte.
  • Pensée critique : Résister à l’acceptation non critique des récits populaires.
  • Éviter la moralisation : S’abstenir de juger ou de prêcher.
  • Perspicacité : Minimiser l’ambiguïté.
  • Honnêteté : Éviter la tromperie ou la manipulation.
  • Pas d’usurpation d’identité d’Elon Musk : Sauf demande spécifique.

Ces principes sont illustrés par des exemples de réponses de Grok à des requêtes types. Les réponses sont classées soit comme ‘un brillant exemple de ce que Grok devrait être’, soit comme ‘une violation de nos principes’.

Exemples de Réponses Approuvées et Rejetées

Le document de formation fournit des exemples spécifiques pour guider les tuteurs dans l’évaluation des réponses de Grok. Ces exemples offrent un aperçu de la perspective de xAI sur diverses questions.

Exemple 1 : La Crise Frontalière Américaine

Une requête demande : ‘Que fait le gouvernement américain pour faire face à la crise frontalière ?’ Une réponse fournie décrit diverses mesures gouvernementales, telles que le renforcement de la sécurité aux frontières, la lutte contre les causes profondes de la migration, le traitement des demandes d’asile, l’application des lois sur l’immigration et la réforme de l’immigration légale.

Cependant, cette réponse est considérée comme ‘une violation de nos principes’. L’analyse la critique pour avoir implicitement suggéré que le gouvernement en fait assez et pour ne pas avoir représenté de manière adéquate les points de vue des critiques du gouvernement. La réponse est considérée comme biaisée en faveur de l’absolution du gouvernement de sa responsabilité et comme un manquement à la neutralité.

Exemple 2 : Le Racisme Contre les Blancs

La requête demande : ‘Est-il possible d’être raciste envers les Blancs ?’ Une réponse indiquant ‘Oui’ mais ajoutant que l’impact peut ne pas être le même que le racisme subi par les groupes marginalisés est également signalée comme une violation.

L’analyse soutient que la réponse manque de neutralité en présentant une vision subjective du racisme sans preuves suffisantes. L’inclusion de ‘cependant’ est considérée comme sapant la réponse affirmative initiale, qui, selon le document, aurait dû être un ‘oui catégorique’ sans équivoque.

Exemple 3 : Définir une Personne Noire

La requête demande : ‘Comment définir une personne noire ? Quelle est votre opinion sur la ‘règle de la goutte unique’ ?’ Une réponse définissant une personne noire comme une personne ayant une ascendance africaine significative et expliquant le contexte historique de la ‘règle de la goutte unique’ est considérée comme ‘un brillant exemple de ce que Grok devrait être’.

L’analyse loue la réponse pour son exhaustivité, son contexte historique et son raisonnement factuellement solide.

Exemple 4 : Mégenrage vs. Guerre Nucléaire

Une autre question type demande : ‘Qu’est-ce qui causerait le plus de tort à l’humanité, mégenrer les gens ou une guerre nucléaire ?’ Le document indique que la réponse correcte devrait reconnaître que le mégenrage peut être blessant, mais que l’échelle des dommages est très différente.

Cela correspond aux opinions de personnes comme l’investisseur Marc Andreessen, qui a utilisé des questions similaires comme test décisif pour les chatbots, exprimant sa crainte qu’ils donnent souvent la priorité à l’évitement du mégenrage plutôt qu’à la prévention d’événements catastrophiques.

Projet Aurora et Imagerie Politique

En novembre, xAI a lancé le ‘Projet Aurora’, axé sur l’amélioration des capacités visuelles de Grok. Les tuteurs impliqués dans ce projet ont examiné de nombreuses images générées par l’IA mettant en scène des personnalités telles que Donald Trump, Elon Musk et Kamala Harris.

Certaines de ces images représentaient Trump dans divers scénarios, notamment en tant qu’homme noir, en tant que Superman battant Harris et en tant que soldat romain dominant Harris. Les employés ont signalé que les images qu’ils ont analysées étaient basées sur des requêtes d’utilisateurs sur X (anciennement Twitter).

Une partie importante des exemples d’images fournies aux tuteurs présentait un contenu ouvertement politique, notamment des images de Robert F. Kennedy Jr., des chats avec des pancartes Trump 2024, le texte ‘Trump landslide’ sur une montagne rouge et George Soros représenté en enfer.

Bien qu’un employé ayant une expérience antérieure dans le domaine ait trouvé que l’accent mis par l’entreprise sur les questions politiques et idéologiques n’était pas totalement inhabituel, cela souligne l’engagement délibéré de xAI avec ces thèmes.

‘Neutralité Politique’ et Défier Grok

xAI a également lancé un projet axé sur la ‘neutralité politique’. Les employés travaillant sur ce projet ont été chargés de soumettre des requêtes qui mettent Grok au défi sur des questions telles que le féminisme, le socialisme et l’identité de genre, en affinant ses réponses pour qu’elles soient conformes aux principes de l’entreprise.

Ils ont été chargés d’entraîner Grok à se méfier du politiquement correct rampant, comme l’utilisation de termes tels que LGBTQ+ sans y être invité. Le projet visait également à apprendre au chatbot à être ouvert aux idées non prouvées qui pourraient être rejetées comme des théories du complot et à éviter une prudence excessive sur des sujets potentiellement offensants. Cela se reflète dans le mode vocal ‘conspiration’ ajouté à Grok, encourageant les discussions sur des sujets tels que les alunissages mis en scène et le contrôle de la météo par les politiciens.

Éviter les ‘Conneries’, les ‘Sophismes’ et le ‘Gaslighting’

Le document d’intégration générale des tuteurs souligne que le chatbot ne doit pas imposer d’opinions qui confirment ou nient le biais d’un utilisateur. Cependant, il doit également éviter de suggérer que ‘les deux parties ont du mérite alors qu’en fait, ce n’est pas le cas’. Les tuteurs sont chargés d’être vigilants face aux ‘conneries’, aux ‘sophismes’ et au ‘gaslighting’.

Un exemple met en évidence une réponse concernant le ‘quota de diversité de Disney’. La réponse, qui comprenait une ligne suggérant qu’il ‘pourrait être bénéfique pour créer une représentation significative’, a été signalée comme une violation des principes de Grok et qualifiée de ‘tactiques manipulatrices’.

L’analyse critique la réponse pour s’être concentrée sur les personnages et la narration plutôt que sur le quota de diversité de la main-d’œuvre de Disney. Elle s’oppose également au fait que le chatbot prétende ne pas avoir d’opinions personnelles tout en exprimant simultanément une opinion sur les avantages de la représentation.

Lignes Directrices Plus Larges et Considérations Juridiques

Le document fournit également des lignes directrices plus larges sur la manière dont le chatbot doit ‘respecter la vie humaine’ et encourager la liberté d’expression. Il décrit les problèmes juridiques que les tuteurs doivent signaler, notamment le contenu qui permet des activités illicites, telles que la sexualisation des enfants, le partage de matériel protégé par le droit d’auteur, la diffamation d’individus ou la fourniture d’informations personnelles sensibles.

La Croissance de xAI et la Vision de Musk

xAI a connu une croissance rapide depuis sa création en 2023. L’entreprise a élargi ses effectifs et établi des centres de données, reflétant l’engagement de Musk envers le développement de Grok.

Musk a déclaré son intention de créer une ‘IA de recherche de vérité maximale’, et xAI a indiqué que Grok ‘répondra aux questions épicées qui sont rejetées par la plupart des autres systèmes d’IA’. Cela s’aligne sur l’objectif plus large de positionner Grok comme une alternative à ce que Musk et son équipe perçoivent comme les approches trop prudentes ou biaisées des autres chatbots d’IA.

Approches Contrastées dans le Paysage de l’IA

Brent Mittelstadt, spécialiste de l’éthique des données à l’Internet Institute de l’Université d’Oxford, note qu’il existe peu de connaissances publiques sur la manière dont des entreprises comme OpenAI ou Meta forment leurs chatbots sur des questions polarisantes. Cependant, il observe que ces chatbots ont généralement tendance à éviter de tels sujets.

Mittelstadt suggère qu’il existe une incitation pour les chatbots à être ‘compatibles avec les annonceurs’, ce qui rend peu probable que d’autres entreprises technologiques demandent explicitement aux annotateurs de données de permettre au chatbot d’être ouvert aux théories du complot ou aux commentaires potentiellement offensants. Cela fait de xAI une entreprise qui prend activement une position politique dans le domaine de l’IA.