Llama 2 et réduction d'effectifs gouvernementaux

Un rapport inattendu révèle que les initiatives très critiquées du département de l’efficacité gouvernementale visant à rationaliser les effectifs fédéraux ont utilisé un ancien modèle d’IA de Meta, plus précisément Llama 2, plutôt que la propre création d’IA d’Elon Musk, Grok.

Le mémo “Fourche à la Route” et le rôle de Llama 2

Selon une enquête menée par Wired, les affiliés du DOGE (Département de l’Efficacité Gouvernementale) d’Elon Musk, opérant au sein de l’Office of Personnel Management, ont engagé le modèle Llama 2 de Meta pour analyser et catégoriser méticuleusement les réponses des employés fédéraux à l’e-mail controversé “Fourche à la Route” envoyé à travers le gouvernement fin janvier.

Le mémo “Fourche à la Route”, remarquablement similaire à une précédente communication que Musk avait envoyée aux employés de Twitter, présentait aux travailleurs fédéraux un choix : démontrer leur “loyauté” en acceptant la politique révisée du gouvernement sur le retour au bureau, ou choisir de démissionner. À l’époque, des rumeurs circulaient selon lesquelles DOGE tirait parti de l’IA pour traiter les données des employés du gouvernement. La confirmation a depuis émergé, confirmant l’utilisation de Llama 2 pour passer au crible les réponses des employés et quantifier le nombre de démissions.

Le passé controversé de Llama 2 : Applications militaires et réponse de Meta

L’histoire de Llama 2 n’est pas sans controverse. Notamment, en novembre, des chercheurs chinois ont utilisé Llama 2 comme base pour un modèle d’IA employé par l’armée chinoise. Cette révélation a déclenché une réaction négative, incitant Meta à dénoncer initialement la dépendance “non autorisée” des chercheurs à un modèle “unique” et “dépassé”. Toutefois, Meta a par la suite inversé ses politiques interdisant les applications militaires et a élargi l’accès à ses modèles d’IA à des fins de sécurité nationale américaine.

Meta a publiquement déclaré son engagement à rendre Llama accessible aux agences gouvernementales américaines, y compris celles impliquées dans la défense et les applications de sécurité nationale, ainsi qu’aux partenaires du secteur privé soutenant leurs efforts. Ils ont annoncé des partenariats avec des entreprises comme Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI et Snowflake pour faciliter le déploiement de Llama dans les agences gouvernementales.

Wired suggère que la nature open source des modèles de Meta permet au gouvernement de les utiliser facilement à l’appui des objectifs de Musk, potentiellement sans le consentement explicite de l’entreprise. Déterminer l’étendue du déploiement des modèles de Meta au sein du gouvernement reste un défi. La justification du recours de DOGE à Llama 2, compte tenu en particulier des avancées de Meta avec Llama 3 et 4, n’est pas claire.

Connaissance limitée de l’utilisation de Llama 2 par DOGE

Les détails concernant l’application spécifique de Llama 2 par DOGE restent rares. L’enquête de Wired a révélé que DOGE a déployé le modèle localement, ce qui suggère que les données n’ont probablement pas été transmises via Internet, atténuant ainsi les préoccupations relatives à la vie privée exprimées par de nombreux employés du gouvernement.

Inquiétudes du Congrès et appels à une enquête

Dans une lettre d’avril adressée à Russell Vought, directeur de l’Office of Management and Budget, plus de 40 législateurs ont exigé une enquête approfondie sur l’utilisation de l’IA par DOGE. Ils ont exprimé des inquiétudes quant à ce genre d’utilisation, ainsi qu’aux risques potentiels pour la sécurité, qui pourraient compromettre l’adoption réussie et appropriée de l’IA au sein du gouvernement.

La lettre faisait spécifiquement référence à un membre du personnel de DOGE et ancien employé de SpaceX qui aurait utilisé le modèle xAI Grok-2 de Musk pour développer un “assistant IA”. Elle mentionnait également l’utilisation d’un chatbot nommé “GSAi”, basé sur les modèles d’Anthropic et de Meta, pour analyser les données relatives aux contrats et aux achats. En outre, DOGE a été associé à un logiciel appelé AutoRIF, prétendument conçu pour accélérer les licenciements massifs dans l’ensemble du gouvernement.

Les législateurs ont souligné des “inquiétudes majeures en matière de sécurité” concernant l’utilisation par DOGE de “systèmes d’IA pour analyser les courriels d’une grande partie des deux millions d’employés fédéraux décrivant les réalisations de leur semaine précédente”, citant un manque de transparence.

Ces courriels ont suivi les courriels “Fourche à la Route”, incitant les travailleurs à exposer leurs réalisations hebdomadaires en cinq points. Les employés ont exprimé des inquiétudes quant à la nature des réponses, craignant que DOGE ne sollicite des informations sensibles sans autorisation de sécurité appropriée.

Wired n’a pas pu confirmer de manière définitive si Llama 2 a également été utilisé pour traiter ces réponses par courriel. Cependant, des travailleurs fédéraux ont suggéré à Wired que DOGE “réutiliserait probablement son code” de l’expérience du courriel “Fourche à la Route”, s’il s’agissait d’une décision judicieuse.

Pourquoi Grok n’a pas été utilisé

La question se pose : pourquoi DOGE n’a-t-il pas utilisé Grok ?

L’explication probable est que Grok, étant un modèle propriétaire à l’époque, n’était pas disponible pour la tâche de DOGE en janvier. Selon Wired, DOGE pourrait augmenter son recours à Grok à l’avenir, compte tenu en particulier de l’annonce de Microsoft selon laquelle il commencerait à héberger les modèles Grok 3 de xAI dans son Azure AI Foundry cette semaine, élargissant ainsi les applications potentielles du modèle.

Inquiétudes des législateurs : Conflits d’intérêts et violations de données

Dans leur lettre, les législateurs ont exhorté Vought à enquêter sur les conflits d’intérêts potentiels impliquant Musk, tout en mettant en garde contre les violations de données potentielles. Ils ont affirmé que l’IA, telle qu’elle est utilisée par DOGE, n’était pas encore adaptée aux applications gouvernementales.

Ils ont fait valoir que “sans protections appropriées, l’introduction de données sensibles dans un système d’IA les met en la possession de l’opérateur du système, une violation massive de la confiance du public et des employés et une augmentation des risques de cybersécurité entourant ces données”. Ils ont en outre noté que “les modèles d’IA générative font aussi fréquemment des erreurs et présentent des biais importants : la technologie n’est tout simplement pas prête à être utilisée dans la prise de décisions à haut risque sans examen, transparence, supervision et protections appropriés”.

Bien que le rapport de Wired suggère que DOGE n’a pas transmis de données sensibles provenant des courriels “Fourche à la Route” à une source externe, les législateurs préconisent un examen plus rigoureux des systèmes d’IA afin d’atténuer “le risque de partage d’informations personnellement indentifiables ou autrement sensibles avec les déployeurs de modèles d’IA”.

Une préoccupation dominante est que Musk pourrait de plus en plus tirer parti de ses propres modèles, bénéficiant potentiellement de données gouvernementales inaccessibles à ses concurrents, tout en exposant simultanément ces données à des risques de violation. Les législateurs espèrent que DOGE sera contraint d’interrompre ses systèmes d’IA. Toutefois, Vought semble plus en phase avec l’approche de DOGE, comme en témoigne son guide de l’IA pour l’utilisation fédérale, qui encourage les agences à “supprimer les barrières à l’innovation et à fournir la meilleure valeur pour le contribuable”.

La lettre des législateurs souligne que “bien que nous soutenions l’intégration par le gouvernement fédéral de nouvelles technologies d’IA approuvées qui peuvent améliorer l’efficacité ou l’efficience, nous ne pouvons pas sacrifier la sécurité, la vie privée et les normes d’utilisation appropriées lorsque nous interagissons avec les données fédérales”. Ils déclarent également que “nous ne pouvons pas non plus cautionner l’utilisation de systèmes d’IA, souvent connus pour les hallucinations et les biais, dans les décisions concernant la cessation d’emploi fédéral ou le financement fédéral sans une transparence et une supervision suffisantes de ces modèles, le risque de perdre des talents et des recherches critiques en raison d’une technologie défectueuse ou d’utilisations imparfaites de cette technologie est tout simplement trop élevé”.

Analyse approfondie des implications de l’utilisation de l’IA dans les initiatives d’efficacité gouvernementale

L’histoire se déroulant de l’utilisation de l’intelligence artificielle par le Département de l’efficacité gouvernementale (DOGE) dans ses efforts de rationalisation opérationnelle a déclenché une vive controverse et un examen minutieux. Révélation selon laquelle l’agence s’est appuyée sur le modèle Llama 2 de Meta, une IA open source, plutôt que sur l’IA Grok propriétaire d’Elon Musk, a ajouté une couche de complexité à un récit déjà complexe. Cette situation justifie un examen approfondi des implications multiformes de l’intégration de l’IA dans les opérations gouvernementales, en examinant les avantages et les risques inhérents, les considérations éthiques et le potentiel de conflits d’intérêts.

L’attrait et les pièges de l’IA dans le gouvernement

L’intégration de l’IA dans les fonctions gouvernementales promet des avancées transformatrices en termes d’efficacité, d’analyse des données et de prise de décisions. De l’automatisation des tâches de routine au criblage de vastes ensembles de données, l’IA détient le potentiel de débloquer des niveaux de productivité sans précédent et d’améliorer la prestation des services publics. Imaginez des algorithmes capables de prédire les défaillances des infrastructures, de personnaliser l’éducation ou d’optimiser l’allocation des ressources dans les efforts de secours aux sinistrés. Les possibilités sont apparemment infinies.

Toutefois, cette révolution technologique n’est pas sans danger. Le recours aux systèmes d’IA introduit un réseau complexe de dilemmes éthiques, de vulnérabilités de sécurité et de biais potentiels. Les modèles d’IA sont formés sur des données, et si ces données reflètent des préjugés sociétaux, l’IA perpétuera et même amplifiera ces biais. Cela constitue une menace importante pour l’équité et l’égalité dans les services gouvernementaux, ce qui pourrait entraîner des résultats discriminatoires dans des domaines comme l’application des lois, le bien-être social et l’éducation.

En outre, l’utilisation de l’IA soulève des questions profondes sur la transparence et la responsabilité. Lorsque des décisions sont prises par des algorithmes, il devient difficile de comprendre la justification de ces décisions, ce qui rend difficile la tenue des agences gouvernementales responsables de leurs actions.

L’énigme Llama 2 contre Grok

Le choix de Llama 2 plutôt que de Grok soulève ses propres considérations. La nature open source de Llama 2 la rend facilement accessible et personnalisable, ce qui permet aux agences gouvernementales de l’adapter à leurs besoins spécifiques sans être enfermées dans un écosystème propriétaire. Toutefois, cela signifie également qu’elle ne dispose pas de l’assistance et de la maintenance dédiées qui accompagnent généralement les solutions d’IA propriétaires.

D’autre part, Grok, en tant qu’IA exclusive, offre la promesse de performances de pointe et d’une expertise spécialisée. Toutefois, elle soulève également des inquiétudes quant au verrouillage potentiel des fournisseurs, à la protection des données et à la partialité découlant des données d’entraînement de l’IA. Elle met en évidence les inquiétudes quant au potentiel de toute entité privée, en particulier une entité associée à une personnalité de premier plan étroitement liée aux objectifs du gouvernement, à exercer une influence indue sur les processus décisionnels.

Le spectre des conflits d’intérêts

La participation des entités d’Elon Musk (SpaceX et xAI) aux initiatives gouvernementales en matière d’IA soulève le spectre des conflits d’intérêts. En tant que personnalité de premier plan ayant des intérêts acquis dans divers secteurs, l’implication de Musk soulève des questions quant à l’influence potentielle qu’il pourrait exercer sur la politique gouvernementale et l’attribution des contrats.

Le gouvernement accorderait-il un traitement préférentiel aux entreprises de Musk ? Des garanties suffisantes sont-elles en place pour assurer que les décisions sont prises de manière impartiale et dans le meilleur intérêt du public ? Ce sont des questions légitimes qui exigent un examen rigoureux.

Préoccupations concernant la sécurité des données et la protection de la vie privée

L’utilisation de l’IA dans les opérations gouvernementales implique inévitablement la collecte, le stockage et le traitement des données sensibles des citoyens. Cela crée une cible tentante pour les cyberattaques et les violations de données. Le gouvernement doit mettre en œuvre des mesures de sécurité robustes pour protéger ces données contre l’accès non autorisé et l’utilisation abusive. Cela comprend non seulement la protection des données contre les menaces externes, mais aussi l’établissement de contrôles d’accès stricts et de mécanismes de responsabilisation pour prévenir les abus internes.

Les préoccupations concernant la protection des données sont amplifiées par la natureopaque des algorithmes d’IA. Les citoyens n’ont souvent aucune idée de la façon dont leurs données sont traitées ou utilisées pour prendre des décisions qui affectent leur vie. Ce manque de transparence érode la confiance dans le gouvernement et peut entraîner une résistance aux initiatives axées sur l’IA.

Les implications pour l’avenir du gouvernement

Le débat sur l’utilisation de l’IA par DOGE ne porte pas uniquement sur un cas particulier, mais sur l’avenir du gouvernement à l’ère de l’intelligence artificielle. Comment le gouvernement peut-il exploiter la puissance de l’IA pour améliorer les services publics tout en atténuant les risques ? Comment pouvons-nous faire en sorte que l’IA soit utilisée de façon éthique, transparente et responsable ?

Les réponses à ces questions nécessitent une approche multidimensionnelle :

  • Établir des lignes directrices éthiques claires: Codifier un ensemble clair de principes éthiques qui régissent l’utilisation de l’IA au sein du gouvernement. Ces principes devraient accorder la priorité à l’équité, à la transparence, à la responsabilité et au respect de la vie privée.

  • Promouvoir la transparence et l’ouverture: Rendre les algorithmes d’IA et les processus décisionnels plus transparents. Publier des rapports décrivant comment l’IA est utilisée au sein du gouvernement et prévoir des moyens pour les citoyens de formuler des commentaires.

  • Protéger la sécurité des données: Mettre en œuvre des mesures de sécurité robustes pour protéger les données sensibles des citoyens contre les cybermenaces et les abus internes.

  • Assurer la responsabilisation: Établir des chaînes de responsabilité claires pour les décisions axées sur l’IA. Désigner les fonctionnaires responsables de la supervision de l’utilisation de l’IA et du règlement des problèmes qui peuvent survenir.

  • Cultiver la confiance du public: Informer le public sur les avantages et les risques de l’IA au sein du gouvernement. Dialoguer avec les citoyens pour répondre à leurs préoccupations et instaurer la confiance dans l’utilisation responsable de cette technologie.

En adoptant une approche proactive et réfléchie, le gouvernement peut exploiter le pouvoir transformateur de l’IA tout en protégeant l’intérêt public. La controverse DOGE rappelle l’importance d’une planification minutieuse, d’un dialogue ouvert et d’un engagement envers les principes éthiques à l’ère de l’intelligence artificielle.

L’histoire se dévoile

Le drame entourant l’utilisation de l’IA par DOGE est loin d’être terminé. Au fur et à mesure que les enquêtes se poursuivent et que de plus amples détails émergent, l’incident aura sans aucun doute des répercussions sur l’avenir du déploiement de l’IA au sein du gouvernement. Espérons que cette situation conduira à une intégration plus réfléchie de la technologie.