Naviguer dans le labyrinthe réglementaire : un appel à l’unité (et à la préemption)
Un fil conducteur commun aux soumissions de plusieurs grandes entreprises d’IA est une préoccupation palpable concernant le patchwork naissant de réglementations sur l’IA au niveau des États. OpenAI, le créateur de ChatGPT, a explicitement appelé à un sauvetage face à ce qu’il perçoit comme un déluge imminent de plus de 700 projets de loi disparates actuellement en circulation au niveau des États. Cependant, la solution proposée par OpenAI n’est pas une législation fédérale, mais plutôt un cadre volontaire étroit. Ce cadre, de manière cruciale, préempterait les réglementations des États, offrant aux entreprises d’IA une sorte de refuge. En échange de cette protection, les entreprises auraient accès à des contrats gouvernementaux lucratifs et recevraient des avertissements anticipés sur les menaces potentielles pour la sécurité. Le gouvernement, à son tour, serait habilité à tester les nouvelles capacités des modèles et à les comparer à celles de leurs homologues étrangers.
Google fait écho à ce sentiment, plaidant pour la préemption des lois des États par un ‘cadre national unifié pour les modèles d’IA de pointe’. Ce cadre, selon Google, devrait donner la priorité à la sécurité nationale tout en favorisant simultanément un environnement propice à l’innovation américaine en matière d’IA. Cependant, contrairement à OpenAI, Google n’est pas intrinsèquement opposé à la réglementation fédérale de l’IA, à condition qu’elle se concentre sur des applications spécifiques de la technologie. Une mise en garde essentielle pour Google est que les développeurs d’IA ne devraient pas être tenus responsables de l’utilisation abusive de leurs outils par d’autres. Google a également saisi l’occasion pour plaider en faveur d’une nouvelle politique fédérale de confidentialité, arguant qu’elle affecte l’industrie de l’IA.
Au-delà de la réglementation nationale, Google exhorte l’administration américaine à s’engager activement avec d’autres gouvernements sur la législation en matière d’IA. L’entreprise met spécifiquement en garde contre les lois qui pourraient obliger les entreprises à divulguer des secrets commerciaux. Elle envisage une norme internationale où seul le gouvernement du pays d’origine d’une entreprise aurait le pouvoir de mener des évaluations approfondies de ses modèles d’IA.
Le défi chinois : contrôles à l’exportation et concurrence stratégique
Le spectre des progrès rapides de la Chine en matière d’IA occupe une place importante dans les soumissions de tous les acteurs majeurs. La règle de ‘diffusion de l’IA’, introduite par l’administration Biden en janvier 2024 pour limiter l’accès de la Chine à la technologie américaine avancée, est devenue un point central du débat. Alors que toutes les entreprises ont reconnu l’existence de la règle, leurs modifications proposées révèlent des approches radicalement différentes.
OpenAI propose une stratégie de ‘diplomatie commerciale’. Elle suggère d’élargir le niveau supérieur de la règle, qui autorise actuellement les importations illimitées de puces d’IA américaines, pour inclure davantage de pays. La condition ? Ces pays doivent s’engager à respecter les ‘principes démocratiques de l’IA’, en déployant des systèmes d’IA de manière à ‘promouvoir davantage de libertés pour leurs citoyens’. Cette approche vise à tirer parti du leadership technologique américain pour encourager l’adoption d’une gouvernance de l’IA alignée sur les valeurs à l’échelle mondiale.
Microsoft partage le désir d’OpenAI d’élargir le niveau supérieur de la règle de diffusion. Cependant, Microsoft souligne également la nécessité d’une application renforcée. Elle appelle à des ressources accrues pour le ministère du Commerce afin de garantir que les puces d’IA de pointe ne soient exportées et déployées que dans des centres de données certifiés comme fiables et sécurisés par le gouvernement américain. Cette mesure vise à empêcher les entreprises chinoises de contourner les restrictions en accédant à de puissantes puces d’IA par le biais d’un ‘marché gris’ croissant de fournisseurs de centres de données plus petits et moins surveillés en Asie et au Moyen-Orient.
Anthropic, le développeur du modèle d’IA Claude, préconise des contrôles encore plus stricts sur les pays du deuxième niveau de la règle de diffusion de l’IA, limitant spécifiquement leur accès aux puces H100 de Nvidia. De plus, Anthropic exhorte les États-Unis à étendre les contrôles à l’exportation pour englober les puces H20 de Nvidia, qui ont été spécialement conçues pour le marché chinois afin de se conformer aux réglementations américaines existantes. Cela démontre la position plus belliciste d’Anthropic sur la prévention de l’acquisition par la Chine de toute technologie susceptible de renforcer ses capacités en matière d’IA.
Google, dans un départ marqué de ses concurrents, exprime une opposition pure et simple à la règle de diffusion de l’IA. Tout en reconnaissant la validité de ses objectifs de sécurité nationale, Google soutient que la règle impose ‘des charges disproportionnées aux fournisseurs de services cloud américains’. Cette position reflète les préoccupations plus larges de Google concernant le potentiel des réglementations à étouffer l’innovation et à entraver sa compétitivité mondiale.
Au-delà de la règle de diffusion, OpenAI relève encore les enjeux en suggérant une interdiction mondiale des puces Huawei et des ‘modèles chinois qui violent la vie privée des utilisateurs et créent des risques de sécurité tels que le risque de vol de propriété intellectuelle’. Ceci est également largement interprété comme une pique à DeepSeek.
Le droit d’auteur et le carburant de l’IA : naviguer dans la propriété intellectuelle
La question épineuse du droit d’auteur, en particulier dans le contexte de la formation des modèles d’IA, reçoit également une attention significative. OpenAI, dans une réprimande claire de l’AI Act européen, critique la disposition qui accorde aux titulaires de droits la possibilité de refuser que leurs œuvres soient utilisées pour la formation à l’IA. OpenAI exhorte l’administration américaine à ‘empêcher les pays moins innovants d’imposer leurs régimes juridiques aux entreprises américaines d’IA et de ralentir notre rythme de progrès’. Cette position reflète la conviction d’OpenAI qu’un accès illimité aux données est crucial pour maintenir l’avantage concurrentiel des États-Unis en matière d’IA.
Google, en revanche, appelle à des ‘lois équilibrées sur le droit d’auteur’, ainsi qu’à des lois sur la protection de la vie privée qui accordent automatiquement une exemption pour les informations accessibles au public. Cela suggère une approche plus nuancée, reconnaissant les droits des créateurs tout en reconnaissant également l’importance des données pour le développement de l’IA. Google propose également un examen des ‘brevets d’IA accordés par erreur’, soulignant le nombre croissant de brevets d’IA américains acquis par des entreprises chinoises.
Alimenter l’avenir : infrastructures et besoins énergétiques
La puissance de calcul considérable requise pour former et exploiter des modèles d’IA avancés nécessite une expansion significative des infrastructures et des ressources énergétiques. OpenAI, Anthropic et Google plaident tous pour la rationalisation du processus d’autorisation des lignes de transmission, dans le but d’accélérer la construction d’infrastructures énergétiques pour soutenir les nouveaux centres de données d’IA.
Anthropic adopte une position particulièrement audacieuse, appelant à 50 gigawatts d’énergie supplémentaires aux États-Unis, exclusivement pour l’utilisation de l’IA, d’ici 2027. Cela souligne les immenses besoins énergétiques du paysage de l’IA en évolution rapide et le potentiel de l’IA à devenir un moteur majeur de la consommation d’énergie.
Sécurité, adoption par le gouvernement et l’État alimenté par l’IA
Les soumissions abordent également l’intersection de l’IA, de la sécurité nationale et des opérations gouvernementales. OpenAI propose d’accélérer les approbations de cybersécurité pour les meilleurs outils d’IA, permettant aux agences gouvernementales de les tester et de les déployer plus facilement. Elle suggère également des partenariats public-privé pour développer des modèles d’IA axés sur la sécurité nationale qui pourraient ne pas avoir de marché commercial viable, tels que des modèles conçus pour des tâches nucléaires classifiées.
Anthropic fait écho à l’appel à des procédures d’approvisionnement plus rapides pour intégrer l’IA dans les fonctions gouvernementales. Notamment, Anthropic souligne également l’importance de rôles d’évaluation de la sécurité robustes pour le National Institute of Standards and Technology (NIST) et l’U.S. AI Safety Institute.
Google soutient que les agences de sécurité nationale devraient être autorisées à utiliser les ressources commerciales de stockage et de calcul pour leurs besoins en IA. Elle plaide également pour que le gouvernement publie ses ensembles de données pour la formation commerciale à l’IA et pour qu’il impose des normes de données ouvertes et des API dans les différents déploiements de cloud gouvernementaux afin de faciliter les ‘informations basées sur l’IA’.
L’impact sociétal : marchés du travail et transformation induite par l’IA
Enfin, les soumissions abordent les implications sociétales plus larges de l’IA, en particulier son impact potentiel sur les marchés du travail. Anthropic exhorte l’administration à surveiller de près les tendances du marché du travail et à se préparer à des perturbations importantes. Google reconnaît également que des changements sont à venir, soulignant la nécessité d’un développement plus large des compétences en IA. Google demande également un financement accru pour la recherche sur l’IA et une politique visant à garantir que les chercheurs américains aient un accès adéquat à la puissance de calcul, aux données et aux modèles.
En substance, les soumissions au ‘AI Action Plan’ brossent le tableau d’une industrie à un moment charnière. Bien qu’unies dans leur ambition de faire progresser la technologie de l’IA, les principales entreprises américaines ont des points de vue fondamentalement différents sur la manière de relever les défis complexes de la réglementation, de la concurrence internationale et de l’impact sociétal. Les mois et les années à venir révéleront comment ces visions divergentes façonneront l’avenir de l’IA, non seulement aux États-Unis, mais dans le monde entier.