De Jaipur à DeepSeek : l'appel à l'open source

Un festival littéraire, une révélation sur l'IA

Il y a quelques semaines, le vibrant Jaipur Literature Festival (JLF) en Inde est devenu un forum inattendu pour une discussion cruciale sur l’avenir de l’intelligence artificielle. Lors d’une table ronde apparemment consacrée à l’héritage de l’empire, la conversation a pris un tournant radical. Le public, captivé par l’ouvrage de Pankaj Mishra, ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’, a posé une série de questions pointues, non pas sur la littérature, mais sur DeepSeek, un nouveau modèle d’IA générative en provenance de Chine.

Ces questions – Comment en sommes-nous arrivés là ? Comment tracer la meilleure voie possible pour l’avenir de l’IA ? Pourquoi l’open source est-il essentiel dans le développement de l’IA ? – ont résonné bien au-delà du festival. Elles ont touché à une rivalité historique profondément ancrée, à une aspiration à l’autonomie et à un mouvement mondial croissant prônant une approche plus ouverte et collaborative du développement de l’IA.

Les racines historiques de l'accueil réservé à DeepSeek

L’émergence de DeepSeek lors d’un festival littéraire peut sembler singulière. Cependant, sa proéminence est profondément liée à des événements historiques et à une rivalité de longue date, en particulier entre l’Asie et l’Occident. Alors que les laboratoires d’IA européens ont été salués pour leurs avancées en matière d’open source, l’accueil réservé à DeepSeek en Asie revêt une résonance historique bien plus profonde.

Le lancement de DeepSeek a été accueilli par une couverture médiatique intense. Son accueil au JLF a révélé un sentiment qui transcendait les simples discussions sur les performances de l’IA. Des écrivains et journalistes indiens, souvent critiques à l’égard de la Chine, se sont retrouvés unis par une lutte commune contre la domination des American AI Corporations (AIC). Cet enthousiasme pour DeepSeek à travers l’Asie est enraciné dans l’histoire coloniale et, plus récemment, dans des déclarations d’entreprises provocatrices.

L'IA : une lutte moderne pour l'autonomie

Pour Stephen Platt, auteur de ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’, les ambitions technologiques de la Chine sont indissociables de ses cicatrices historiques. Les guerres de l’opium (1839-1860) servent de symbole puissant de la façon dont la supériorité technologique et militaire de la Grande-Bretagne a humilié la Chine. Ce ‘siècle d’humiliation’ alimente la volonté actuelle de la Chine de s’autonomiser, ses investissements massifs dans l’IA, les semi-conducteurs et d’autres technologies critiques. C’est une détermination à éviter la dépendance à l’égard de la technologie occidentale, une leçon gravée dans la conscience nationale.

Les panélistes indiens du JLF ont trouvé un terrain d’entente dans ce récit. Comme la Chine, l’Inde porte la marque sombre de l’influence de la Compagnie des Indes orientales. De plus, la journaliste britannique Anita Anand a souligné une vidéo controversée du PDG d’OpenAI, Sam Altman, rejetant le potentiel de l’Inde à rivaliser avec les AIC dans la formation de modèles de fondation, déclarant que c’était ‘totalement désespéré’. De telles remarques n’ont fait que renforcer la volonté d’autonomie dans la région.

L'IA open source : un symbole de résistance

DeepSeek, et les laboratoires européens qui l’ont précédé, ont offert une lueur d’espoir dans la course à l’IA. Leur choix d’adopter l’open source est devenu un puissant symbole de résistance contre la domination des modèles d’IA propriétaires.

La sortie de DeepSeek R1 doit être comprise dans le contexte d’une rivalité profondément ancrée, en particulier avec les États-Unis. Cette rivalité est si profonde que l’Europe est souvent négligée dans les discussions sur la concurrence avec la technologie américaine.

La domination des AIC a même déclenché des comparaisons avec le colonialisme en Occident. Dans un éditorial d’août 2024 intitulé ‘The Rise of Techno-Colonialism’, Hermann Hauser, membre du Conseil européen de l’innovation, et Hazem Danny Nakib, chercheur principal à l’University College London (UCL), ont écrit : ‘Contrairement au colonialisme d’antan, le techno-colonialisme ne consiste pas à s’emparer de territoires, mais à contrôler les technologies qui sous-tendent l’économie mondiale et notre vie quotidienne. Pour y parvenir, les États-Unis et la Chine internalisent de plus en plus les segments les plus innovants et les plus complexes des chaînes d’approvisionnement mondiales, créant ainsi des points d’étranglement stratégiques.’

L’approche open source pionnière des laboratoires d’IA européens comme Mistral, kyutai et l’équipe FAIR Paris de Meta, et maintenant DeepSeek, a présenté une alternative convaincante à la stratégie de modèle d’IA propriétaire des AIC. Ces contributions open source résonnent à l’échelle mondiale et ont encore renforcé l’adoption de l’IA open source comme symbole de résistance contre la domination américaine de l’IA.

Le plaidoyer pour l'open source : l'histoire se répète

La collaboration technologique prospère grâce à l’énergie et à la rapidité, ce qui est inhérent à l’évolution du code logiciel.

Le lauréat français du prix Nobel d’économie, Jean Tirole, initialement perplexe face à l’émergence de l’open source, s’est interrogé dans son article de 2000 avec Josh Lerner, ‘The Simple Economics of Open Source’ : ‘Pourquoi des milliers de programmeurs de haut niveau devraient-ils contribuer gratuitement à la fourniture d’un bien public ? Toute explication basée sur l’altruisme ne va pas très loin.’

Bien que compréhensible à l’époque, quiconque suit les progrès de l’IA ces dernières années, en particulier après la sortie de DeepSeek R1, trouverait la réponse évidente. L’impact de l’ouverture de Llama par FAIR Paris chez Meta, l’ascension fulgurante de Mistral et de ses fondateurs grâce à l’ouverture d’un modèle d’apprentissage des langues (LLM) de 7 milliards de paramètres, et DeepSeek R1 démontrent les raisons impérieuses qui sous-tendent le dévouement de ces programmeurs et scientifiques à l’open source.

Cela clarifie également pourquoi Sam Altman et ses co-fondateurs ont choisi le nom ‘OpenAI’ pour attirer les talents. L’un de ces laboratoires de pointe aurait-il obtenu une publicité aussi retentissante et construit des marques personnelles aussi fortes au sein de la communauté de l’IA s’il avait opté pour une approche propriétaire ? La réponse est un non retentissant.

Deux citations puissantes de 1999, du programmeur Richard Stallman et du développeur Eric Raymond, respectivement, incluses au début de l’article, éclairent l’accueil de DeepSeek au JLF et soulignent les forces idéologiques plus profondes à l’œuvre :

  • ‘L’idée que le système social du logiciel propriétaire – le système qui dit que vous n’êtes pas autorisé à partager ou à modifier un logiciel – est antisocial, qu’il est contraire à l’éthique, qu’il est tout simplement mauvais, peut surprendre certaines personnes. Mais que pouvons-nous dire d’autre d’un système basé sur la division du public et le maintien des utilisateurs dans l’impuissance ?’ - Richard Stallman

  • ‘La fonction d’utilité que les hackers Linux maximisent n’est pas classiquement économique, mais l’intangible de leur propre satisfaction de l’ego et de leur réputation auprès des autres hackers. … Les cultures volontaires qui fonctionnent de cette manière ne sont en fait pas rares ; une autre à laquelle j’ai longtemps participé est le fandom de la science-fiction, qui, contrairement au hackerdom, reconnaît explicitement l’egoboo (l’amélioration de sa réputation auprès des autres fans).’ - Eric Raymond

La trajectoire d’Unix dans les années 1970 et 1980 fournit une analogie convaincante pour l’état actuel de l’IA. La promotion initiale et la distribution gratuite d’Unix par AT&T au sein du monde universitaire ont favorisé l’innovation et l’adoption. Cependant, lorsqu’AT&T a imposé une licence propriétaire à la fin des années 1970, cela a inévitablement conduit l’Université de Berkeley à lancer BSD Unix, une alternative ouverte, et finalement Linus Torvalds à créer Linux. Le développement de Linux par Torvalds en Europe a déplacé l’épicentre du logiciel open source loin des États-Unis.

Les parallèles sont frappants, même géographiquement, avec l’évolution de l’IA. Cette fois, cependant, de nouvelles géographies ont émergé : le TII d’Abu Dhabi avec ses modèles Falcon, le DeepSeek chinois, le Qwen d’Alibaba et, plus récemment, le Krutrim AI Lab indien avec ses modèles open source pour les langues indiennes.

L’équipe Meta FAIR Paris, ainsi que les principaux laboratoires d’IA européens et les nouveaux laboratoires de pointe (DeepSeek, Falcon, Qwen, Krutrim), ont considérablement accéléré l’innovation en matière d’IA. En partageant ouvertement des articles de recherche et du code, ils ont :

  • Formé une nouvelle génération d’ingénieurs et de chercheurs en IA aux techniques d’IA de pointe.
  • Créé un écosystème de collaboration ouverte, permettant des avancées rapides en dehors des laboratoires d’IA propriétaires.
  • Fourni des modèles d’IA alternatifs, garantissant que l’IA n’est pas monopolisée par les American AI Corporations.

Ces quatre écosystèmes (Europe, Inde, Abu Dhabi et Chine) pourraient forger une puissante alliance d’IA open source pour défier les AIC dominantes qui fonctionnent encore selon un état d’esprit d’IA propriétaire.

Dans un questionnaire Ask Me Anything (AMA) le 31 janvier 2025, suite à la sortie de DeepSeek R1, Altman a reconnu que l’approche du modèle d’IA propriétaire avait été du mauvais côté de l’histoire.

Avec le temps, les laboratoires d’IA du monde entier pourraient choisir de rejoindre cette alliance pour faire progresser collectivement le domaine. Ce ne serait pas la première fois qu’un domaine scientifique transcende les frontières et les idéologies politiques grâce à une initiative à but non lucratif. Il offre un mode de concurrence qui évite de déclencher les griefs anticoloniaux souvent exprimés par le Sud global.

Précédents historiques : le projet du génome humain comme modèle pour l'IA

En tant que biologiste, je suis particulièrement conscient des réalisations du Projet Génome Humain (HGP) et de la façon dont il a finalement surpassé l’initiative à but lucratif de Celera Genomics, bénéficiant au domaine et à l’humanité dans son ensemble.

Le HGP était une initiative de recherche internationale révolutionnaire qui a cartographié et séquencé l’ensemble du génome humain. Achevé en 2003 après 13 ans de collaboration, il a généré près de 800 milliards de dollars d’impact économique à partir d’un investissement de 3 milliards de dollars, selon un rapport de 2011 mis à jour en 2013 (un retour sur investissement pour l’économie américaine de 141 pour un – chaque dollar d’investissement fédéral dans le HGP a contribué à la génération de 141 dollars dans l’économie). Il a révolutionné la médecine, la biotechnologie et la génétique, permettant des avancées dans la médecine personnalisée, la prévention des maladies et la recherche génomique. Les travaux de séquençage et de recherche ont été menés par 20 laboratoires dans six pays : les États-Unis, le Royaume-Uni, la France, l’Allemagne, le Japon et la Chine.

Alors que Celera Genomics tentait de séquencer des séquences génomiques à des fins lucratives, le HGP a donné la priorité au partage ouvert des données, inscrit dans ses principes des Bermudes. Établis lors de la réunion internationale sur la stratégie de séquençage du génome humain aux Bermudes en février 1996, ces principes ont été cruciaux pour façonner les politiques de partage des données pour le HGP et ont eu un impact durable sur les pratiques de recherche génomique à l’échelle mondiale. Ses principes clés étaient :

  1. Publication immédiate des données : Toutes les données de séquences génomiques humaines générées par le HGP devaient être publiées dans des bases de données publiques, de préférence dans les 24 heures suivant leur génération. Cette diffusion rapide visait à accélérer la découverte scientifique et à maximiser les avantages sociétaux.
  2. Accès libre et sans restriction : Les données devaient être mises gratuitement à la disposition de la communauté scientifique mondiale et du public, sans restriction quant à leur utilisation à des fins de recherche ou de développement.
  3. Prévention des revendications de propriété intellectuelle : Les participants ont convenu qu’aucun droit de propriété intellectuelle ne serait revendiqué sur les données de séquences génomiques primaires, promouvant une éthique de science ouverte et empêchant les entraves potentielles à la recherche dues au brevetage.

En termes de gouvernance, le HGP était une initiative scientifique collaborative et coordonnée, et non une organisation ou une entreprise autonome. Il s’agissait d’un effort décentralisé financé par des subventions et des contrats gouvernementaux à diverses institutions de recherche. Une partie de son budget (3 à 5 %) était consacrée à l’étude et à la résolution des problèmes éthiques, juridiques et sociaux liés au séquençage du génome humain.

Relier la sécurité de l'IA et l'IA open source

Un autre avantage crucial de l’IA open source est son rôle dans la recherche sur la sécurité de l’IA.

Le Sommet de l’IA de Séoul en 2024 s’est concentré exclusivement sur les risques existentiels à un moment où les AIC avaient une avance significative sur le reste du monde. Pas plus tard qu’en mai 2024, l’ancien PDG de Google, Eric Schmidt, affirmait que les États-Unis avaient 2 à 3 ans d’avance sur la Chine en matière d’IA, tandis que l’Europe était trop préoccupée par la réglementation pour être pertinente. Si le Sommet avait réussi, il aurait effectivement cédé le contrôle des décisions en matière de sécurité de l’IA à ces entreprises. Heureusement, ce ne fut pas le cas.

Maintenant que l’IA open source comble le fossé technologique, les discussions sur la sécurité ne seront plus dictées uniquement par une poignée d’acteurs dominants. Au lieu de cela, un groupe plus large et plus diversifié de parties prenantes – y compris des chercheurs, des décideurs et des laboratoires d’IA d’Europe, d’Inde, de Chine et d’Abu Dhabi – a la possibilité de façonner la discussion aux côtés des AIC.

De plus, l’IA open source améliore les capacités de dissuasion mondiales, garantissant qu’aucun acteur unique ne peut monopoliser ou utiliser à mauvais escient des systèmes d’IA avancés sans rendre de comptes. Cette approche décentralisée de la sécurité de l’IA contribuera à atténuer les menaces existentielles potentielles en répartissant à la fois les capacités et la surveillance de manière plus équitable dans l’écosystème mondial de l’IA.

Un 'Human AI Project' avec les principes de Paris

Quel rôle le Sommet de l’action sur l’IA à Paris la semaine prochaine peut-il jouer dans l’avenir de l’IA ?

Cela représente une opportunité cruciale d’établir un ‘Human AI Project’, sur le modèle du Projet Génome Humain, pour faire progresser et soutenir le développement de l’IA open source à l’échelle mondiale. Les contributions open source actuelles, des laboratoires d’IA européens pionniers à DeepSeek, accélèrent déjà le domaine et aident à combler l’écart avec les AIC.

Les capacités de l’IA sont considérablement améliorées par la maturité de l’écosystème open source général, avec des milliers de projets matures, des modèles de gouvernance dédiés et une intégration profonde dans les entreprises, les universités et les gouvernements.

L’écosystème open source de l’IA bénéficie également de plateformes comme Github et Gitlab. Plus récemment, des plateformes dédiées à l’IA open source, telles que Hugging Face – une société américaine cofondée par trois entrepreneurs français – ont commencé à jouer un rôle essentiel en tant que plateformes de distribution pour la communauté.

Compte tenu de la maturité relative de l’écosystème open source de l’IA par rapport au séquençage du génome humain au début des années 1990, comment l’IA open source pourrait-elle bénéficier d’un ‘Human AI Project’ ?

D’une part, l’Union européenne est souvent critiquée par les AIC et ses propres laboratoires d’IA de pointe pour sa réglementation de l’open source. Un ‘Human AI Project’ pourrait consacrer un effort conjoint à l’élaboration d’un alignement réglementaire et de normes entre les pays et régions participants. Une approche coordonnée, avec des contributions initiales de l’Europe, de l’Inde, d’Abu Dhabi et de la Chine, pourrait faciliter la diffusion de modèles open source dans cette région réglementaire partagée (une sorte de zone de libre-échange pour l’open source).

Bien que cela ne soit pas définitivement prouvé, il existe des parallèles avec la dynamique axée sur la rivalité qui a façonné la réaction à DeepSeek au JLF. De même, la réglementation de l’IA pourrait être conçue en mettant l’accent sur la promotion de l’innovation et la maximisation des avantages pour le public – tant pour les entreprises que pour les consommateurs – plutôt que de servir de mécanisme potentiel pour entraver les progrès des AIC ou entraver les champions de l’IA locaux qui s’efforcent de combler l’écart.

Le projet pourrait également faciliter l’échange de talents et financer une infrastructure de calcul partagée (liée à l’infrastructure énergétique) pour l’IA open source. Il est évident, d’après le graphique ci-dessous, que les diplômés STEM talentueux dans certaines parties du monde pourraient actuellement avoir du mal à accéder à l’infrastructure d’IA de classe mondiale dont leur pays manque.

Un autre domaine de collaboration serait d’établir les meilleures pratiques sur les normes d’accès ouvert pour les modèles et les ensembles de données, englobant les poids, le code et la documentation.

Le projet pourrait également favoriser la collaboration mondiale sur la recherche en matière de sécurité de l’IA. Au lieu de courir en secret pour résoudre les problèmes d’alignement, les chercheurs de Paris à Pékin en passant par Bangalore pourraient travailler ensemble pour évaluer les modèles et atténuer les risques. Toutes les conclusions en matière de sécurité (par exemple, les méthodes pour réduire les résultats nuisibles ou les outils pour l’interprétabilité) pourraient être partagées rapidement dans le domaine public.

Ce principe reconnaîtrait que la sécurité de l’IA est un bien public mondial – une percée dans un laboratoire (disons, un nouvel algorithme pour rendre le raisonnement de l’IA transparent) devrait profiter à tous, et non être gardée propriétaire. Des benchmarks de sécurité conjoints et des événements de défi pourraient être organisés pour encourager une culture de responsabilité collective. En mettant en commun la recherche sur la sécurité, le projet viserait à anticiper les utilisations abusives ou les accidents potentiels de l’IA, rassurant le public sur le fait que les systèmes d’IA puissants sont gérés avec soin.

L’accent mis sur le risque existentiel lors du Sommet sur la sécurité de l’IA de 2023 au Royaume-Uni à Bletchley Park, en sur-insistant sur l’analogie de la prolifération nucléaire, a manqué une occasion d’examiner d’autres domaines où la sécurité est considérée comme un bien public : la cybersécurité, les antibiotiques et l’immunologie (avec plusieurs initiatives intéressantes post-Covid-19), et la sécurité aérienne.

Le projet pourrait également s’associer et poursuivre le travail actuellement mené par la fondation privée ARC Prize pour favoriser le développement de systèmes d’IA sûrs et avancés. L’ARC Prize, cofondé par François Chollet, créateur de la bibliothèque open source Keras, et Mike Knoop, cofondateur de la société de logiciels Zapier, est une organisation à but non lucratif qui organise des concours publics pour faire progresser la recherche sur l’intelligence artificielle générale (AGI). Leur événement phare, le concours ARC Prize, offre plus d’un million de dollars aux participants qui peuvent développer et ouvrir des solutions au benchmark ARC-AGI – un test conçu pour évaluer la capacité d’un système d’IA à généraliser et à acquérir de nouvelles compétences efficacement.

L’accent mis par l’ARC Prize Foundation sur les solutions open source et les concours publics s’aligne parfaitement sur les objectifs du ‘Human AI Project’ de favoriser la collaboration internationale et la transparence dans le développement de l’IA, comme indiqué sur le site Web de l’ARC Prize Foundation sous ‘AGI’ :

‘Les LLM sont entraînés sur des quantités de données inimaginablement vastes, mais restent incapables de s’adapter à des problèmes simples sur lesquels ils n’ont pas été entraînés, ou de faire de nouvelles inventions, aussi basiques soient-elles. De fortes incitations du marché ont poussé la recherche de pointe sur l’IA à devenir fermée. L’attention et les ressources de la recherche sont entraînées vers une impasse. L’ARC Prize est conçu pour inspirer les chercheurs à découvrir de nouvelles approches techniques qui font progresser l’AGI ouverte.’

Comme le HGP, le ‘Human AI Project’ consacrerait une partie de son financement à la gouvernance et à la surveillance éthiques. Cela inclurait des discussions sur le droit d’auteur. Le projet pourrait aider la société à examiner l’éthique de l’accès gratuit à la meilleure source d’information en matière de formation tout en développant des modèles propriétaires par-dessus. Dans le domaine de la biologie, il est bien connu que la Protein Data Bank, qui a été essentielle pour le modèle AlphaFold de Google DeepMind pour prédire la structure des protéines, a probablement nécessité l’équivalent de 10 milliards de dollars de financement sur une période de 50 ans. Le projet pourrait aider à réfléchir à la manière dont nous continuons à financer le développement de l’IA ou à la manière dont les AIC propriétaires devraient partager les revenus avec les créateurs d’œuvres originales.

Ensemble, ces principes de Paris et le ‘Human AI Project’ contribueraient à faire progresser l’IA à l’échelle mondiale d’une manière plus ouverte, collaborative et éthique. Ils s’appuieraient sur les réalisations des principaux contributeurs open source, de l’Europe au Moyen-Orient, en passant par l’Inde et maintenant la Chine, dans le cadre des logiciels open source existants et des cadres et plateformes spécifiques à l’IA.

L'histoire se répète avec l'IA

L’opportunité qui s’offre à nous est immense. Mistral AI, kyutai, BFL, Stability, et plus récemment DeepSeek ont donné au public l’espoir qu’un avenir où la coopération rivalise ou même surpasse les AIC propriétaires est possible.

Nous n’en sommes encore qu’aux premiers stades de cette percée technologique. Nous devrions être reconnaissants pour les contributions que les AIC ont apportées au domaine. Le Sommet de l’action sur l’IA devrait être l’occasion de favoriser une innovation coopérative à une échelle sans précédent et d’amener autant d’acteurs que possible du bon côté de l’histoire.

C’est 1789 à nouveau. Nous assistons à une lutte pour la souveraineté technologique, une décentralisation du pouvoir et un appel à l’IA en tant que bien public. Et tout comme en 1789, cette révolution ne sera pas contenue.