L’IA et la Virologie : Une Épée à Double Tranchant
Une étude révolutionnaire révèle que les modèles d’intelligence artificielle (IA) avancés, y compris ceux alimentant des plateformes comme ChatGPT et Claude, démontrent désormais des capacités de résolution de problèmes dans les laboratoires de virologie qui dépassent celles de virologues chevronnés titulaires de doctorats. Cette révélation, tout en offrant un potentiel immense pour faire progresser la prévention des maladies, soulève également d’importantes préoccupations quant à l’utilisation abusive potentielle de l’IA pour créer des armes biologiques mortelles, en particulier par des individus dépourvus de l’expertise et des considérations éthiques nécessaires.
L’étude, qui a été exclusivement partagée avec TIME, était un effort de collaboration impliquant des chercheurs du Center for AI Safety, du Media Lab du MIT, de l’UFABC (une université brésilienne) et de SecureBio, une organisation à but non lucratif dédiée à la prévention des pandémies. L’équipe de recherche a consulté des virologues de premier plan pour concevoir un test pratique très difficile qui évaluait la capacité des modèles d’IA à résoudre efficacement les procédures et protocoles de laboratoire complexes couramment employés dans la recherche en virologie.
Les résultats du test ont été frappants. Les virologues de niveau doctorat, malgré leur formation et leur expérience considérables, ont obtenu un score de précision moyen de seulement 22,1 % dans leurs domaines d’expertise déclarés. En revanche, le modèle o3 d’OpenAI a atteint une précision impressionnante de 43,8 %, tandis que Gemini 2.5 Pro de Google a obtenu un score de 37,6 %. Ces résultats suggèrent que les modèles d’IA acquièrent rapidement les connaissances et les compétences nécessaires pour effectuer des tâches complexes dans les laboratoires de virologie, surpassant potentiellement les capacités des experts humains dans certains domaines.
Préoccupations Concernant la Création d’Armes Biologiques
Seth Donoughe, chercheur scientifique chez SecureBio et co-auteur de l’étude, a exprimé son inquiétude quant aux implications de ces résultats. Il a noté que, pour la première fois dans l’histoire, pratiquement toute personne ayant accès à ces modèles d’IA pourrait avoir un expert en virologie IA non critique à sa disposition, capable de la guider à travers les processus de laboratoire complexes nécessaires à la création d’armes biologiques.
Donoughe a souligné qu’à travers l’histoire, de nombreuses tentatives ont été faites pour développer des armes biologiques, mais bon nombre de ces tentatives ont échoué en raison du manque d’accès à l’expertise nécessaire. Il a averti que la disponibilité généralisée de modèles d’IA capables de fournir cette expertise soulève de sérieuses préoccupations quant au potentiel d’utilisation abusive et à la nécessité de faire preuve de prudence dans la manière dont ces capacités sont distribuées.
- Le risque d’utilisation abusive par des non-experts.
- Le potentiel de création d’armes biologiques mortelles.
- La nécessité de faire preuve de prudence dans la distribution de l’expertise en virologie IA.
Les Laboratoires d’IA Réagissent aux Préoccupations
En réponse aux conclusions de l’étude, les auteurs ont partagé les résultats avec les principaux laboratoires d’IA, ce qui a incité certains à agir. xAI, par exemple, a publié un cadre de gestion des risques décrivant son intention de mettre en œuvre des mesures de protection de la virologie dans les futures versions de son modèle d’IA Grok. OpenAI a informé TIME qu’elle avait “déployé de nouvelles mesures d’atténuation au niveau du système pour les risques biologiques” pour ses nouveaux modèles publiés la semaine dernière. Anthropic a inclus les résultats de la performance du modèle sur le papier dans les cartes système récentes, mais n’a pas proposé de mesures d’atténuation spécifiques. Gemini de Google a refusé de commenter à TIME.
Ces réponses indiquent une sensibilisation croissante parmi les développeurs d’IA aux risques potentiels associés aux capacités croissantes de l’IA en virologie et à la nécessité de mettre en œuvre des mesures de protection pour prévenir l’utilisation abusive.
La Promesse de l’IA dans la Lutte Contre la Maladie
Malgré les préoccupations concernant la création d’armes biologiques, l’IA offre également un potentiel immense pour faire progresser la recherche en virologie et lutter contre les maladies infectieuses. Les dirigeants de l’IA ont depuis longtemps reconnu le potentiel de l’IA pour révolutionner la biomédecine et accélérer le développement de nouveaux traitements et de nouvelles cures.
Le PDG d’OpenAI, Sam Altman, par exemple, a déclaré à la Maison Blanche en janvier que “à mesure que cette technologie progresse, nous verrons des maladies être guéries à un rythme sans précédent”. Cet optimisme est soutenu par des signes encourageants de progrès dans ce domaine. Plus tôt cette année, des chercheurs de l’Emerging Pathogens Institute de l’Université de Floride ont développé un algorithme capable de prédire quelle variante du coronavirus pourrait se propager le plus rapidement.
Évaluation de la Capacité de l’IA à Effectuer des Travaux de Laboratoire de Virologie
Bien que l’IA se soit avérée prometteuse en fournissant des informations de type académique liées à la virologie, un écart majeur subsistait dans la compréhension de sa capacité à effectuer réellement des travaux de laboratoire de virologie. Pour combler cette lacune, Donoughe et ses collègues ont conçu un test spécifiquement pour les questions difficiles et non Google-ables qui nécessitent une assistance pratique et l’interprétation d’images et d’informations que l’on ne trouve généralement pas dans les articles universitaires.
Les questions ont été conçues pour imiter les défis auxquels sont confrontés les virologues dans leur travail quotidien, tels que la résolution des problèmes rencontrés lors de la culture de virus dans des types et des conditions cellulaires spécifiques.
Le format a été conçu comme tel :
- Présentation d’un scénario spécifique.
- Fourniture de détails sur la configuration de l’expérience.
- Demande à l’IA d’identifier le problème le plus probable.
L’IA Surpasse les Virologues lors des Tests Pratiques
Les résultats du test ont révélé que pratiquement tous les modèles d’IA ont surpassé les virologues de niveau doctorat, même dans leurs propres domaines d’expertise. Cette constatation suggère que les modèles d’IA sont non seulement capables d’accéder et de traiter de grandes quantités de connaissances virologiques, mais également d’appliquer ces connaissances pour résoudre des problèmes pratiques en laboratoire.
Les chercheurs ont également observé que les modèles ont montré une amélioration significative au fil du temps, indiquant qu’ils apprennent et affinent continuellement leurs compétences en virologie. Par exemple, Claude 3.5 Sonnet d’Anthropic a bondi de 26,9 % à 33,6 % de précision entre son modèle de juin 2024 et son modèle d’octobre 2024. Et un aperçu de GPT 4.5 d’OpenAI en février a surpassé GPT-4o de près de 10 points de pourcentage.
Les Implications des Capacités Croissantes de l’IA
Dan Hendrycks, le directeur du Center for AI Safety, a souligné que les modèles d’IA acquièrent désormais une quantité préoccupante de connaissances pratiques. Si les modèles d’IA sont en effet aussi capables dans les environnements de laboratoire humide que l’étude le suggère, les implications sont considérables.
D’une part, l’IA pourrait fournir une aide précieuse aux virologues expérimentés dans leur travail essentiel de lutte contre les virus, accélérant les délais de développement de médicaments et de vaccins, et améliorant les essais cliniques et la détection des maladies. Tom Inglesby, le directeur du Johns Hopkins Center for Health Security, a noté que l’IA pourrait donner aux scientifiques de différentes parties du monde, en particulier ceux qui manquent de compétences ou de ressources spécialisées, les moyens de mener des travaux quotidiens précieux sur les maladies qui sévissent dans leurs pays.
- Accélération du développement de médicaments et de vaccins.
- Amélioration des essais cliniques et de la détection des maladies.
- Autonomisation des scientifiques dans les environnements aux ressources limitées.
Le Risque d’Utilisation Abusive par des Acteurs de Mauvaise Foi
D’un autre côté, l’étude soulève de sérieuses inquiétudes quant à l’utilisation abusive potentielle de l’IA par des acteurs de mauvaise foi qui pourraient utiliser ces modèles pour apprendre à créer des virus sans avoir besoin de la formation et de l’accès typiques requis pour entrer dans un laboratoire de niveau de biosécurité 4 (BSL-4), qui manipule les agents infectieux les plus dangereux et exotiques. Inglesby a averti que l’IA pourrait donner à davantage de personnes moins formées les moyens de gérer et de manipuler des virus, ce qui pourrait avoir des conséquences catastrophiques.
Hendrycks a exhorté les entreprises d’IA à mettre en œuvre des garde-fous pour empêcher ce type d’utilisation, suggérant que ne pas le faire dans les six mois serait imprudent. Il a proposé qu’une solution consiste à rendre ces modèles fermés, de sorte que seules les tierces parties de confiance ayant des raisons légitimes de manipuler des virus mortels, telles que les chercheurs du département de biologie du MIT, aient accès à leurs versions non filtrées.
- Prévention de l’utilisation abusive en mettant en œuvre des garde-fous.
- Fermeture des modèles pour restreindre l’accès aux parties de confiance.
- Garantir que seuls les chercheurs autorisés ont accès aux capacités sensibles.
La Faisabilité de l’Autoréglementation de l’Industrie
Hendrycks estime qu’il est technologiquement possible pour les entreprises d’IA de s’autoréglementer et de mettre en œuvre ces types de mesures de protection. Cependant, il s’est dit préoccupé par le fait que certaines entreprises traînent les pieds ou ne prennent tout simplement pas les mesures nécessaires.
xAI, le laboratoire d’IA d’Elon Musk, a reconnu le document et a indiqué que l’entreprise “pourrait potentiellement utiliser” certaines mesures de protection concernant les réponses aux questions de virologie, notamment en formant Grok à refuser les demandes nuisibles et en appliquant des filtres d’entrée et de sortie.
OpenAI a déclaré que ses modèles les plus récents, o3 et o4-mini, avaient été déployés avec un éventail de mesures de protection liées aux risques biologiques, notamment le blocage des sorties nuisibles. L’entreprise a également signalé qu’elle avait mené une campagne d’équipe rouge de mille heures au cours de laquelle 98,7 % des conversations non sécurisées liées à la biologie ont été correctement signalées et bloquées.
- Former les modèles d’IA à refuser les demandes nuisibles.
- Appliquer des filtres d’entrée et de sortie pour bloquer le contenu dangereux.
- Mener des exercices d’équipe rouge pour identifier et atténuer les risques.
La Nécessité d’une Politique et d’une Réglementation
Malgré ces efforts, Inglesby soutient que l’autoréglementation de l’industrie ne suffit pas et appelle les législateurs et les dirigeants politiques à élaborer une approche politique pour réglementer les risques biologiques de l’IA. Il a souligné que si certaines entreprises investissent du temps et de l’argent pour atténuer ces risques, d’autres pourraient ne pas le faire, créant une situation où le public n’a aucune idée de ce qui se passe.
Inglesby a proposé qu’avant la publication d’une nouvelle version d’un LLM, elle soit évaluée pour s’assurer qu’elle ne produira pas de résultats au niveau d’une pandémie. Cela nécessiterait une approche plus globale et coordonnée de la réglementation des capacités de l’IA en virologie, impliquant à la fois l’industrie et les acteurs gouvernementaux.
- Évaluer les LLM avant leur publication pour prévenir les résultats au niveau d’une pandémie.
- Élaborer une approche politique globale pour réglementer les risques biologiques de l’IA.
- Impliquer à la fois l’industrie et les acteurs gouvernementaux dans le processus de réglementation.
Trouver un Équilibre Entre Innovation et Sécurité
Le défi consiste à trouver un équilibre entre la promotion de l’innovation dans l’IA et la garantie que ces technologies puissantes ne sont pas utilisées abusivement pour créer des armes biologiques mortelles. Cela nécessite une approche à multiples facettes qui comprend :
- Élaboration de mesures de protection robustes pour prévenir l’utilisation abusive.
- Restriction de l’accès aux capacités sensibles aux parties de confiance.
- Réglementation des capacités de l’IA en virologie.
- Promotion de l’innovation responsable et des considérations éthiques.
En prenant ces mesures, nous pouvons exploiter l’immense potentiel de l’IA pour faire progresser la recherche en virologie et lutter contre les maladies infectieuses tout en atténuant les risques associés à son utilisation abusive. L’avenir de l’IA en virologie dépend de notre capacité à naviguer de manière responsable dans ce paysage complexe et à garantir que ces technologies puissantes sont utilisées au profit de l’humanité.