Riesgo biológico: IA y virología

La doble cara de la IA en virología

Un estudio innovador revela que los modelos avanzados de inteligencia artificial (IA), incluidos los que impulsan plataformas como ChatGPT y Claude, ahora demuestran capacidades de resolución de problemas en laboratorios húmedos de virología que superan a los de virólogos experimentados con doctorados. Esta revelación, aunque encierra un inmenso potencial para avanzar en la prevención de enfermedades, también plantea importantes preocupaciones sobre el posible uso indebido de la IA para crear armas biológicas mortales, particularmente por parte de personas que carecen de la experiencia y las consideraciones éticas necesarias.

El estudio, que se compartió exclusivamente con TIME, fue un esfuerzo de colaboración entre investigadores del Center for AI Safety, el Media Lab del MIT, la UFABC (una universidad brasileña) y SecureBio, una organización sin fines de lucro dedicada a la prevención de pandemias. El equipo de investigación consultó con virólogos líderes para diseñar una prueba práctica muy desafiante que evaluara la capacidad de los modelos de IA para solucionar problemas de manera efectiva en procedimientos y protocolos de laboratorio complejos que se emplean comúnmente en la investigación de virología.

Los resultados de la prueba fueron sorprendentes. Los virólogos con nivel de doctorado, a pesar de su extensa formación y experiencia, lograron una puntuación de precisión promedio de solo el 22,1% en sus áreas de especialización declaradas. En marcado contraste, el modelo o3 de OpenAI logró una impresionante precisión del 43,8%, mientras que Gemini 2.5 Pro de Google obtuvo un 37,6%. Estos hallazgos sugieren que los modelos de IA están adquiriendo rápidamente el conocimiento y las habilidades necesarias para realizar tareas complejas en laboratorios de virología, superando potencialmente las capacidades de los expertos humanos en ciertas áreas.

Preocupaciones sobre la creación de armas biológicas

Seth Donoughe, científico investigador de SecureBio y coautor del estudio, expresó su preocupación por las implicaciones de estos hallazgos. Señaló que, por primera vez en la historia, prácticamente cualquier persona con acceso a estos modelos de IA podría tener a su disposición un experto en virología de IA sin prejuicios, que podría guiarlo a través de los complejos procesos de laboratorio necesarios para crear armas biológicas.

Donoughe enfatizó que a lo largo de la historia se han realizado numerosos intentos de desarrollar armas biológicas, pero muchos de estos intentos han fracasado debido a la falta de acceso a la experiencia necesaria. Advirtió que la disponibilidad generalizada de modelos de IA capaces de proporcionar esta experiencia plantea serias preocupaciones sobre el potencial de uso indebido y la necesidad de precaución en la forma en que se distribuyen estas capacidades.

  • El riesgo de uso indebido por parte de no expertos.
  • El potencial para crear armas biológicas mortales.
  • La necesidad de precaución al distribuir la experiencia en virología de la IA.

Los laboratorios de IA responden a las preocupaciones

En respuesta a los hallazgos del estudio, los autores compartieron los resultados con los principales laboratorios de IA, lo que llevó a algunos a tomar medidas. xAI, por ejemplo, publicó un marco de gestión de riesgos que describe su intención de implementar salvaguardas de virología en futuras versiones de su modelo de IA Grok. OpenAI informó a TIME que había ‘implementado nuevas mitigaciones a nivel de sistema para riesgos biológicos’ para sus nuevos modelos lanzados la semana pasada. Anthropic incluyó los resultados del rendimiento del modelo en el documento en las tarjetas del sistema recientes, pero no propuso medidas de mitigación específicas. Gemini de Google declinó hacer comentarios a TIME.

Estas respuestas indican una creciente conciencia entre los desarrolladores de IA de los riesgos potenciales asociados con las crecientes capacidades de la IA en virología y la necesidad de implementar salvaguardas para prevenir el uso indebido.

La promesa de la IA en la lucha contra las enfermedades

A pesar de las preocupaciones sobre la creación de armas biológicas, la IA también encierra una inmensa promesa para avanzar en la investigación de la virología y combatir las enfermedades infecciosas. Los líderes de la IA han reconocido durante mucho tiempo el potencial de la IA para revolucionar la biomedicina y acelerar el desarrollo de nuevos tratamientos y curas.

El CEO de OpenAI, Sam Altman, por ejemplo, declaró en la Casa Blanca en enero que ‘a medida que esta tecnología avance, veremos que las enfermedades se curan a un ritmo sin precedentes’. Este optimismo está respaldado por signos alentadores de progreso en esta área. A principios de este año, investigadores del Instituto de Patógenos Emergentes de la Universidad de Florida desarrollaron un algoritmo capaz de predecir qué variante del coronavirus podría propagarse más rápido.

Evaluación de la capacidad de la IA para realizar trabajos de laboratorio de virología

Si bien la IA ha demostrado ser prometedora al proporcionar información de estilo académico relacionada con la virología, existía una importante laguna en la comprensión de su capacidad para realizar realmente trabajos de laboratorio de virología. Para abordar esta brecha, Donoughe y sus colegas diseñaron una prueba específicamente para preguntas difíciles, que no se pueden buscar en Google y que requieren asistencia práctica y la interpretación de imágenes e información que normalmente no se encuentran en los documentos académicos.

Las preguntas fueron diseñadas para imitar los desafíos que enfrentan los virólogos en su trabajo diario, como la solución de problemas encontrados al cultivar virus en tipos de células y condiciones específicas.

El formato fue diseñado como tal:

  • Presentar un escenario específico.
  • Proporcionar detalles sobre la configuración del experimento.
  • Pedir a la IA que identifique el problema más probable.

La IA supera a los virólogos en pruebas prácticas

Los resultados de la prueba revelaron que prácticamente todos los modelos de IA superaron a los virólogos con nivel de doctorado, incluso dentro de sus propias áreas de especialización. Este hallazgo sugiere que los modelos de IA no solo son capaces de acceder y procesar vastas cantidades de conocimiento virológico, sino también de aplicar este conocimiento para resolver problemas prácticos en el laboratorio.

Los investigadores también observaron que los modelos mostraron una mejora significativa con el tiempo, lo que indica que están aprendiendo y perfeccionando continuamente sus habilidades en virología. Por ejemplo, Claude 3.5 Sonnet de Anthropic saltó del 26,9% al 33,6% de precisión desde su modelo de junio de 2024 hasta su modelo de octubre de 2024. Y una vista previa de GPT 4.5 de OpenAI en febrero superó a GPT-4o por casi 10 puntos porcentuales.

Las implicaciones de las crecientes capacidades de la IA

Dan Hendrycks, director del Center for AI Safety, enfatizó que los modelos de IA ahora están adquiriendo una cantidad preocupante de conocimiento práctico. Si los modelos de IA son realmente tan capaces en entornos de laboratorio húmedo como sugiere el estudio, las implicaciones son de gran alcance.

Por un lado, la IA podría proporcionar una valiosa ayuda a los virólogos experimentados en su trabajo crítico de lucha contra los virus, acelerando los plazos de la medicina y el desarrollo de vacunas, y mejorando los ensayos clínicos y la detección de enfermedades. Tom Inglesby, director del Centro Johns Hopkins para la Seguridad de la Salud, señaló que la IA podría empoderar a los científicos en diferentes partes del mundo, particularmente a aquellos que carecen de habilidades o recursos especializados, para llevar a cabo un valioso trabajo diario sobre las enfermedades que ocurren en sus países.

  • Acelerar el desarrollo de la medicina y las vacunas.
  • Mejorar los ensayos clínicos y la detección de enfermedades.
  • Empoderar a los científicos en entornos con recursos limitados.

El riesgo de uso indebido por parte de actores de mala fe

Por otro lado, el estudio plantea serias preocupaciones sobre el posible uso indebido de la IA por parte de actores de mala fe que podrían usar estos modelos para aprender a crear virus sin la necesidad de la capacitación y el acceso típicos requeridos para ingresar a un laboratorio de Nivel de Bioseguridad 4 (BSL-4), que maneja los agentes infecciosos más peligrosos y exóticos. Inglesby advirtió que la IA podría empoderar a más personas con menos capacitación para manejar y manipular virus, lo que podría tener consecuencias catastróficas.

Hendrycks instó a las empresas de IA a implementar medidas de protección para prevenir este tipo de uso, sugiriendo que no hacerlo en un plazo de seis meses sería imprudente. Propuso que una solución es hacer que estos modelos sean cerrados, de modo que solo terceros de confianza con razones legítimas para manipular virus mortales, como los investigadores del departamento de biología del MIT, tengan acceso a sus versiones sin filtrar.

  • Prevenir el uso indebido mediante la implementación de medidas de protección.
  • Cerrar los modelos para restringir el acceso a terceros de confianza.
  • Garantizar que solo los investigadores autorizados tengan acceso a capacidades confidenciales.

La viabilidad de la autorregulación de la industria

Hendrycks cree que es tecnológicamente factible que las empresas de IA se autorregulen e implementen este tipo de salvaguardas. Sin embargo, expresó su preocupación sobre si algunas empresas se demorarán o simplemente no tomarán las medidas necesarias.

xAI, el laboratorio de IA de Elon Musk, reconoció el documento y señaló que la compañía ‘potencialmente utilizaría’ ciertas salvaguardas en torno a la respuesta a preguntas de virología, incluida la capacitación de Grok para rechazar solicitudes dañinas y la aplicación de filtros de entrada y salida.

OpenAI declaró que sus modelos más nuevos, el o3 y el o4-mini, se implementaron con una variedad de salvaguardas relacionadas con el riesgo biológico, incluido el bloqueo de salidas dañinas. La compañía también informó que realizó una campaña de red-teaming de mil horas en la que el 98,7% de las conversaciones no seguras relacionadas con la biología se marcaron y bloquearon con éxito.

  • Capacitar a los modelos de IA para que rechacen solicitudes dañinas.
  • Aplicar filtros de entrada y salida para bloquear contenido peligroso.
  • Realizar ejercicios de red-teaming para identificar y mitigar riesgos.

La necesidad de política y regulación

A pesar de estos esfuerzos, Inglesby argumenta que la autorregulación de la industria no es suficiente y pide a los legisladores y líderes políticos que desarrollen un enfoque político para regular los riesgos biológicos de la IA. Enfatizó que si bien algunas compañías están invirtiendo tiempo y dinero para abordar estos riesgos, otras pueden no hacerlo, creando una situación en la que el público no tiene información sobre lo que está sucediendo.

Inglesby propuso que antes de que se lance una nueva versión de un LLM, se evalúe para garantizar que no produzca resultados a nivel de pandemia. Esto requeriría un enfoque más integral y coordinado para regular las capacidades de la IA en virología, involucrando tanto a la industria como a las partes interesadas del gobierno.

  • Evaluar los LLM antes del lanzamiento para evitar resultados a nivel de pandemia.
  • Desarrollar un enfoque político integral para regular los riesgos biológicos de la IA.
  • Involucrar tanto a la industria como a las partes interesadas del gobierno en el proceso regulatorio.

Lograr un equilibrio entre innovación y seguridad

El desafío radica en lograr un equilibrio entre el fomento de la innovación en la IA y la garantía de que estas poderosas tecnologías no se utilicen indebidamente para crear armas biológicas mortales. Esto requiere un enfoque multifacético que incluya:

  • Desarrollar salvaguardas sólidas para prevenir el uso indebido.
  • Restringir el acceso a capacidades confidenciales a terceros de confianza.
  • Regular las capacidades de la IA en virología.
  • Promover la innovación responsable y las consideraciones éticas.

Al tomar estas medidas, podemos aprovechar el inmenso potencial de la IA para avanzar en la investigación de la virología y combatir las enfermedades infecciosas al tiempo que mitigamos los riesgos asociados con su uso indebido. El futuro de la IA en virología depende de nuestra capacidad para navegar por este complejo panorama de manera responsable y garantizar que estas poderosas tecnologías se utilicen en beneficio de la humanidad.