A crescente proficiência da IA em laboratórios de virologia levanta preocupações sobre riscos biológicos
Um estudo inovador revela que modelos avançados de inteligência artificial (IA), incluindo aqueles que alimentam plataformas como ChatGPT e Claude, agora estão demonstrando capacidades de resolução de problemas em laboratórios de virologia que superam as de virologistas experientes com doutorado. Essa revelação, embora possua um imenso potencial para o avanço da prevenção de doenças, também levanta preocupações significativas sobre o potencial uso indevido da IA para criar armas biológicas mortais, particularmente por indivíduos sem a experiência e as considerações éticas necessárias.
A faca de dois gumes da IA na virologia
O estudo, que foi compartilhado exclusivamente com a TIME, foi um esforço colaborativo envolvendo pesquisadores do Center for AI Safety, do Media Lab do MIT, da UFABC (uma universidade brasileira) e da SecureBio, uma organização sem fins lucrativos dedicada à prevenção de pandemias. A equipe de pesquisa consultou os principais virologistas para projetar um teste prático altamente desafiador que avaliasse a capacidade dos modelos de IA de solucionar problemas de forma eficaz em procedimentos e protocolos complexos de laboratório comumente empregados na pesquisa em virologia.
Os resultados do teste foram impressionantes. Virologistas com nível de doutorado, apesar de seu extenso treinamento e experiência, alcançaram uma pontuação média de precisão de apenas 22,1% em suas áreas de especialização declaradas. Em nítido contraste, o modelo o3 da OpenAI alcançou uma precisão impressionante de 43,8%, enquanto o Gemini 2.5 Pro do Google obteve 37,6%. Esses resultados sugerem que os modelos de IA estão adquirindo rapidamente o conhecimento e as habilidades necessárias para executar tarefas complexas em laboratórios de virologia, potencialmente superando as capacidades de especialistas humanos em certas áreas.
Preocupações sobre a criação de armas biológicas
Seth Donoughe, um cientista pesquisador da SecureBio e coautor do estudo, expressou sua preocupação com as implicações dessas descobertas. Ele observou que, pela primeira vez na história, praticamente qualquer pessoa com acesso a esses modelos de IA poderia ter um especialista em virologia de IA não crítico à sua disposição, potencialmente guiando-os pelos complexos processos de laboratório necessários para criar armas biológicas.
Donoughe enfatizou que, ao longo da história, inúmeras tentativas foram feitas para desenvolver armas biológicas, mas muitas dessas tentativas falharam devido à falta de acesso ao conhecimento necessário. Ele alertou que a ampla disponibilidade de modelos de IA capazes de fornecer essa experiência levanta sérias preocupações sobre o potencial de uso indevido e a necessidade de cautela na forma como essas capacidades são distribuídas.
- O risco de uso indevido por não especialistas.
- O potencial para criar armas biológicas mortais.
- A necessidade de cautela na distribuição da experiência em virologia da IA.
Laboratórios de IA respondem às preocupações
Em resposta às descobertas do estudo, os autores compartilharam os resultados com os principais laboratórios de IA, levando alguns a tomar medidas. A xAI, por exemplo, publicou uma estrutura de gerenciamento de riscos descrevendo sua intenção de implementar salvaguardas de virologia em versões futuras de seu modelo de IA Grok. A OpenAI informou à TIME que havia ‘implantado novas mitigações em nível de sistema para riscos biológicos’ para seus novos modelos lançados na semana passada. A Anthropic incluiu os resultados do desempenho do modelo no artigo em system cards recentes, mas não propôs medidas de mitigação específicas. O Gemini do Google se recusou a comentar à TIME.
Essas respostas indicam uma crescente conscientização entre os desenvolvedores de IA sobre os riscos potenciais associados às crescentes capacidades da IA em virologia e a necessidade de implementar salvaguardas para evitar o uso indevido.
A promessa da IA no combate a doenças
Apesar das preocupações sobre a criação de armas biológicas, a IA também oferece imensa promessa para o avanço da pesquisa em virologia e o combate a doenças infecciosas. Os líderes de IA há muito reconhecem o potencial da IA para revolucionar a biomedicina e acelerar o desenvolvimento de novos tratamentos e curas.
O CEO da OpenAI, Sam Altman, por exemplo, afirmou na Casa Branca em janeiro que ‘à medida que essa tecnologia avança, veremos doenças serem curadas em uma taxa sem precedentes’. Esse otimismo é apoiado por sinais encorajadores de progresso nesta área. No início deste ano, pesquisadores do Emerging Pathogens Institute da Universidade da Flórida desenvolveram um algoritmo capaz de prever qual variante do coronavírus poderia se espalhar mais rapidamente.
Avaliando a capacidade da IA de conduzir o trabalho de laboratório de virologia
Embora a IA tenha se mostrado promissora no fornecimento de informações em estilo acadêmico relacionadas à virologia, uma grande lacuna permaneceu na compreensão de sua capacidade de realmente conduzir o trabalho de laboratório de virologia. Para preencher essa lacuna, Donoughe e seus colegas projetaram um teste especificamente para perguntas difíceis e não encontradas no Google que exigem assistência prática e a interpretação de imagens e informações que normalmente não são encontradas em artigos acadêmicos.
As perguntas foram projetadas para imitar os desafios enfrentados pelos virologistas em seu trabalho diário, como solucionar problemas encontrados ao cultivar vírus em tipos e condições celulares específicas.
O formato foi projetado da seguinte forma:
- Apresentando um cenário específico.
- Fornecendo detalhes sobre a configuração do experimento.
- Pedindo à IA para identificar o problema mais provável.
IA supera virologistas em testes práticos
Os resultados do teste revelaram que praticamente todos os modelos de IA superaram os virologistas com nível de doutorado, mesmo dentro de suas próprias áreas de especialização. Essa descoberta sugere que os modelos de IA não são apenas capazes de acessar e processar vastas quantidades de conhecimento virológico, mas também de aplicar esse conhecimento para resolver problemas práticos no laboratório.
Os pesquisadores também observaram que os modelos mostraram melhorias significativas ao longo do tempo, indicando que estão aprendendo e refinando continuamente suas habilidades em virologia. Por exemplo, o Claude 3.5 Sonnet da Anthropic saltou de 26,9% para 33,6% de precisão de seu modelo de junho de 2024 para seu modelo de outubro de 2024. E uma prévia do GPT 4.5 da OpenAI em fevereiro superou o GPT-4o em quase 10 pontos percentuais.
As implicações das crescentes capacidades da IA
Dan Hendrycks, o diretor do Center for AI Safety, enfatizou que os modelos de IA agora estão adquirindo uma quantidade preocupante de conhecimento prático. Se os modelos de IA forem realmente tão capazes em ambientes de laboratório úmido quanto o estudo sugere, as implicações são de longo alcance.
Por um lado, a IA poderia fornecer assistência inestimável a virologistas experientes em seu trabalho crítico no combate a vírus, acelerando os cronogramas de desenvolvimento de medicamentos e vacinas e melhorando os ensaios clínicos e a detecção de doenças. Tom Inglesby, o diretor do Johns Hopkins Center for Health Security, observou que a IA poderia capacitar cientistas em diferentes partes do mundo, particularmente aqueles que carecem de habilidades ou recursos especializados, a conduzir trabalhos valiosos do dia a dia sobre doenças que ocorrem em seus países.
- Acelerar o desenvolvimento de medicamentos e vacinas.
- Melhorar os ensaios clínicos e a detecção de doenças.
- Capacitar cientistas em ambientes com recursos limitados.
O risco de uso indevido por atores de má-fé
Por outro lado, o estudo levanta sérias preocupações sobre o potencial uso indevido da IA por atores de má-fé que poderiam usar esses modelos para aprender como criar vírus sem a necessidade do treinamento e acesso típicos necessários para entrar em um laboratório de Biossegurança Nível 4 (BSL-4), que lida com os agentes infecciosos mais perigosos e exóticos. Inglesby alertou que a IA poderia capacitar mais pessoas com menos treinamento para gerenciar e manipular vírus, potencialmente levando a consequências catastróficas.
Hendrycks instou as empresas de IA a implementar salvaguardas para evitar esse tipo de uso, sugerindo que não fazê-lo dentro de seis meses seria imprudente. Ele propôs que uma solução é tornar esses modelos restritos, para que apenas terceiros confiáveis com razões legítimas para manipular vírus mortais, como pesquisadores do departamento de biologia do MIT, tenham acesso a suas versões não filtradas.
- Prevenir o uso indevido, implementando salvaguardas.
- Restringir modelos para restringir o acesso a partes confiáveis.
- Garantir que apenas pesquisadores autorizados tenham acesso a capacidades confidenciais.
A viabilidade da autorregulamentação da indústria
Hendrycks acredita que é tecnologicamente viável para as empresas de IA se autorregulamentarem e implementarem esses tipos de salvaguardas. No entanto, ele expressou preocupação sobre se algumas empresas vão arrastar os pés ou simplesmente deixar de tomar as medidas necessárias.
A xAI, o laboratório de IA de Elon Musk, reconheceu o artigo e sinalizou que a empresa ‘potencialmente utilizaria’ certas salvaguardas em torno de responder a perguntas de virologia, incluindo treinar o Grok para recusar solicitações prejudiciais e aplicar filtros de entrada e saída.
A OpenAI afirmou que seus modelos mais novos, o o3 e o o4-mini, foram implantados com uma variedade de salvaguardas relacionadas a riscos biológicos, incluindo o bloqueio de saídas prejudiciais. A empresa também informou que executou uma campanha de red-teaming de mil horas na qual 98,7% das conversas não seguras relacionadas à biologia foram sinalizadas e bloqueadas com sucesso.
- Treinar modelos de IA para recusar solicitações prejudiciais.
- Aplicar filtros de entrada e saída para bloquear conteúdo perigoso.
- Conduzir exercícios de red-teaming para identificar e mitigar riscos.
A necessidade de política e regulamentação
Apesar desses esforços, Inglesby argumenta que a autorregulamentação da indústria não é suficiente e apela aos legisladores e líderes políticos para desenvolverem uma abordagem política para regular os riscos biológicos da IA. Ele enfatizou que, embora algumas empresas estejam investindo tempo e dinheiro para abordar esses riscos, outras podem não estar, criando uma situação em que o público não tem informações sobre o que está acontecendo.
Inglesby propôs que, antes que uma nova versão de um LLM seja lançada, ela deve ser avaliada para garantir que não produzirá resultados em nível de pandemia. Isso exigiria uma abordagem mais abrangente e coordenada para regular as capacidades da IA em virologia, envolvendo as partes interessadas da indústria e do governo.
- Avaliar LLMs antes do lançamento para evitar resultados em nível de pandemia.
- Desenvolver uma abordagem política abrangente para regular os riscos biológicos da IA.
- Envolver as partes interessadas da indústria e do governo no processo regulatório.
Encontrando um equilíbrio entre inovação e segurança
O desafio reside em encontrar um equilíbrio entre promover a inovação na IA e garantir que essas tecnologias poderosas não sejam usadas indevidamente para criar armas biológicas mortais. Isso requer uma abordagem multifacetada que inclua:
- Desenvolver salvaguardas robustas para evitar o uso indevido.
- Restringir o acesso a capacidades confidenciais a partes confiáveis.
- Regular as capacidades da IA em virologia.
- Promover a inovação responsável e considerações éticas.
Ao tomar essas medidas, podemos aproveitar o imenso potencial da IA para avançar na pesquisa em virologia e combater doenças infecciosas, mitigando os riscos associados ao seu uso indevido. O futuro da IA na virologia depende de nossa capacidade de navegar neste cenário complexo de forma responsável e garantir que essas tecnologias poderosas sejam usadas para o benefício da humanidade.