AI w wirusologii: zagrożenie biologiczne?

Podwójne ostrze AI w wirusologii

Przełomowe badanie ujawnia, że zaawansowane modele sztucznej inteligencji (AI), w tym te, które napędzają platformy takie jak ChatGPT i Claude, wykazują obecnie zdolność rozwiązywania problemów w laboratoriach wirusologicznych, która przewyższa zdolności doświadczonych wirusologów posiadających doktoraty. To odkrycie, choć ma ogromny potencjał w zakresie postępu w zapobieganiu chorobom, budzi również poważne obawy o potencjalne niewłaściwe wykorzystanie AI do tworzenia śmiercionośnej broni biologicznej, szczególnie przez osoby nieposiadające niezbędnej wiedzy i etycznych względów.

Badanie, które zostało udostępnione wyłącznie TIME, było wspólnym wysiłkiem naukowców z Center for AI Safety, MIT’s Media Lab, UFABC (brazylijski uniwersytet) i SecureBio, organizacji non-profit zajmującej się zapobieganiem pandemiom. Zespół badawczy skonsultował się z wiodącymi wirusologami, aby zaprojektować bardzo wymagający test praktyczny, który oceniał zdolność modeli AI do skutecznego rozwiązywania złożonych procedur i protokołów laboratoryjnych powszechnie stosowanych w badaniach wirusologicznych.

Wyniki testu były uderzające. Wirusolodzy z tytułem doktora, pomimo ich rozległego szkolenia i doświadczenia, osiągnęli średni wynik dokładności zaledwie 22,1% w zadeklarowanych obszarach ich wiedzy. W jaskrawym kontraście, model o3 OpenAI osiągnął imponującą dokładność 43,8%, a Google’s Gemini 2.5 Pro uzyskał 37,6%. Wyniki te sugerują, że modele AI szybko nabywają wiedzę i umiejętności niezbędne do wykonywania złożonych zadań w laboratoriach wirusologicznych, potencjalnie przewyższając możliwości ludzkich ekspertów w niektórych obszarach.

Obawy o tworzenie broni biologicznej

Seth Donoughe, naukowiec z SecureBio i współautor badania, wyraził zaniepokojenie implikacjami tych ustaleń. Zauważył, że po raz pierwszy w historii praktycznie każdy, kto ma dostęp do tych modeli AI, może mieć do dyspozycji bezstronnego eksperta od wirusologii opartego na AI, który potencjalnie poprowadzi go przez złożone procesy laboratoryjne wymagane do stworzenia broni biologicznej.

Donoughe podkreślił, że na przestrzeni dziejów podejmowano liczne próby opracowania broni biologicznej, ale wiele z nich nie powiodło się z powodu braku dostępu do niezbędnej wiedzy. Ostrzegł, że powszechna dostępność modeli AI zdolnych do zapewnienia tej wiedzy budzi poważne obawy o potencjalne niewłaściwe wykorzystanie i potrzebę ostrożności w sposobie dystrybucji tych możliwości.

  • Ryzyko niewłaściwego wykorzystania przez osoby niebędące ekspertami.
  • Potencjał tworzenia śmiercionośnej broni biologicznej.
  • Potrzeba ostrożności w dystrybucji wiedzy wirusologicznej AI.

Laboratoria AI reagują na obawy

W odpowiedzi na ustalenia badania, autorzy podzielili się wynikami z głównymi laboratoriami AI, co skłoniło niektóre do podjęcia działań. Na przykład xAI opublikowało ramy zarządzania ryzykiem, w których nakreślono zamiar wdrożenia zabezpieczeń wirusologicznych w przyszłych wersjach swojego modelu AI Grok. OpenAI poinformowało TIME, że ‘wdrożyło nowe środki łagodzące ryzyko biologiczne na poziomie systemu’ dla swoich nowych modeli wydanych w zeszłym tygodniu. Anthropic zawarło wyniki wydajności modelu w artykule w ostatnich kartach systemu, ale nie zaproponowało konkretnych środków łagodzących. Gemini firmy Google odmówił komentarza dla TIME.

Te odpowiedzi wskazują na rosnącą świadomość wśród twórców AI potencjalnych zagrożeń związanych z rosnącymi możliwościami AI w wirusologii i potrzebę wdrożenia zabezpieczeń, aby zapobiec niewłaściwemu wykorzystaniu.

Obietnica AI w walce z chorobami

Pomimo obaw o tworzenie broni biologicznej, AI ma również ogromny potencjał w zakresie postępu w badaniach wirusologicznych i zwalczaniu chorób zakaźnych. Liderzy AI od dawna uznają potencjał AI do rewolucjonizowania biomedycyny i przyspieszenia rozwoju nowych metod leczenia i lekarstw.

Na przykład dyrektor generalny OpenAI, Sam Altman, stwierdził w Białym Domu w styczniu, że ‘wraz z postępem tej technologii zobaczymy, jak choroby są leczone w niespotykanym tempie’. Ten optymizm znajduje poparcie w zachęcających oznakach postępu w tej dziedzinie. Wcześniej w tym roku naukowcy z Emerging Pathogens Institute na Uniwersytecie Florydy opracowali algorytm zdolny do przewidywania, który wariant koronawirusa może rozprzestrzeniać się najszybciej.

Ocena zdolności AI do prowadzenia prac laboratoryjnych z zakresu wirusologii

O ile AI wykazało obietnicę w dostarczaniu informacji w stylu akademickim związanych z wirusologią, o tyle główna luka pozostała w zrozumieniu jego zdolności do faktycznego prowadzenia prac laboratoryjnych z zakresu wirusologii. Aby wypełnić tę lukę, Donoughe i jego koledzy zaprojektowali test specjalnie dla trudnych, niedających się ‘wygooglować’ pytań, które wymagają praktycznej pomocy i interpretacji obrazów i informacji, których zwykle nie można znaleźć w artykułach naukowych.

Pytania miały naśladować wyzwania, przed którymi stają wirusolodzy w swojej codziennej pracy, takie jak rozwiązywanie problemów napotkanych podczas hodowli wirusów w określonych typach komórek i warunkach.

Format został zaprojektowany w następujący sposób:

  • Przedstawienie konkretnego scenariusza.
  • Dostarczenie szczegółów dotyczących konfiguracji eksperymentu.
  • Poproszenie AI o zidentyfikowanie najbardziej prawdopodobnego problemu.

AI przewyższa wirusologów w testach praktycznych

Wyniki testu ujawniły, że praktycznie każdy model AI wypadł lepiej niż wirusolodzy z tytułem doktora, nawet w ich własnych dziedzinach wiedzy. Odkrycie to sugeruje, że modele AI są nie tylko zdolne do uzyskiwania dostępu i przetwarzania ogromnych ilości wiedzy wirusologicznej, ale także do stosowania tej wiedzy w rozwiązywaniu praktycznych problemów w laboratorium.

Naukowcy zaobserwowali również, że modele wykazywały znaczną poprawę w czasie, co wskazuje, że nieustannie się uczą i doskonalą swoje umiejętności w wirusologii. Na przykład Claude 3.5 Sonnet firmy Anthropic podskoczył z 26,9% do 33,6% dokładności od swojego modelu z czerwca 2024 r. do modelu z października 2024 r. A wersja demonstracyjna GPT 4.5 OpenAI w lutym wypadła lepiej niż GPT-4o o prawie 10 punktów procentowych.

Implikacje rosnących możliwości AI

Dan Hendrycks, dyrektor Center for AI Safety, podkreślił, że modele AI nabywają obecnie niepokojącą ilość wiedzy praktycznej. Jeśli modele AI są rzeczywiście tak zdolne w warunkach laboratoryjnych, jak sugeruje badanie, implikacje są daleko idące.

Z jednej strony, AI może zapewnić nieocenioną pomoc doświadczonym wirusologom w ich krytycznej pracy nad zwalczaniem wirusów, przyspieszeniem harmonogramów opracowywania leków i szczepionek oraz poprawą badań klinicznych i wykrywania chorób. Tom Inglesby, dyrektor Johns Hopkins Center for Health Security, zauważył, że AI może wzmocnić pozycję naukowców w różnych częściach świata, szczególnie tych, którym brakuje specjalistycznych umiejętności lub zasobów, do prowadzenia cennej codziennej pracy nad chorobami występującymi w ich krajach.

  • Przyspieszenie opracowywania leków i szczepionek.
  • Poprawa badań klinicznych i wykrywania chorób.
  • Wzmocnienie pozycji naukowców w warunkach o ograniczonych zasobach.

Ryzyko niewłaściwego wykorzystania przez osoby działające w złej wierze

Z drugiej strony, badanie budzi poważne obawy o potencjalne niewłaściwe wykorzystanie AI przez osoby działające w złej wierze, które mogłyby wykorzystać te modele do nauczenia się, jak tworzyć wirusy bez konieczności typowego szkolenia i dostępu wymaganego do wejścia do laboratorium Biosafety Level 4 (BSL-4), które zajmuje się najbardziej niebezpiecznymi i egzotycznymi czynnikami zakaźnymi. Inglesby ostrzegł, że AI może dać większej liczbie osób z mniejszym przeszkoleniem możliwość zarządzania wirusami i manipulowania nimi, co potencjalnie prowadzi do katastrofalnych konsekwencji.

Hendrycks wezwał firmy AI do wdrożenia zabezpieczeń, aby zapobiec tego typu użytkowaniu, sugerując, że niezastosowanie się do tego w ciągu sześciu miesięcy byłoby lekkomyślne. Zaproponował, że jednym z rozwiązań jest uczynienie tych modeli ‘gated’, aby tylko zaufane strony trzecie z uzasadnionymi powodami manipulowania śmiercionośnymi wirusami, takie jak naukowcy z wydziału biologii MIT, miały dostęp do ich niefiltrowanych wersji.

  • Zapobieganie niewłaściwemu wykorzystaniu poprzez wdrożenie zabezpieczeń.
  • ‘Gating’ modeli w celu ograniczenia dostępu do zaufanych stron.
  • Zapewnienie, że tylko upoważnieni naukowcy mają dostęp do wrażliwych możliwości.

Wykonalność samoregulacji branży

Hendrycks uważa, że technologicznie wykonalne jest, aby firmy AI samodzielnie się regulowały i wdrażały tego typu zabezpieczenia. Wyraził jednak zaniepokojenie, czy niektóre firmy będą się ociągać, czy po prostu nie podejmą niezbędnych kroków.

xAI, laboratorium AI Elona Muska, uznało artykuł i zasygnalizowało, że firma ‘potencjalnie wykorzysta’ pewne zabezpieczenia dotyczące odpowiadania na pytania wirusologiczne, w tym szkolenie Groka, aby odrzucał szkodliwe żądania, oraz stosowanie filtrów wejściowych i wyjściowych.

OpenAI stwierdziło, że jego najnowsze modele, o3 i o4-mini, zostały wdrożone z szeregiem zabezpieczeń związanych z ryzykiem biologicznym, w tym blokowaniem szkodliwych wyjść. Firma poinformowała również, że przeprowadziła kampanię ‘red-teamingową’ trwającą tysiąc godzin, w której 98,7% niebezpiecznych rozmów związanych z bio zostało pomyślnie oznaczonych i zablokowanych.

  • Szkolenie modeli AI w zakresie odrzucania szkodliwych żądań.
  • Stosowanie filtrów wejściowych i wyjściowych w celu blokowania niebezpiecznych treści.
  • Przeprowadzanie ćwiczeń ‘red-teamingowych’ w celu identyfikacji i łagodzenia ryzyka.

Potrzeba polityki i regulacji

Pomimo tych wysiłków, Inglesby argumentuje, że samoregulacja branży nie wystarczy i wzywa prawodawców i liderów politycznych do opracowania podejścia politycznego do regulowania ryzyka biologicznego związanego z AI. Podkreślił, że o ile niektóre firmy inwestują czas i pieniądze, aby zająć się tym ryzykiem, inne mogą tego nie robić, tworząc sytuację, w której społeczeństwo nie ma wglądu w to, co się dzieje.

Inglesby zaproponował, aby przed wydaniem nowej wersji LLM (large language model), oceniono ją, aby upewnić się, że nie spowoduje ona skutków na poziomie pandemii. Wymagałoby to bardziej kompleksowego i skoordynowanego podejścia do regulowania możliwości AI w wirusologii, z udziałem zarówno branży, jak i zainteresowanych stron rządowych.

  • Ocena LLM przed wydaniem w celu zapobieżenia skutkom na poziomie pandemii.
  • Opracowanie kompleksowego podejścia politycznego do regulowania ryzyka biologicznego związanego z AI.
  • Zaangażowanie zarówno branży, jak i zainteresowanych stron rządowych w proces regulacyjny.

Znalezienie równowagi między innowacją a bezpieczeństwem

Wyzwanie polega na znalezieniu równowagi między wspieraniem innowacji w AI a zapewnieniem, że te potężne technologie nie będą niewłaściwie wykorzystywane do tworzenia śmiercionośnej broni biologicznej. Wymaga to wieloaspektowego podejścia, które obejmuje:

  • Opracowanie solidnych zabezpieczeń, aby zapobiec niewłaściwemu wykorzystaniu.
  • Ograniczenie dostępu do wrażliwych możliwości do zaufanych stron.
  • Regulowanie możliwości AI w wirusologii.
  • Promowanie odpowiedzialnych innowacji i etycznych względów.

Podejmując te kroki, możemy wykorzystać ogromny potencjał AI do postępu w badaniach wirusologicznych i zwalczaniu chorób zakaźnych, jednocześnie łagodząc ryzyko związane z jego niewłaściwym wykorzystaniem. Przyszłość AI w wirusologii zależy od naszej zdolności do odpowiedzialnego poruszania się po tym złożonym krajobrazie i zapewnienia, że te potężne technologie będą wykorzystywane dla dobra ludzkości.