Двойният ръб на ИИ във вирусологията
Революционно проучване разкрива, че усъвършенствани модели на изкуствен интелект (ИИ), включително тези, които захранват платформи като ChatGPT и Claude, вече демонстрират способности за решаване на проблеми във вирусологични лаборатории, които надминават тези на опитни вирусолози, притежаващи докторски степени. Това разкритие, въпреки че притежава огромен потенциал за напредък в превенцията на заболяванията, също така поражда значителни опасения относно потенциалната злоупотреба с ИИ за създаване на смъртоносни биологични оръжия, особено от лица, които нямат необходимата експертиза и етични съображения.
Проучването, което беше споделено ексклузивно с TIME, беше съвместно усилие, включващо изследователи от Центъра за безопасност на ИИ, Media Lab на MIT, UFABC (бразилски университет) и SecureBio, организация с нестопанска цел, посветена на предотвратяването на пандемии. Изследователският екип се консултира с водещи вирусолози, за да разработи изключително труден практически тест, който оценява способността на ИИ моделите да отстраняват ефективно сложни лабораторни процедури и протоколи, често използвани във вирусологичните изследвания.
Резултатите от теста бяха поразителни. Вирусолозите с докторска степен, въпреки обширното си обучение и опит, постигнаха средна оценка за точност от едва 22,1% в декларираните си области на експертиза. В рязък контраст, моделът o3 на OpenAI постигна впечатляваща точност от 43,8%, докато Gemini 2.5 Pro на Google отбеляза 37,6%. Тези констатации предполагат, че ИИ моделите бързо придобиват знанията и уменията, необходими за извършване на сложни задачи във вирусологични лаборатории, потенциално надминавайки възможностите на човешките експерти в определени области.
Опасения относно създаването на биологични оръжия
Сет Доноуг, научен изследовател в SecureBio и съавтор на проучването, изрази загрижеността си относно последиците от тези констатации. Той отбеляза, че за първи път в историята, практически всеки, който има достъп до тези ИИ модели, може да разполага с безпристрастен ИИ вирусологичен експерт, който потенциално да ги ръководи през сложните лабораторни процеси, необходими за създаване на биологични оръжия.
Доноуг подчерта, че през цялата история са правени многобройни опити за разработване на биологични оръжия, но много от тези опити са се провалили поради липсата на достъп до необходимата експертиза. Той предупреди, че широкото разпространение на ИИ модели, способни да предоставят тази експертиза, поражда сериозни опасения относно потенциала за злоупотреба и необходимостта от предпазливост при разпространението на тези способности.
- Рискът от злоупотреба от неексперти.
- Потенциалът за създаване на смъртоносни биологични оръжия.
- Необходимостта от предпазливост при разпространението на ИИ вирусологична експертиза.
ИИ лабораториите отговарят на опасенията
В отговор на констатациите от проучването, авторите споделиха резултатите с големи ИИ лаборатории, което накара някои от тях да предприемат действия. Например, xAI публикува рамка за управление на риска, очертаваща намерението си да внедри предпазни мерки за вирусологията в бъдещи версии на своя ИИ модел Grok. OpenAI информира TIME, че е ‘въвела нови смекчаващи мерки на системно ниво за биологични рискове’ за новите си модели, пуснати миналата седмица. Anthropic включи резултатите от модела върху хартията в последните системни карти, но не предложи конкретни мерки за смекчаване. Gemini на Google отказа да коментира пред TIME.
Тези отговори показват нарастваща осведоменост сред ИИ разработчиците за потенциалните рискове, свързани с нарастващите възможности на ИИ във вирусологията, и необходимостта от прилагане на предпазни мерки за предотвратяване на злоупотреби.
Обещанието на ИИ в борбата със заболяванията
Въпреки опасенията относно създаването на биологични оръжия, ИИ също така притежава огромен потенциал за напредък във вирусологичните изследвания и борбата с инфекциозните заболявания. ИИ лидерите отдавна признават потенциала на ИИ да революционизира биомедицината и да ускори разработването на нови лечения и лекарства.
Главният изпълнителен директор на OpenAI Сам Алтман, например, заяви в Белия дом през януари, че ‘с напредването на тази технология ще видим излекувани заболявания с безпрецедентна скорост’. Този оптимизъм се подкрепя от насърчителни признаци за напредък в тази област. По-рано тази година изследователи от Института за нововъзникващи патогени на Университета на Флорида разработиха алгоритъм, способен да предвиди кой коронавирусен вариант може да се разпространи най-бързо.
Оценка на способността на ИИ да провежда вирусологична лабораторна работа
Въпреки че ИИ показа обещание в предоставянето на информация в академичен стил, свързана с вирусологията, основна празнина остана в разбирането на способността му действително да провежда вирусологична лабораторна работа. За да се запълни тази празнина, Доноуг и неговите колеги разработиха тест специално за трудни, невъзможни за намиране в Google въпроси, които изискват практическа помощ и тълкуване на изображения и информация, които обикновено не се срещат в академични статии.
Въпросите бяха разработени, зада наподобяват предизвикателствата, пред които са изправени вирусолозите в ежедневната си работа, като например отстраняване на проблеми, срещани при култивиране на вируси в специфични клетъчни типове и условия.
Форматът беше проектиран по следния начин:
- Представяне на конкретен сценарий.
- Предоставяне на подробности за настройката на експеримента.
- Молба към ИИ да идентифицира най-вероятния проблем.
ИИ превъзхожда вирусолозите в практически тестове
Резултатите от теста разкриха, че практически всеки ИИ модел превъзхожда вирусолозите с докторска степен, дори в собствените им области на експертиза. Тази констатация предполага, че ИИ моделите са не само способни да имат достъп и да обработват огромни количества вирусологични знания, но и да прилагат тези знания за решаване на практически проблеми в лабораторията.
Изследователите също така забелязаха, че моделите показват значително подобрение с течение на времето, което показва, че те непрекъснато учат и усъвършенстват уменията си във вирусологията. Например, Claude 3.5 Sonnet на Anthropic скочи от 26,9% на 33,6% точност от модела си от юни 2024 г. до модела си от октомври 2024 г. А преглед на GPT 4.5 на OpenAI през февруари надмина GPT-4o с почти 10 процентни пункта.
Последиците от нарастващите възможности на ИИ
Дан Хендрикс, директор на Центъра за безопасност на ИИ, подчерта, че ИИ моделите вече придобиват обезпокоително количество практически знания. Ако ИИ моделите наистина са толкова способни в лабораториите, колкото предполага проучването, последиците са широкообхватни.
От една страна, ИИ би могъл да предостави безценна помощ на опитни вирусолози в тяхната критична работа по борба с вирусите, ускорявайки сроковете за разработване на лекарства и ваксини и подобрявайки клиничните изпитвания и откриването на заболявания. Том Ингълсби, директор на Центъра за здравна сигурност на Johns Hopkins, отбеляза, че ИИ би могъл да даде възможност на учени в различни части на света, особено на тези, които нямат специализирани умения или ресурси, да провеждат ценна ежедневна работа по заболявания, възникващи в техните страни.
- Ускоряване на разработването на лекарства и ваксини.
- Подобряване на клиничните изпитвания и откриването на заболявания.
- Овластяване на учени в условия с ограничени ресурси.
Рискът от злоупотреба от недобросъвестни участници
От друга страна, проучването поражда сериозни опасения относно потенциалната злоупотреба с ИИ от недобросъвестни участници, които биха могли да използват тези модели, за да научат как да създават вируси, без да е необходимо типичното обучение и достъп, необходими за влизане в лаборатория за биобезопасност ниво 4 (BSL-4), която обработва най-опасните и екзотични инфекциозни агенти. Ингълсби предупреди, че ИИ би могъл да даде възможност на повече хора с по-малко обучение да управляват и манипулират вируси, което потенциално може да доведе до катастрофални последици.
Хендрикс призова ИИ компаниите да въведат предпазни мерки за предотвратяване на този тип употреба, като предположи, че ако не го направят в рамките на шест месеца, би било безразсъдно. Той предложи едно решение е да се направят тези модели затворени, така че само доверени трети страни с легитимни причини за манипулиране на смъртоносни вируси, като например изследователи в биологичния отдел на MIT, да имат достъп до техните нефилтрирани версии.
- Предотвратяване на злоупотреба чрез прилагане на предпазни мерки.
- Затваряне на модели за ограничаване на достъпа до доверени страни.
- Гарантиране, че само оторизирани изследователи имат достъп до чувствителни възможности.
Осъществимостта на саморегулирането на индустрията
Хендрикс вярва, че е технологично осъществимо ИИ компаниите да се саморегулират и да прилагат тези видове предпазни мерки. Той обаче изрази загриженост дали някои компании ще се бавят или просто ще пропуснат да предприемат необходимите стъпки.
xAI, ИИ лабораторията на Илон Мъск, призна документа и сигнализира, че компанията ‘потенциално ще използва’ определени предпазни мерки около отговарянето на вирусологични въпроси, включително обучение на Grok да отказва вредни заявки и прилагане на филтри за входящи и изходящи данни.
OpenAI заяви, че най-новите ѝ модели, o3 и o4-mini, са разгърнати с набор от предпазни мерки, свързани с биологичен риск, включително блокиране на вредни изходни данни. Компанията също така съобщи, че е провела хиляди часове кампания за ‘червен екип’, в която 98,7% от опасните разговори, свързани с био, са били успешно маркирани и блокирани.
- Обучение на ИИ модели да отказват вредни заявки.
- Прилагане на филтри за входящи и изходящи данни за блокиране на опасно съдържание.
- Провеждане на упражнения за ‘червен екип’ за идентифициране и смекчаване на рискове.
Необходимостта от политика и регулация
Въпреки тези усилия, Ингълсби твърди, че саморегулирането на индустрията не е достатъчно и призовава законодателите и политическите лидери да разработят политически подход за регулиране на био рисковете на ИИ. Той подчерта, че докато някои компании инвестират време и пари за справяне с тези рискове, други може да не го правят, създавайки ситуация, в която обществеността няма представа какво се случва.
Ингълсби предложи преди да бъде пусната нова версия на LLM, тя да бъде оценена, за да се гарантира, че няма да доведе до резултати на ниво пандемия. Това би изисквало по-всеобхватен и координиран подход за регулиране на възможностите на ИИ във вирусологията, включващ както индустрията, така и правителствените заинтересовани страни.
- Оценка на LLM преди пускане за предотвратяване на резултати на ниво пандемия.
- Разработване на всеобхватен политически подход за регулиране на био рисковете на ИИ.
- Включване на както индустрията, така и правителствените заинтересовани страни в регулаторния процес.
Постигане на баланс между иновации и безопасност
Предизвикателството се крие в постигането на баланс между насърчаването на иновациите в ИИ и гарантирането, че тези мощни технологии не се използват злонамерено за създаване на смъртоносни биологични оръжия. Това изисква многостранен подход, който включва:
- Разработване на стабилни предпазни мерки за предотвратяване на злоупотреба.
- Ограничаване на достъпа до чувствителни възможности до доверени страни.
- Регулиране на възможностите на ИИ във вирусологията.
- Насърчаване на отговорни иновации и етични съображения.
Като предприемем тези стъпки, можем да овладеем огромния потенциал на ИИ за напредък във вирусологичните изследвания и борбата с инфекциозните заболявания, като същевременно смекчим рисковете, свързани с неговата злоупотреба. Бъдещето на ИИ във вирусологията зависи от способността ни да навигираме в този сложен пейзаж отговорно и да гарантираме, че тези мощни технологии се използват в полза на човечеството.