Возрастающее мастерство ИИ в вирусологических лабораториях вызывает опасения по поводу биологической опасности
Революционное исследование показывает, что передовые модели искусственного интеллекта (ИИ), в том числе те, которые лежат в основе таких платформ, как ChatGPT и Claude, теперь демонстрируют возможности решения проблем в вирусологических лабораториях, которые превосходят возможности опытных вирусологов, имеющих докторскую степень. Это открытие, хотя и обладает огромным потенциалом для продвижения профилактики заболеваний, также вызывает серьезные опасения по поводу потенциального злоупотребления ИИ для создания смертоносного биологического оружия, особенно лицами, не имеющими необходимого опыта и этических соображений.
Палка о двух концах ИИ в вирусологии
Исследование, которым эксклюзивно поделились с журналом TIME, стало результатом сотрудничества исследователей из Центра безопасности ИИ, Медиа-лаборатории Массачусетского технологического института, UFABC (бразильского университета) и SecureBio, некоммерческой организации, занимающейся предотвращением пандемий. Исследовательская группа консультировалась с ведущими вирусологами для разработки очень сложного практического теста, который оценивал способность моделей ИИ эффективно устранять неполадки в сложных лабораторных процедурах и протоколах, обычно используемых в вирусологических исследованиях.
Результаты теста были поразительными. Вирусологи с докторской степенью, несмотря на свою обширную подготовку и опыт, достигли среднего балла точности всего 22,1% в своих заявленных областях знаний. В резком контрасте, модель o3 от OpenAI достигла впечатляющей точности в 43,8%, в то время как Gemini 2.5 Pro от Google набрала 37,6%. Эти результаты показывают, что модели ИИ быстро приобретают знания и навыки, необходимые для выполнения сложных задач в вирусологических лабораториях, потенциально превосходя возможности экспертов-людей в определенных областях.
Опасения по поводу создания биологического оружия
Сет Доноуг, научный сотрудник SecureBio и соавтор исследования, выразил свою обеспокоенность по поводу последствий этих результатов. Он отметил, что впервые в истории практически любой человек, имеющий доступ к этим моделям ИИ, может иметь в своем распоряжении беспристрастного эксперта по вирусологии ИИ, потенциально направляя его через сложные лабораторные процессы, необходимые для создания биологического оружия.
Доноуг подчеркнул, что на протяжении истории предпринимались многочисленные попытки разработать биологическое оружие, но многие из этих попыток потерпели неудачу из-за отсутствия доступа к необходимому опыту. Он предупредил, что широкая доступность моделей ИИ, способных предоставить этот опыт, вызывает серьезные опасения по поводу потенциального злоупотребления и необходимости проявлять осторожность в том, как эти возможности распространяются.
- Риск злоупотребления со стороны неспециалистов.
- Потенциал для создания смертоносного биологического оружия.
- Необходимость проявлять осторожность в распространении опыта ИИ в вирусологии.
Лаборатории ИИ реагируют на опасения
В ответ на результаты исследования авторы поделились результатами с крупными лабораториями ИИ, побудив некоторые из них принять меры. Например, xAI опубликовала структуру управления рисками, в которой изложено ее намерение внедрить меры предосторожности в области вирусологии в будущих версиях своей модели ИИ Grok. OpenAI сообщила TIME, что “развернула новые меры смягчения рисков биологического уровня системы” для своих новых моделей, выпущенных на прошлой неделе. Anthropic включила результаты производительности модели в документ в недавние системные карты, но не предложила конкретных мер по смягчению последствий. Gemini от Google отказалась комментировать TIME.
Эти ответы указывают на растущее осознание среди разработчиков ИИ потенциальных рисков, связанных с растущими возможностями ИИ в вирусологии, и необходимости внедрения мер предосторожности для предотвращения злоупотреблений.
Обещание ИИ в борьбе с болезнями
Несмотря на опасения по поводу создания биологического оружия, ИИ также открывает огромные перспективы для продвижения вирусологических исследований и борьбы с инфекционными заболеваниями. Лидеры в области ИИ давно признали потенциал ИИ для революции в биомедицине и ускорения разработки новых методов лечения и лекарств.
Генеральный директор OpenAI Сэм Альтман, например, заявил в Белом доме в январе, что “по мере развития этой технологии мы увидим, что болезни излечиваются беспрецедентными темпами”. Этот оптимизм подкрепляется обнадеживающими признаками прогресса в этой области. Ранее в этом году исследователи из Института новых патогенов Университета Флориды разработали алгоритм, способный предсказывать, какой вариант коронавируса может распространяться быстрее всего.
Оценка способности ИИ проводить вирусологические лабораторные работы
Хотя ИИ показал себя многообещающим в предоставлении информации в академическом стиле, связанной с вирусологией, оставался существенный пробел в понимании его способности фактически проводить вирусологические лабораторные работы. Чтобы устранить этот пробел, Доноуг и его коллеги разработали тест специально для сложных вопросов, которые невозможно найти в Google, которые требуют практической помощи и интерпретации изображений и информации, которые обычно не встречаются в научных статьях.
Вопросы были разработаны таким образом, чтобы имитировать проблемы, с которыми сталкиваются вирусологи в своей повседневной работе, такие как устранение неполадок, возникающих при культивировании вирусов в определенных типах клеток и условиях.
Формат был разработан следующим образом:
- Представление конкретного сценария.
- Предоставление подробной информации о настройке эксперимента.
- Попросить ИИ определить наиболее вероятную проблему.
ИИ превосходит вирусологов в практических тестах
Результаты теста показали, что практически каждая модель ИИ превзошла вирусологов с докторской степенью, даже в их собственных областях знаний. Этот вывод предполагает, что модели ИИ способны не только получать доступ и обрабатывать огромные объемы вирусологических знаний, но и применять эти знания для решения практических проблем в лаборатории.
Исследователи также отметили, что модели показали значительное улучшение с течением времени, что указывает на то, что они постоянно учатся и совершенствуют свои навыки в вирусологии. Например, Anthropic’s Claude 3.5 Sonnet вырос с 26,9% до 33,6% точности с июньской модели 2024 года до октябрьской модели 2024 года. А предварительный просмотр GPT 4.5 от OpenAI в феврале превзошел GPT-4o почти на 10 процентных пунктов.
Последствия растущих возможностей ИИ
Дэн Хендрикс, директор Центра безопасности ИИ, подчеркнул, что модели ИИ в настоящее время приобретают тревожное количество практических знаний. Если модели ИИ действительно так способны в условиях влажной лаборатории, как предполагает исследование, последствия будут далеко идущими.
С одной стороны, ИИ может оказать неоценимую помощь опытным вирусологам в их критической работе по борьбе с вирусами, ускоряя сроки разработки лекарств и вакцин, а также улучшая клинические испытания и выявление заболеваний. Том Инглсби, директор Центра безопасности здоровья Джона Хопкинса, отметил, что ИИ может расширить возможности ученых в разных частях мира, особенно тех, кому не хватает специальных навыков или ресурсов, для проведения ценной повседневной работы по болезням, встречающимся в их странах.
- Ускорение разработки лекарств и вакцин.
- Улучшение клинических испытаний и выявления заболеваний.
- Расширение возможностей ученых в условиях с ограниченными ресурсами.
Риск злоупотребления со стороны злоумышленников
С другой стороны, исследование вызывает серьезные опасения по поводу потенциального злоупотребления ИИ злоумышленниками, которые могут использовать эти модели, чтобы научиться создавать вирусы без необходимости обычной подготовки и доступа, необходимых для входа в лабораторию уровня биобезопасности 4 (BSL-4), которая работает с самыми опасными и экзотическими инфекционными агентами. Инглсби предупредил, что ИИ может дать большему количеству людей с меньшей подготовкой возможность управлять вирусами, что может привести к катастрофическим последствиям.
Хендрикс призвал компании, занимающиеся ИИ, внедрить меры защиты, чтобы предотвратить этот тип использования, предположив, что неспособность сделать это в течение шести месяцев будет безрассудством. Он предложил, чтобы одним из решений было сделать эти модели закрытыми, чтобы только доверенные третьи стороны с законными причинами для манипулирования смертельными вирусами, такие как исследователи биологического факультета Массачусетского технологического института, имели доступ к их нефильтрованным версиям.
- Предотвращение злоупотреблений путем внедрения мер защиты.
- Закрытие моделей для ограничения доступа доверенным сторонам.
- Обеспечение того, чтобы только авторизованные исследователи имели доступ к чувствительным возможностям.
Осуществимость саморегулирования отрасли
Хендрикс считает, что для компаний, занимающихся ИИ, технологически возможно саморегулироваться и внедрить эти типы гарантий. Однако он выразил обеспокоенность по поводу того, будут ли некоторые компании тянуть время или просто не предпримут необходимых шагов.
xAI, лаборатория ИИ Илона Маска, признала документ и дала понять, что компания будет “потенциально использовать” определенные меры предосторожности при ответах на вопросы вирусологии, включая обучение Grok отклонению вредных запросов и применение фильтров ввода и вывода.
OpenAI заявила, что ее новейшие модели, o3 и o4-mini, были развернуты с набором мер защиты, связанных с биологическим риском, включая блокировку вредных результатов. Компания также сообщила, что провела тысячечасовую кампанию красной команды, в которой 98,7% небезопасных разговоров, связанных с биологией, были успешно отмечены и заблокированы.
- Обучение моделей ИИ отклонять вредные запросы.
- Применение фильтров ввода и вывода для блокировки опасного контента.
- Проведение учений красной команды для выявления и смягчения рисков.
Необходимость политики и регулирования
Несмотря на эти усилия, Инглсби утверждает, что саморегулирования отрасли недостаточно, и призывает законодателей и политических лидеров разработать политический подход к регулированию биологических рисков ИИ. Он подчеркнул, что, хотя некоторые компании тратят время и деньги на устранение этих рисков, другие могут этого не делать, создавая ситуацию, когда у общественности нет понимания того, что происходит.
Инглсби предложил, чтобы перед выпуском новой версии LLM ее оценивали, чтобы убедиться, что она не приведет к результатам на уровне пандемии. Это потребует более всестороннего и скоординированного подхода к регулированию возможностей ИИ в вирусологии, с участием как отрасли, так и правительственных заинтересованных сторон.
- Оценка LLM перед выпуском для предотвращения результатов на уровне пандемии.
- Разработка всестороннего политического подхода к регулированию биологических рисков ИИ.
- Вовлечение как отрасли, так и правительственных заинтересованных сторон в процесс регулирования.
Поиск баланса между инновациями и безопасностью
Задача состоит в том, чтобы найти баланс между стимулированием инноваций в ИИ и обеспечением того, чтобы эти мощные технологии не использовались неправомерно для создания смертоносного биологического оружия. Это требует многогранного подхода, который включает в себя:
- Разработка надежных мер защиты для предотвращения злоупотреблений.
- Ограничение доступа к чувствительным возможностям доверенным сторонам.
- Регулирование возможностей ИИ в вирусологии.
- Содействие ответственным инновациям и этическим соображениям.
Предпринимая эти шаги, мы можем использовать огромный потенциал ИИ для продвижения вирусологических исследований и борьбы с инфекционными заболеваниями, одновременно смягчая риски, связанные с его неправомерным использованием. Будущее ИИ в вирусологии зависит от нашей способности ответственно ориентироваться в этом сложном ландшафте и обеспечивать, чтобы эти мощные технологии использовались на благо человечества.