AI, 바이러스 연구실 능력 급증... 생물재해 우려

AI의 바이러스학 분야 숙련도 증가가 생물학적 위험에 대한 우려를 불러일으키다

획기적인 연구 결과에 따르면 ChatGPT 및 Claude와 같은 플랫폼을 구동하는 최첨단 인공 지능(AI) 모델은 이제 박사 학위를 소지한 노련한 바이러스 학자보다 뛰어난 바이러스 습식 연구실에서 문제 해결 능력을 보여주고 있습니다. 이러한 발견은 질병 예방을 발전시킬 수 있는 엄청난 잠재력을 지니고 있지만, 특히 필요한 전문 지식과 윤리적 고려 사항이 부족한 개인이 치명적인 생물 무기를 만드는 데 AI를 오용할 가능성에 대한 심각한 우려도 제기합니다.

바이러스학에서 AI의 양날의 검

TIME과 독점적으로 공유된 이번 연구는 AI 안전 센터, MIT의 미디어 랩, UFABC(브라질 대학교), 팬데믹 예방에 전념하는 비영리 단체인 SecureBio의 연구원들이 공동으로 수행했습니다. 연구팀은 최고의바이러스 학자들과 협력하여 AI 모델이 바이러스 연구에서 일반적으로 사용되는 복잡한 실험실 절차와 프로토콜의 문제를 효과적으로 해결할 수 있는 능력을 평가하는 매우 어려운 실용 테스트를 설계했습니다.

테스트 결과는 놀라웠습니다. 박사 학위 수준의 바이러스 학자들은 광범위한 훈련과 경험에도 불구하고 자신이 선언한 전문 분야에서 평균 22.1%의 정확도 점수를 얻었습니다. 이와는 대조적으로 OpenAI의 o3 모델은 43.8%의 인상적인 정확도를 달성했고 Google의 Gemini 2.5 Pro는 37.6%를 기록했습니다. 이러한 결과는 AI 모델이 바이러스 연구실에서 복잡한 작업을 수행하는 데 필요한 지식과 기술을 빠르게 습득하고 있으며 특정 영역에서는 인간 전문가의 능력을 능가할 수 있음을 시사합니다.

생물 무기 제조에 대한 우려

SecureBio의 연구 과학자이자 연구의 공동 저자인 Seth Donoughe는 이러한 결과의 의미에 대한 우려를 표명했습니다. 그는 역사상 처음으로 이러한 AI 모델에 액세스할 수 있는 사람은 누구나 자신의 처분에 따라 판단력이 없는 AI 바이러스 전문가를 보유할 수 있으며 잠재적으로 생물 무기를 만드는 데 필요한 복잡한 실험실 프로세스를 안내할 수 있다고 언급했습니다.

Donoughe는 역사를 통틀어 생물 무기를 개발하려는 수많은 시도가 있었지만 필요한 전문 지식에 대한 접근성이 부족하여 이러한 시도 중 다수가 실패했다고 강조했습니다. 그는 이러한 전문 지식을 제공할 수 있는 AI 모델의 광범위한 가용성이 오용 가능성과 이러한 기능을 배포하는 데 신중해야 할 필요성에 대한 심각한 우려를 제기한다고 경고했습니다.

  • 비전문가의 오용 위험.
  • 치명적인 생물 무기를 만들 가능성.
  • AI 바이러스 전문 지식 배포에 대한 신중한 접근 필요.

AI 연구소, 우려에 대응

연구 결과에 따라 저자들은 주요 AI 연구소와 결과를 공유하여 일부 연구소에서 조치를 취하도록 했습니다. 예를 들어 xAI는 AI 모델 Grok의 향후 버전에 바이러스학적 안전 장치를 구현하려는 의도를 설명하는 위험 관리 프레임워크를 발표했습니다. OpenAI는 TIME에 지난주에 출시된 새로운 모델에 대해 “생물학적 위험에 대한 새로운 시스템 수준 완화책을 배포했다”고 알렸습니다. Anthropic은 최근 시스템 카드에 논문에 대한 모델 성능 결과를 포함했지만 특정 완화 조치를 제안하지 않았습니다. Google의 Gemini는 TIME에 논평을 거부했습니다.

이러한 응답은 바이러스학 분야에서 AI의 기능 증가와 관련된 잠재적 위험과 오용을 방지하기 위한 안전 장치 구현의 필요성에 대한 AI 개발자들의 인식이 높아지고 있음을 나타냅니다.

질병 퇴치를 위한 AI의 약속

생물 무기 제조에 대한 우려에도 불구하고 AI는 바이러스학 연구를 발전시키고 감염성 질병과 싸우는 데 엄청난 잠재력을 가지고 있습니다. AI 리더들은 오랫동안 AI가 생물의학에 혁명을 일으키고 새로운 치료법과 치료법 개발을 가속화할 수 있는 잠재력을 인식해 왔습니다.

예를 들어 OpenAI CEO Sam Altman은 1월 백악관에서 “이 기술이 발전함에 따라 질병이 전례 없는 속도로 치료되는 것을 보게 될 것입니다.”라고 말했습니다. 이러한 낙관론은 이 분야의 진전에 대한 고무적인 신호에 의해 뒷받침됩니다. 올해 초 플로리다 대학교 신흥 병원체 연구소의 연구원들은 어떤 코로나 바이러스 변종이 가장 빠르게 확산될지 예측할 수 있는 알고리즘을 개발했습니다.

바이러스 연구실 작업을 수행하는 AI의 능력 평가

AI는 바이러스학과 관련된 학문적 스타일의 정보를 제공하는 데 유망한 모습을 보였지만 실제로 바이러스 연구실 작업을 수행하는 능력에 대한 이해에는 큰 격차가 남아 있었습니다. 이러한 격차를 해결하기 위해 Donoughe와 그의 동료들은 실질적인 지원과 일반적으로 학술 논문에서 볼 수 없는 이미지 및 정보 해석을 요구하는 어렵고 Google 검색이 불가능한 질문을 위해 특별히 테스트를 설계했습니다.

질문은 특정 세포 유형 및 조건에서 바이러스를 배양하는 동안 발생하는 문제 해결과 같이 바이러스 학자들이 일상 업무에서 직면하는 문제를 모방하도록 설계되었습니다.

형식은 다음과 같이 설계되었습니다.

  • 특정 시나리오 제시.
  • 실험 설정에 대한 세부 정보 제공.
  • AI에게 가장 가능성 있는 문제를 식별하도록 요청.

AI, 실용 테스트에서 바이러스 학자 능가

테스트 결과는 거의 모든 AI 모델이 박사 학위 수준의 바이러스 학자, 심지어 자신의 전문 분야 내에서도 능가하는 것으로 나타났습니다. 이러한 발견은 AI 모델이 방대한 양의 바이러스학적 지식에 액세스하고 처리할 수 있을 뿐만 아니라 이 지식을 실험실의 실제 문제를 해결하는 데 적용할 수 있음을 시사합니다.

연구원들은 또한 모델이 시간이 지남에 따라 상당한 개선을 보였다는 점을 관찰했는데, 이는 모델이 바이러스학 기술을 지속적으로 배우고 개선하고 있음을 나타냅니다. 예를 들어 Anthropic의 Claude 3.5 Sonnet은 2024년 6월 모델에서 2024년 10월 모델로 정확도가 26.9%에서 33.6%로 증가했습니다. 그리고 2월에 공개된 OpenAI의 GPT 4.5 미리보기는 GPT-4o보다 거의 10% 포인트 더 나은 성능을 보였습니다.

AI 기능 증가의 의미

AI 안전 센터 소장 Dan Hendrycks는 AI 모델이 이제 우려스러운 양의 실용적인 지식을 습득하고 있다고 강조했습니다. AI 모델이 실제로 연구에서 제안하는 것처럼 습식 실험실 환경에서 능숙하다면 그 의미는 광범위합니다.

한편으로 AI는 바이러스와 싸우는 중요한 작업에서 숙련된 바이러스 학자에게 귀중한 지원을 제공하고 의약품 및 백신 개발의 시간 단축, 임상 시험 및 질병 탐지 개선을 가속화할 수 있습니다. 존스 홉킨스 보건 보안 센터 소장 Tom Inglesby는 AI가 전문 기술이나 자원이 부족한 특히 세계 여러 지역의 과학자가 해당 국가에서 발생하는 질병에 대한 귀중한 일상 업무를 수행할 수 있도록 지원할 수 있다고 언급했습니다.

  • 의약품 및 백신 개발 가속화.
  • 임상 시험 및 질병 탐지 개선.
  • 자원 제한적인 환경에서 과학자 지원.

악의적인 행위자의 오용 위험

반면에 이 연구는 이러한 모델을 사용하여 가장 위험하고 이국적인 감염성 물질을 처리하는 생물 안전 수준 4(BSL-4) 실험실에 들어가기 위해 필요한 일반적인 훈련 및 접근 없이도 바이러스를 만드는 방법을 배울 수 있는 악의적인 행위자의 AI 오용 가능성에 대한 심각한 우려를 제기합니다. Inglesby는 AI가 더 적은 훈련을 받은 더 많은 사람이 바이러스를 관리하고 조작할 수 있도록 지원하여 잠재적으로 재앙적인 결과를 초래할 수 있다고 경고했습니다.

Hendrycks는 AI 회사가 이러한 유형의 사용을 방지하기 위해 보호 장치를 구현할 것을 촉구하면서 6개월 이내에 그렇게 하지 않으면 무모할 것이라고 제안했습니다. 그는 한 가지 해결책은 이러한 모델을 게이트화하여 MIT 생물학과 연구원과 같이 치명적인 바이러스를 조작할 정당한 이유가 있는 신뢰할 수 있는 제3자만 필터링되지 않은 버전에 액세스할 수 있도록 하는 것이라고 제안했습니다.

  • 보호 장치를 구현하여 오용 방지.
  • 신뢰할 수 있는 당사자에 대한 액세스를 제한하기 위해 모델 게이트화.
  • 권한 있는 연구원만 민감한 기능에 액세스할 수 있도록 보장.

업계 자체 규제의 타당성

Hendrycks는 AI 회사가 자체 규제하고 이러한 유형의 안전 장치를 구현하는 것이 기술적으로 가능하다고 믿습니다. 그러나 그는 일부 회사가 발을 질질 끌거나 필요한 조치를 취하지 않을지에 대한 우려를 표명했습니다.

Elon Musk의 AI 연구소인 xAI는 이 논문을 인정하고 유해한 요청을 거부하고 입력 및 출력 필터를 적용하도록 Grok을 훈련시키는 것을 포함하여 바이러스학 질문에 답변하는 데 있어 특정 안전 장치를 “잠재적으로 활용”할 것이라고 밝혔습니다.

OpenAI는 최신 모델인 o3 및 o4-mini가 유해한 출력을 차단하는 것을 포함하여 다양한 생물학적 위험 관련 안전 장치와 함께 배포되었다고 밝혔습니다. 회사는 또한 안전하지 않은 생물학 관련 대화의 98.7%가 성공적으로 플래그 지정되고 차단된 1000시간의 레드 팀 캠페인을 실행했다고 보고했습니다.

  • 유해한 요청을 거부하도록 AI 모델 교육.
  • 위험한 콘텐츠를 차단하기 위해 입력 및 출력 필터 적용.
  • 위험을 식별하고 완화하기 위한 레드 팀 훈련 실시.

정책 및 규제의 필요성

이러한 노력에도 불구하고 Inglesby는 업계 자체 규제만으로는 충분하지 않으며 법률 제정자와 정치 지도자가 AI의 생물학적 위험을 규제하기 위한 정책적 접근 방식을 개발할 것을 촉구합니다. 그는 일부 회사는 이러한 위험을 해결하기 위해 시간과 돈을 투자하고 있지만 다른 회사는 그렇지 않을 수 있어 대중이 무슨 일이 일어나고 있는지 알 수 없는 상황이 발생한다고 강조했습니다.

Inglesby는 LLM의 새 버전이 출시되기 전에 팬데믹 수준의 결과를 생성하지 않는지 평가해야 한다고 제안했습니다. 이를 위해서는 바이러스학 분야에서 AI의 기능을 규제하기 위한 보다 포괄적이고 조율된 접근 방식이 필요하며 업계 및 정부 이해 관계자가 모두 참여해야 합니다.

  • 팬데믹 수준의 결과를 방지하기 위해 출시 전에 LLM 평가.
  • AI의 생물학적 위험을 규제하기 위한 포괄적인 정책적 접근 방식 개발.
  • 규제 프로세스에 업계 및 정부 이해 관계자 모두 참여.

혁신과 안전 사이의 균형 유지

과제는 AI 혁신을 촉진하는 것과 이러한 강력한 기술이 치명적인 생물 무기를 만드는 데 오용되지 않도록 보장하는 것 사이의 균형을 유지하는 데 있습니다. 이를 위해서는 다음과 같은 다각적인 접근 방식이 필요합니다.

  • 오용을 방지하기 위한 강력한 안전 장치 개발.
  • 신뢰할 수 있는 당사자에 대한 민감한 기능에 대한 액세스 제한.
  • 바이러스학 분야에서 AI의 기능 규제.
  • 책임 있는 혁신과 윤리적 고려 사항 촉진.

이러한 조치를 취함으로써 우리는 AI의 엄청난 잠재력을 활용하여 바이러스학 연구를 발전시키고 감염성 질병에 대처하는 동시에 AI 오용과 관련된 위험을 완화할 수 있습니다. 바이러스학 분야에서 AI의 미래는 이러한 복잡한 환경을 책임감 있게 탐색하고 이러한 강력한 기술이 인류의 이익을 위해 사용되도록 보장하는 우리의 능력에 달려 있습니다.