KI in Virologie: Biohazard-Bedenken steigen

KIs steigende Kompetenz in Virologie-Laboren löst Biohazard-Bedenken aus

Eine bahnbrechende Studie enthüllt, dass hochentwickelte Modelle der künstlichen Intelligenz (KI), einschließlich solcher, die Plattformen wie ChatGPT und Claude antreiben, mittlerweile Problemlösungsfähigkeiten in Virologie-Wet-Labs demonstrieren, die diejenigen erfahrener Virologen mit Doktortitel übertreffen. Diese Enthüllung birgt zwar ein immenses Potenzial für die Förderung der Krankheitsprävention, wirft aber auch erhebliche Bedenken hinsichtlich des potenziellen Missbrauchs von KI zur Schaffung tödlicher Biowaffen auf, insbesondere durch Personen, denen die notwendige Expertise und ethischen Überlegungen fehlen.

Das zweischneidige Schwert der KI in der Virologie

Die Studie, die exklusiv mit TIME geteilt wurde, war eine Gemeinschaftsarbeit von Forschern des Center for AI Safety, des MIT Media Lab, der UFABC (einer brasilianischen Universität) und SecureBio, einer gemeinnützigen Organisation, die sich der Pandemieprävention widmet. Das Forschungsteam konsultierte führende Virologen, um einen äußerst anspruchsvollen Praxistest zu entwerfen, der die Fähigkeit von KI-Modellen bewertete, komplexe Laborverfahren und Protokolle, die üblicherweise in der virologischen Forschung eingesetzt werden, effektiv zu beheben.

Die Ergebnisse des Tests waren bemerkenswert. Virologen mit Doktortitel erreichten trotz ihrer umfassenden Ausbildung und Erfahrung in ihren erklärten Fachgebieten eine durchschnittliche Genauigkeit von nur 22,1 %. Im krassen Gegensatz dazu erreichte das o3-Modell von OpenAI eine beeindruckende Genauigkeit von 43,8 %, während Gemini 2.5 Pro von Google 37,6 % erzielte. Diese Ergebnisse deuten darauf hin, dass KI-Modelle rasch das Wissen und die Fähigkeiten erwerben, die erforderlich sind, um komplexe Aufgaben in Virologie-Laboren auszuführen, und potenziell die Fähigkeiten menschlicher Experten in bestimmten Bereichen übertreffen.

Bedenken hinsichtlich der Erstellung von Biowaffen

Seth Donoughe, ein wissenschaftlicher Mitarbeiter bei SecureBio und Mitautor der Studie, äußerte seine Besorgnis über die Implikationen dieser Ergebnisse. Er merkte an, dass zum ersten Mal in der Geschichte praktisch jeder, der Zugang zu diesen KI-Modellen hat, einen unvoreingenommenen KI-Virologie-Experten zur Verfügung hätte, der ihn potenziell durch die komplexen Laborprozesse führt, die zur Erstellung von Biowaffen erforderlich sind.

Donoughe betonte, dass es im Laufe der Geschichte zahlreiche Versuche gegeben habe, Biowaffen zu entwickeln, aber viele dieser Versuche seien aufgrund des fehlenden Zugangs zur notwendigen Expertise gescheitert. Er warnte davor, dass die weitverbreitete Verfügbarkeit von KI-Modellen, die in der Lage sind, diese Expertise bereitzustellen, ernsthafte Bedenken hinsichtlich des potenziellen Missbrauchs aufwirft und Vorsicht bei der Verteilung dieser Fähigkeiten geboten ist.

  • Das Risiko des Missbrauchs durch Nicht-Experten.
  • Das Potenzial zur Schaffung tödlicher Biowaffen.
  • Die Notwendigkeit zur Vorsicht bei der Verteilung von KI-Virologie-Expertise.

KI-Labore reagieren auf die Bedenken

Als Reaktion auf die Ergebnisse der Studie teilten die Autoren die Ergebnisse mit großen KI-Laboren, was einige zu Maßnahmen veranlasste. xAI veröffentlichte beispielsweise einen Risikomanagementrahmen, in dem die Absicht dargelegt wird, in zukünftigen Versionen seines KI-Modells Grok virologische Schutzmaßnahmen zu implementieren. OpenAI teilte TIME mit, dass es für seine in der vergangenen Woche veröffentlichten neuen Modelle ‘neue systemweite Maßnahmen zur Minderung biologischer Risiken’ eingeführt habe. Anthropic nahm die Ergebnisse der Modellperformance in dem Papier in aktuelle Systemkarten auf, schlug aber keine spezifischen Maßnahmen zur Risikominderung vor. Google’s Gemini lehnte es ab, sich gegenüber TIME zu äußern.

Diese Reaktionen deuten auf ein wachsendes Bewusstsein bei KI-Entwicklern für die potenziellen Risiken hin, die mit den zunehmenden Fähigkeiten der KI in der Virologie verbunden sind, und für die Notwendigkeit, Schutzmaßnahmen zu implementieren, um Missbrauch zu verhindern.

Das Versprechen der KI bei der Bekämpfung von Krankheiten

Trotz der Bedenken hinsichtlich der Erstellung von Biowaffen birgt KI auch ein immenses Potenzial für die Förderung der virologischen Forschung und die Bekämpfung von Infektionskrankheiten. KI-Führer haben lange das Potenzial der KI erkannt, die Biomedizin zu revolutionieren und die Entwicklung neuer Behandlungen und Heilmittel zu beschleunigen.

OpenAI CEO Sam Altman erklärte beispielsweise im Januar im Weißen Haus, dass ‘mit dem Fortschritt dieser Technologie Krankheiten in einem noch nie dagewesenen Tempo geheilt werden’. Dieser Optimismus wird durch ermutigende Anzeichen für Fortschritte in diesem Bereich gestützt. Anfang dieses Jahres entwickelten Forscher am Emerging Pathogens Institute der University of Florida einen Algorithmus, der vorhersagen kann, welche Coronavirus-Variante sich am schnellsten ausbreiten könnte.

Bewertung der Fähigkeit der KI zur Durchführung virologischer Laborarbeit

Während KI vielversprechend darin war, akademische Informationen im Zusammenhang mit der Virologie bereitzustellen, bestand eine große Lücke im Verständnis ihrer Fähigkeit, tatsächlich virologische Laborarbeit durchzuführen. Um diese Lücke zu schließen, entwarfen Donoughe und seine Kollegen einen Test speziell für schwierige, nicht-Google-bare Fragen, die praktische Unterstützung und die Interpretation von Bildern und Informationen erfordern, die normalerweise nicht in akademischen Arbeiten zu finden sind.

Die Fragen wurden so konzipiert, dass sie die Herausforderungen widerspiegeln, denen sich Virologen bei ihrer täglichen Arbeit stellen, wie z. B. die Behebung von Problemen, die beim Kultivieren von Viren in bestimmten Zelltypen und unter bestimmten Bedingungen auftreten.

Das Format war wie folgt konzipiert:

  • Präsentation eines bestimmten Szenarios.
  • Bereitstellung von Details zum Experimentaufbau.
  • Aufforderung an die KI, das wahrscheinlichste Problem zu identifizieren.

KI übertrifft Virologen bei praktischen Tests

Die Ergebnisse des Tests zeigten, dass praktisch jedes KI-Modell Virologen mit Doktortitel übertraf, selbst in ihren eigenen Fachgebieten. Dieses Ergebnis deutet darauf hin, dass KI-Modelle nicht nur in der Lage sind, riesige Mengen an virologischem Wissen abzurufen und zu verarbeiten, sondern dieses Wissen auch anzuwenden, um praktische Probleme im Labor zu lösen.

Die Forscher beobachteten auch, dass die Modelle im Laufe der Zeit eine deutliche Verbesserung zeigten, was darauf hindeutet, dass sie ihre Fähigkeiten in der Virologie kontinuierlich lernen und verfeinern. So steigerte beispielsweise Claude 3.5 Sonnet von Anthropic seine Genauigkeit von seinem Modell vom Juni 2024 auf sein Modell vom Oktober 2024 von 26,9 % auf 33,6 %. Und eine Vorschau von OpenAI’s GPT 4.5 im Februar übertraf GPT-4o um fast 10 Prozentpunkte.

Die Implikationen der wachsenden Fähigkeiten der KI

Dan Hendrycks, der Direktor des Center for AI Safety, betonte, dass KI-Modelle jetzt eine besorgniserregende Menge an praktischem Wissen erwerben. Wenn KI-Modelle tatsächlich in Wet-Lab-Umgebungen so leistungsfähig sind, wie die Studie vermuten lässt, sind die Implikationen weitreichend.

Einerseits könnte KI erfahrenen Virologen bei ihrer kritischen Arbeit zur Bekämpfung von Viren, zur Beschleunigung der Zeitpläne für die Entwicklung von Medikamenten und Impfstoffen sowie zur Verbesserung klinischer Studien und der Krankheitserkennung unschätzbare Hilfe leisten. Tom Inglesby, der Direktor des Johns Hopkins Center for Health Security, merkte an, dass KI Wissenschaftler in verschiedenen Teilen der Welt, insbesondere solche, denen es an spezialisierten Fähigkeiten oder Ressourcen mangelt, befähigen könnte, wertvolle tägliche Arbeit an Krankheiten durchzuführen, die in ihren Ländern auftreten.

  • Beschleunigung der Medizin- und Impfstoffentwicklung.
  • Verbesserung klinischer Studien und der Krankheitserkennung.
  • Befähigung von Wissenschaftlern in ressourcenbeschränkten Umgebungen.

Das Risiko des Missbrauchs durch böswillige Akteure

Andererseits wirft die Studie ernsthafte Bedenken hinsichtlich des potenziellen Missbrauchs von KI durch böswillige Akteure auf, die diese Modelle verwenden könnten, um zu lernen, wie man Viren herstellt, ohne die typische Ausbildung und den Zugang zu benötigen, die für den Zutritt zu einem Biosafety Level 4 (BSL-4)-Labor erforderlich sind, in dem die gefährlichsten und exotischsten Infektionserreger gehandhabt werden. Inglesby warnte, dass KI mehr Menschen mit weniger Ausbildung in die Lage versetzen könnte, Viren zu handhaben und zu manipulieren, was potenziell zu katastrophalen Folgen führen könnte.

Hendrycks forderte KI-Unternehmen auf, Schutzmaßnahmen zu implementieren, um diese Art der Nutzung zu verhindern, und schlug vor, dass ein Versäumnis dies innerhalb von sechs Monaten rücksichtslos wäre. Er schlug vor, dass eine Lösung darin besteht, diese Modelle zu sperren, so dass nur vertrauenswürdige Dritte mit legitimen Gründen für die Manipulation tödlicher Viren, wie z. B. Forscher am MIT Biology Department, Zugang zu ihren ungefilterten Versionen haben.

  • Verhindern des Missbrauchs durch Implementierung von Schutzmaßnahmen.
  • Sperren von Modellen, um den Zugang auf vertrauenswürdige Parteien zu beschränken.
  • Sicherstellen,dass nur autorisierte Forscher Zugriff auf sensible Fähigkeiten haben.

Die Machbarkeit der Selbstregulierung der Industrie

Hendrycks glaubt, dass es für KI-Unternehmen technologisch machbar ist, sich selbst zu regulieren und diese Art von Schutzmaßnahmen zu implementieren. Er äußerte jedoch Bedenken darüber, ob einige Unternehmen zögern oder einfach nicht die notwendigen Schritte unternehmen werden.

xAI, Elon Musks KI-Labor, bestätigte das Papier und signalisierte, dass das Unternehmen ‘möglicherweise’ bestimmte Schutzmaßnahmen bei der Beantwortung von Virologie-Fragen ‘nutzen’ würde, einschließlich der Schulung von Grok, schädliche Anfragen abzulehnen und Eingabe- und Ausgabefilter anzuwenden.

OpenAI erklärte, dass seine neuesten Modelle, das o3 und o4-mini, mit einer Reihe von biologischen Risikomaßnahmen eingesetzt wurden, einschließlich der Blockierung schädlicher Ausgaben. Das Unternehmen berichtete auch, dass es eine tausendstündige Red-Teaming-Kampagne durchgeführt hat, bei der 98,7 % der unsicheren biologischen Konversationen erfolgreich gekennzeichnet und blockiert wurden.

  • Schulung von KI-Modellen zur Ablehnung schädlicher Anfragen.
  • Anwenden von Eingabe- und Ausgabefiltern, um gefährliche Inhalte zu blockieren.
  • Durchführen von Red-Teaming-Übungen zur Identifizierung und Minderung von Risiken.

Die Notwendigkeit von Politik und Regulierung

Trotz dieser Bemühungen argumentiert Inglesby, dass die Selbstregulierung der Industrie nicht ausreicht, und fordert Gesetzgeber und politische Führungskräfte auf, einen politischen Ansatz zur Regulierung der Bio-Risiken der KI zu entwickeln. Er betonte, dass einige Unternehmen zwar Zeit und Geld investieren, um diese Risiken anzugehen, andere jedoch möglicherweise nicht, wodurch eine Situation entsteht, in der die Öffentlichkeit keinen Einblick in das hat, was geschieht.

Inglesby schlug vor, dass vor der Veröffentlichung einer neuen Version eines LLM bewertet werden sollte, ob es keine pandemischen Ergebnisse hervorbringen wird. Dies würde einen umfassenderen und koordinierteren Ansatz zur Regulierung der Fähigkeiten der KI in der Virologie erfordern, an dem sowohl die Industrie als auch staatliche Akteure beteiligt sind.

  • Bewertung von LLMs vor der Veröffentlichung, um Ergebnisse auf Pandemieebene zu verhindern.
  • Entwicklung eines umfassenden politischen Ansatzes zur Regulierung der Bio-Risiken der KI.
  • Einbeziehung von Industrie- und Regierungsakteuren in den Regulierungsprozess.

Ein Gleichgewicht zwischen Innovation und Sicherheit finden

Die Herausforderung besteht darin, ein Gleichgewicht zwischen der Förderung von Innovationen in der KI und der Sicherstellung zu finden, dass diese leistungsstarken Technologien nicht missbraucht werden, um tödliche Biowaffen zu entwickeln. Dies erfordert einen vielschichtigen Ansatz, der Folgendes umfasst:

  • Entwicklung robuster Schutzmaßnahmen zur Verhinderung von Missbrauch.
  • Beschränkung des Zugangs zu sensiblen Fähigkeiten auf vertrauenswürdige Parteien.
  • Regulierung der Fähigkeiten der KI in der Virologie.
  • Förderung verantwortungsvoller Innovation und ethischer Überlegungen.

Indem wir diese Schritte unternehmen, können wir das immense Potenzial der KI nutzen, um die virologische Forschung voranzutreiben und Infektionskrankheiten zu bekämpfen und gleichzeitig die Risiken zu mindern, die mit ihrem Missbrauch verbunden sind. Die Zukunft der KI in der Virologie hängt von unserer Fähigkeit ab, diese komplexe Landschaft verantwortungsvoll zu bewältigen und sicherzustellen, dass diese leistungsstarken Technologien zum Wohle der Menschheit eingesetzt werden.