Googles Gemini 2.5 Pro KI-Modell steht aufgrund des Fehlens eines entscheidenden Sicherheitsberichts in der Kritik. Diese Auslassung scheint im Widerspruch zu den Versprechungen zu stehen, die Google gegenüber der US-Regierung und auf internationalen Gipfeltreffen gemacht hat, was Bedenken hinsichtlich des Engagements des Unternehmens für Transparenz und verantwortungsvolle KI-Entwicklung aufwirft. Experten stellen nun in Frage, ob Google und andere führende KI-Labore ihre Zusagen zurücknehmen, die Öffentlichkeit über die Fähigkeiten und potenziellen Risiken ihrer KI-Modelle zu informieren.
Gebrochene Versprechen und Nichterfüllte Zusagen
Googles Versäumnis, einen Sicherheitsforschungsbericht zusammen mit der Veröffentlichung von Gemini 2.5 Pro vorzulegen, wird als Bruch früherer Zusagen angesehen. Im Juli 2023 nahm Google an einem vom Weißen Haus unter der Leitung der Biden-Administration einberufenen Treffen teil, bei dem es sich anderen prominenten KI-Unternehmen anschloss, um eine Reihe von Zusagen zu unterzeichnen. Eine wichtige Zusage war die Veröffentlichung von Berichten für alle wichtigen öffentlichen Modellversionen, die den damaligen Stand der Technik der KI übertrafen. Angesichts seiner Fortschritte würde Gemini 2.5 Pro mit ziemlicher Sicherheit unter den Geltungsbereich dieser Zusagen des Weißen Hauses fallen.
Zu diesem Zeitpunkt stimmte Google zu, dass diese Berichte Folgendes umfassen sollten:
- Durchgeführte Sicherheitsbewertungen, einschließlich Bewertungen gefährlicher Fähigkeiten.
- Signifikante Leistungsbeschränkungen, die sich auf geeignete Anwendungsfälle auswirken könnten.
- Diskussionen über die Auswirkungen des Modells auf gesellschaftliche Risiken wie Fairness und Voreingenommenheit.
- Ergebnisse von Adversarial Testing, um die Eignung des Modells für den Einsatz zu bewerten.
Im Anschluss an das G7-Treffen in Hiroshima, Japan, im Oktober 2023 verpflichteten sich Google und andere Unternehmen, einen freiwilligen Verhaltenskodex für die Entwicklung fortschrittlicher KI einzuhalten. Dieser G7-Kodex betonte die Bedeutung der öffentlichen Berichterstattung über die Fähigkeiten, Einschränkungen sowie geeigneten und ungeeigneten Anwendungen fortschrittlicher KI-Systeme. Ziel war es, die Transparenz und Rechenschaftspflicht im KI-Bereich zu verbessern.
Im Mai 2024 bekräftigte Google seine Zusagen auf einem internationalen Gipfeltreffen zur KI-Sicherheit in Seoul, Südkorea. Das Unternehmen versprach, die Fähigkeiten, Einschränkungen, geeigneten und unangemessenen Anwendungsfälle des Modells öffentlich offenzulegen und Transparenz hinsichtlich seiner Risikobewertungen und -ergebnisse zu gewährleisten.
Googles Reaktion und Verzögerte Transparenz
Als Reaktion auf Anfragen zu dem fehlenden Sicherheitsbericht erklärte ein Sprecher von Google DeepMind, der für die Entwicklung von Gemini-Modellen zuständigen Abteilung, dass der neueste Gemini-Modell vor der Veröffentlichung Tests unterzogen worden sei. Dazu gehörten interne Entwicklungsbewertungen und Zusicherungsbewertungen, die vor der Veröffentlichung des Modells durchgeführt wurden. Der Sprecher gab außerdem an, dass ein Bericht mit zusätzlichen Sicherheitsinformationen und Modellkarten ‘in Kürze’ erscheinen würde. Obwohl die erste Erklärung am 2. April abgegeben wurde, wurde bis heute keine Modellkarte veröffentlicht.
Ein Breiterer Trend der Vernachlässigung der Sicherheitsberichterstattung
Google ist nicht allein mit der Kritik an seinem Engagement für die KI-Sicherheit. Anfang des Jahres sah sich auch OpenAI mit Kritik konfrontiert, weil es versäumt hatte, rechtzeitig eine Modellkarte für sein Deep-Research-Modell zu veröffentlichen. Stattdessen veröffentlichten sie Wochen nach der ersten Veröffentlichung des Projekts eine Systemkarte. In ähnlicher Weise wurde Metas jüngster Sicherheitsbericht für Llama 4 dafür kritisiert, zu kurz und wenig detailliert zu sein.
Diese Fälle verdeutlichen einen besorgniserregenden Trend in der KI-Industrie, bei dem einige große Labore die Sicherheitsberichterstattung nicht im Einklang mit ihren Modellveröffentlichungen priorisieren. Dies ist besonders besorgniserregend angesichts der freiwilligen Zusagen, die diese Unternehmen gegenüber der US-Regierung und der Weltgemeinschaft zur Erstellung solcher Berichte gemacht haben. Diese Zusagen wurden ursprünglich im Jahr 2023 gegenüber der Biden-Administration gemacht und anschließend durch Zusagen zur Einhaltung des von den G7-Staaten auf ihrem KI-Gipfel in Hiroshima verabschiedeten KI-Verhaltenskodex bekräftigt.
Kevin Bankston, ein Berater für KI-Governance am Center for Democracy and Technology, äußerte seine Enttäuschung und erklärte, dass diese Versäumnisse die Glaubwürdigkeit der beteiligten Unternehmen untergraben und Fragen zu ihrem Engagement für eine verantwortungsvolle KI-Entwicklung aufwerfen.
Unbeantwortete Fragen und Externe Bewertung
Die Erklärung des Google-Sprechers ging auch nicht auf spezifische Fragen ein, ob Gemini 2.5 Pro dem U.K. AI Security Institute oder dem U.S. AI Safety Institute zur externen Bewertung vorgelegt wurde. Zuvor hatte Google frühere Generationen seiner Gemini-Modelle dem U.K. AI Safety Institute zur Bewertung vorgelegt.
Auf dem Seoul Safety Summit unterzeichnete Google die ‘Frontier AI Safety Commitments’, die eine Zusage zur öffentlichen Transparenz bei der Umsetzung von Sicherheitsbewertungen enthielten. Die einzigen Ausnahmen waren Fälle, in denen dies das Risiko erhöhen oder sensible kommerzielle Informationen in einem Ausmaß preisgeben würde, das in keinem angemessenen Verhältnis zum gesellschaftlichen Nutzen steht. In der Zusage wurde außerdem festgehalten, dass detailliertere Informationen, die nicht öffentlich zugänglich gemacht werden können, dennoch an die Regierungen der Länder weitergegeben werden sollten, in denen die Unternehmen ihren Sitz haben, was im Fall von Google die USA wären.
Die Unternehmen verpflichteten sich außerdem, zu erläutern, wie externe Akteure wie Regierungen, die Zivilgesellschaft, Akademiker und die Öffentlichkeit in den Prozess der Bewertung der Risiken ihrer KI-Modelle einbezogen werden. Googles Versäumnis, direkte Fragen zu beantworten, ob es Gemini 2.5 Pro den US-amerikanischen oder britischen Regierungsprüfern vorgelegt hat, verstößt möglicherweise auch gegen diese Verpflichtung.
Priorisierung der Bereitstellung vor Transparenz
Das Fehlen eines Sicherheitsberichts hat Bedenken geweckt, dass Google möglicherweise eine rasche Bereitstellung gegenüber Transparenz und gründlichen Sicherheitsbewertungen priorisiert. Sandra Wachter, Professorin und Senior Researcher am Oxford Internet Institute, betonte die Bedeutung von Transparenz in verantwortungsvoller Forschung und Innovation. Sie zog eine Analogie zu anderen Branchen und erklärte: ‘Wenn dies ein Auto oder ein Flugzeug wäre, würden wir nicht sagen: Lassen Sie uns dies so schnell wie möglich auf den Markt bringen und wir werden uns später mit den Sicherheitsaspekten befassen.’ Wachter äußerte die Besorgnis, dass im Bereich der generativen KI eine vorherrschende Haltung herrscht, ‘dies herauszubringen und sich Sorgen zu machen, zu untersuchen und die Probleme später zu beheben’.
Politische Veränderungen und Wettbewerbsdruck
Jüngste politische Veränderungen, gepaart mit der sich verschärfenden Rivalität zwischen Big-Tech-Unternehmen, tragen möglicherweise zu einer Abkehr von früheren Sicherheitsverpflichtungen bei, da die Unternehmen darum wetteifern, KI-Modelle einzusetzen. Wachter stellte fest, dass ‘der Druckpunkt für diese Unternehmen, schneller, schneller, der Erste, der Beste, dominant zu sein, stärker ausgeprägt ist als früher’, und fügte hinzu, dass die Sicherheitsstandards in der gesamten Branche sinken.
Diese sinkenden Standards könnten durch die wachsende Besorgnis unter den Technologie- und einigen Regierungen darüber verursacht werden, dass KI-Sicherheitsverfahren Innovationen behindern. In den USA hat die Trump-Administration ihre Absicht signalisiert, im Vergleich zur Biden-Administration einen weniger strengen Ansatz zur KI-Regulierung zu verfolgen. Die neue Regierung hat bereits eine von Biden erlassene Exekutivanordnung zu KI aufgehoben und engere Beziehungen zu führenden Technologieunternehmen aufgebaut. Auf dem jüngsten KI-Gipfel in Paris erklärte der US-Vizepräsident JD Vance, dass ‘wachstumsfördernde KI-Politiken’ Vorrang vor Sicherheit haben sollten und dass KI ‘eine Chance ist, die die Trump-Administration nicht verschenken wird’.
Auf demselben Gipfel lehnten sowohl Großbritannien als auch die USA die Unterzeichnung einer internationalen Vereinbarung über künstliche Intelligenz ab, die einen ‘offenen’, ‘integrativen’ und ‘ethischen’ Ansatz für die Entwicklung der Technologie förderte.
Die Notwendigkeit Klarer Transparenzanforderungen
Bankston betonte: ‘Wenn wir uns nicht darauf verlassen können, dass diese Unternehmen selbst die grundlegendsten Sicherheits- und Transparenzverpflichtungen bei der Veröffentlichung neuer Modelle erfüllen - Verpflichtungen, die sie selbst freiwillig eingegangen sind -, dann veröffentlichen sie eindeutig zu schnell Modelle in ihrem Wettbewerbsrennen um die Dominanz des Feldes.’ Er fügte hinzu, dass es angesichts der Tatsache, dass KI-Entwickler diese Verpflichtungen weiterhin nicht erfüllen, Aufgabe der Gesetzgeber sein wird, klare Transparenzanforderungen zu entwickeln und durchzusetzen, denen sich die Unternehmen nicht entziehen können.
Die Weiteren Auswirkungen auf die KI-Governance
Die Kontroverse um Googles Gemini 2.5 Pro und den fehlenden Sicherheitsbericht unterstreicht die dringende Notwendigkeit robuster KI-Governance-Frameworks. Diese Rahmenwerke sollten wichtige Themen wie die folgenden behandeln:
- Transparenz: Sicherstellen, dass KI-Entwickler transparent über die Fähigkeiten, Einschränkungen und potenziellen Risiken ihrer Modelle sind.
- Rechenschaftspflicht: Festlegung klarer Verantwortlichkeiten für die Entwicklung und den Einsatz von KI-Systemen.
- Sicherheit: Implementierung rigoroser Sicherheitsprüfungen und -bewertungsverfahren, um das Schadensrisiko zu minimieren.
- Ethische Überlegungen: Integration ethischer Grundsätze in das Design und die Entwicklung von KI-Systemen.
- Öffentliches Engagement: Einbeziehung der Öffentlichkeit, um ein breiteres Verständnis von KI und ihren Auswirkungen zu fördern.
- Internationale Zusammenarbeit: Internationale Zusammenarbeit zur Entwicklung gemeinsamer Standards und bewährter Verfahren für die KI-Governance.
Der Mangel an Transparenz bei Gemini 2.5 Pro verdeutlicht die potenziellen Konsequenzen der Vernachlässigung dieser wichtigen Aspekte der KI-Governance. Ohne ausreichende Transparenz und Rechenschaftspflicht wird es schwierig, die tatsächlichen Auswirkungen von KI-Systemen zu beurteilen und sicherzustellen, dass sie verantwortungsvoll und ethisch entwickelt und eingesetzt werden.
Der Nächste Schritt: Ein Aufruf zu Mehr Verantwortung
Die KI-Industrie befindet sich an einem kritischen Punkt. Da KI-Technologien immer leistungsfähiger und allgegenwärtiger werden, ist es wichtig, dass Entwickler Sicherheit, Transparenz und ethische Überlegungen priorisieren. Die Kontroverse um Gemini 2.5 Pro erinnert daran, dass freiwillige Zusagen nicht immer ausreichen. Regierungen und Aufsichtsbehörden müssen eine aktivere Rolle bei der Festlegung klarer Standards und der Durchsetzung der Einhaltung spielen.
Darüber hinaus ist es für KI-Entwickler von entscheidender Bedeutung, sich mit der Öffentlichkeit auszutauschen und ein breiteres Verständnis von KI und ihren Auswirkungen zu fördern. Dies umfasst die Transparenz über die Einschränkungen und potenziellen Risiken von KI-Systemen sowie die Maßnahmen, die zur Minderung dieser Risiken ergriffen werden. Durch die Zusammenarbeit können die KI-Industrie, die Regierungen und die Öffentlichkeit sicherstellen, dass KI-Technologien in einer Weise entwickelt und eingesetzt werden, die der Gesellschaft als Ganzes zugute kommt.