KI-Suche lügt, und es wird schlimmer

Die Illusion der Genauigkeit

Das grundlegende Versprechen von Suchmaschinen war es, Benutzer mit glaubwürdigen Quellen zu verbinden. Dieses Versprechen wird nun ausgehöhlt. KI-gestützte Suchwerkzeuge priorisieren zunehmend Geschwindigkeit gegenüber Substanz und produzieren Antworten, die sicher erscheinen, denen aber die wesentliche Grundlage überprüfbarer Beweise fehlt. Wir erleben eine Verschiebung von einem System, das Benutzer zu zuverlässigen Informationen führt, zu einem System, das Antworten herstellt, oft ohne Rücksicht auf deren Wahrheitsgehalt.

Dies ist nicht nur eine Frage gelegentlicher Fehler. Es ist ein systemisches Problem. Die CJR-Studie zeigt, dass KI-Suchmaschinen nicht nur Fehler machen, sondern aktiv eine Realität konstruieren, die von überprüfbaren Quellen losgelöst ist. Sie sammeln Inhalte aus dem gesamten Web, aber anstatt Benutzer zu den Originalquellen zu leiten – den Websites, die Informationen mühsam produzieren und veröffentlichen – liefern sie sofortige, oft erfundene Antworten.

Der Traffic-Verlust und die Phantom-Zitate

Die Folgen dieses Ansatzes sind weitreichend. Die unmittelbare Auswirkung ist eine erhebliche Reduzierung des Datenverkehrs zu den Originalquellen der Informationen. Websites, Nachrichtenorganisationen und Forscher, die Zeit und Ressourcen in die Erstellung von Inhalten investieren, werden umgangen. Benutzer erhalten ihre Antworten direkt von der KI, ohne die Websites besuchen zu müssen, von denen die Informationen stammen.

Eine separate Studie bestätigt diesen alarmierenden Trend und stellt fest, dass die Klickraten von KI-generierten Suchergebnissen und Chatbots erheblich niedriger sind als die von herkömmlichen Suchmaschinen wie Google. Dies bedeutet, dass das Lebenselixier von Online-Inhalten – die Fähigkeit, ein Publikum zu erreichen – langsam abgewürgt wird.

Aber das Problem geht noch tiefer. Diese KI-Tools versäumen es nicht nur, Quellen zu nennen, sie erstellen oft Phantom-Zitate. Sie generieren Links zu nicht existierenden Webseiten oder zu URLs, die defekt oder irrelevant sind. Dies ist vergleichbar mit einem Studenten, der eine Forschungsarbeit schreibt und Quellen erfindet, um seine Behauptungen zu untermauern. Es ist nicht nur schlampig, es ist ein grundlegender Verstoß gegen die intellektuelle Ehrlichkeit.

Ein tiefer Einblick in die Täuschung

Die CJR-Studie analysierte akribisch die Leistung mehrerer führender KI-Suchmodelle. Die Ergebnisse sind zutiefst beunruhigend. Mehr als die Hälfte der von Googles Gemini und xAIs Grok 3 generierten Zitate – zwei prominenten Akteuren in der KI-Suchlandschaft – führten zu erfundenen oder unzugänglichen Webseiten. Dies ist keine kleine Panne, es ist ein systemisches Versagen.

Und das Problem geht über Zitate hinaus. Chatbots im Allgemeinen lieferten in erstaunlichen mehr als 60 % der Fälle falsche Informationen. Unter den bewerteten Modellen stach Grok 3 als schlimmster Übeltäter hervor, mit schockierenden 94 % seiner Antworten, die Ungenauigkeitenenthielten. Gemini schnitt zwar etwas besser ab, lieferte aber immer noch nur bei jedem zehnten Versuch eine vollständig korrekte Antwort. Selbst Perplexity, das sich als das genaueste der getesteten Modelle herausstellte, lieferte immer noch in 37 % der Fälle falsche Antworten.

Diese Zahlen sind nicht nur Statistiken, sie stellen einen grundlegenden Zusammenbruch der Zuverlässigkeit von Informationen dar. Sie legen nahe, dass genau die Werkzeuge, die uns helfen sollen, die Komplexität der digitalen Welt zu navigieren, uns tatsächlich in die Irre führen.

Ignorieren der Regeln: Das Robot Exclusion Protocol

Die Autoren der Studie entdeckten einen weiteren beunruhigenden Aspekt dieser KI-gesteuerten Täuschung. Mehrere der KI-Modelle schienen das Robot Exclusion Protocol absichtlich zu missachten. Dieses Protokoll ist ein standardisierter, weit verbreiteter Mechanismus, der es Websites ermöglicht, zu steuern, welche Teile ihrer Website von automatisierten Bots abgerufen und durchsucht werden können. Es ist eine Möglichkeit für Websites, ihre Inhalte zu schützen und zu verwalten, wie sie verwendet werden.

Die Tatsache, dass KI-Suchmaschinen dieses Protokoll ignorieren, wirft ernsthafte ethische Fragen auf. Es deutet auf eine Missachtung der Rechte von Urhebern von Inhalten und eine Bereitschaft hin, Online-Informationen ohne Erlaubnis auszunutzen. Dieses Verhalten untergräbt die Grundlagen des Webs, das auf einem empfindlichen Gleichgewicht zwischen dem Zugang zu Informationen und dem Schutz des geistigen Eigentums beruht.

Echos früherer Warnungen

Die Ergebnisse der CJR-Studie sind nicht isoliert. Sie stimmen mit einer früheren Studie überein, die im November 2024 veröffentlicht wurde und sich auf die Suchfunktionen von ChatGPT konzentrierte. Diese frühere Untersuchung ergab ein konsistentes Muster von selbstsicheren, aber falschen Antworten, irreführenden Zitaten und unzuverlässiger Informationsbeschaffung. Mit anderen Worten, die vom CJR identifizierten Probleme sind nicht neu, sie sind persistent und systemisch.

Die Erosion von Vertrauen und Handlungsfähigkeit

Experten auf diesem Gebiet warnen seit einiger Zeit vor den Gefahren generativer KI. Kritiker wie Chirag Shah und Emily M. Bender haben Bedenken geäußert, dass KI-Suchmaschinen die Handlungsfähigkeit der Benutzer untergraben, Verzerrungen beim Informationszugang verstärken und häufig irreführende oder sogar toxische Antworten präsentieren, die Benutzer möglicherweise ohne Frage akzeptieren.

Das Kernproblem ist, dass diese KI-Modelle so konzipiert sind, dass sie autoritär klingen, selbst wenn sie falsch liegen. Sie werden auf riesigen Datenmengen aus Text und Code trainiert und sind in der Lage, Antworten zu generieren, die die menschliche Sprache mit bemerkenswerter Flüssigkeit nachahmen. Aber diese Flüssigkeit kann täuschen. Sie kann die Tatsache verschleiern, dass die zugrunde liegenden Informationen fehlerhaft, erfunden oder einfach falsch sind.

Die Mechanik der Fehlinformation

Die CJR-Studie umfasste eine detaillierte Analyse von 1.600 Abfragen, die darauf abzielten, zu vergleichen, wie verschiedene generative KI-Suchmodelle Informationen abrufen. Die Forscher konzentrierten sich auf Schlüsselelemente wie Schlagzeilen, Herausgeber, Veröffentlichungsdaten und URLs. Sie testeten eine Reihe von Modellen, darunter ChatGPT Search, Microsoft CoPilot, DeepSeek Search, Perplexity (und seine Pro-Version), xAIs Grok-2 und Grok-3 Search sowie Google Gemini.

Die Testmethodik war streng. Die Forscher verwendeten direkte Auszüge aus zehn zufällig ausgewählten Artikeln, die von 20 verschiedenen Verlagen stammten. Dieser Ansatz stellte sicher, dass die Abfragen auf realen Inhalten basierten und dass die Modelle auf ihre Fähigkeit bewertet wurden, diese Inhalte genau abzurufen und darzustellen.

Die Ergebnisse, wie bereits erwähnt, zeichnen ein düsteres Bild des Zustands der KI-gesteuerten Suche. Die Werkzeuge, die zunehmend zu unseren primären Zugangstoren zu Informationen werden, sind nachweislich unzuverlässig, anfällig für Erfindungen und oft respektlos gegenüber den Quellen, auf die sie sich stützen.

Die Implikationen für die Zukunft der Information

Die Auswirkungen dieser weit verbreiteten Fehlinformationen sind tiefgreifend. Wenn wir den Werkzeugen, die wir zum Auffinden von Informationen verwenden, nicht vertrauen können, wie können wir dann fundierte Entscheidungen treffen? Wie können wir uns an einer sinnvollen Debatte beteiligen? Wie können wir die Mächtigen zur Rechenschaft ziehen?

Der Aufstieg der KI-gestützten Suche mit ihren inhärenten Fehlern und Verzerrungen stellt eine erhebliche Bedrohung für das Gefüge unseres Informationsökosystems dar. Er untergräbt die Glaubwürdigkeit von Nachrichtenorganisationen, Forschern und anderen Urhebern von Inhalten. Er untergräbt das Vertrauen der Öffentlichkeit in Institutionen. Und er ermächtigt diejenigen, die Desinformation verbreiten und die öffentliche Meinung manipulieren wollen.

Die Herausforderung, vor der wir stehen, besteht nicht nur darin, die Genauigkeit von KI-Suchmaschinen zu verbessern. Es geht darum, die Art und Weise, wie wir die Suche nach Informationen im digitalen Zeitalter angehen, grundlegend zu überdenken. Wir müssen Transparenz, Rechenschaftspflicht und Respekt vor den Informationsquellen priorisieren. Wir müssen Werkzeuge und Strategien entwickeln, die Benutzer in die Lage versetzen, die Informationen, denen sie online begegnen, kritisch zu bewerten. Und wir müssen eine Kultur der Skepsis und des kritischen Denkens fördern, in der wir nicht einfach passive Empfänger von Informationen sind, sondern aktive Teilnehmer an der Suche nach der Wahrheit. Die Zukunft des informierten Diskurses und vielleicht sogar der Demokratie selbst hängt davon ab.


Die Krise der Fehlinformation in der KI-gestützten Suche ist nicht nur ein technisches Problem, sondern ein gesellschaftliches. Sie erfordert eine vielschichtige Antwort, an der nicht nur Ingenieure und Entwickler, sondern auch Journalisten, Pädagogen, politische Entscheidungsträger und die breite Öffentlichkeit beteiligt sind. Wir müssen gemeinsam daran arbeiten, ein zuverlässigeres, vertrauenswürdigeres und transparenteres Informationsökosystem aufzubauen, das den Bedürfnissen informierter Bürger dient, nicht den Verbreitern von Unwahrheiten.


Der aktuelle Kurs ist nicht nachhaltig. Wenn die KI-Suche weiterhin Geschwindigkeit und Bequemlichkeit über Genauigkeit und Wahrheit stellt, riskieren wir, eine Welt zu schaffen, in der Fehlinformationen die Oberhand gewinnen und in der die Vorstellung von objektiver Realität immer schwerer fassbar wird. Der Einsatz ist einfach zu hoch, um dies zuzulassen.