In der kurzen Konfliktphase zwischen Indien und Pakistan kam es zu einem sprunghaften Anstieg von Fehlinformationen, und Social-Media-Nutzer begannen, sich zur Überprüfung auf KI-Chatbots zu verlassen. Diese Chatbots lieferten jedoch eher falsche Informationen, was ihre Unzuverlässigkeit als Werkzeuge zur Faktenprüfung unterstreicht. Da grosse Technologieplattformen die Zahl der menschlichen Faktenprüfer immer weiter reduzieren, verlassen sich die Nutzer zunehmend auf KI-gesteuerte Chatbots wie Grok von xAI, ChatGPT von OpenAI und Gemini von Google, um zuverlässige Informationen zu erhalten.
Der Aufstieg der KI-Chatbots zur Faktenprüfung
Auf Elon Musks Plattform X (ehemals Twitter) ist die Frage "@Grok, ist das wahr?" zu einer gängigen Anfrage von Nutzern geworden. Grok, ein in X integrierter KI-Assistent, spiegelt den Trend wider, dass Nutzer in den sozialen Medien eine sofortige Widerlegung von Falschinformationen suchen. Die Antworten dieser KI-Chatbots sind jedoch oft mit Falschinformationen behaftet.
Grok ist in jüngster Zeit in die Kritik geraten, weil er die rechtsextreme Verschwörungstheorie des "Weissen Völkermords" in unpassende Anfragen einstreute. Grok identifizierte fälschlicherweise altes Videomaterial vom Flughafen Khartum im Sudan als Raketenangriff auf die pakistanische Nur Khan Air Force Base während des indisch-pakistanischen Konflikts. Darüber hinaus wurde ein brennendes Gebäude in Nepal fälschlicherweise als "wahrscheinliche" militärische Reaktion Pakistans auf einen Angriff Indiens identifiziert.
Grenzen der KI-Faktenprüfung
McKenzie Sadeghi, eine Forscherin der Informationsüberwachungsorganisation NewsGuard, sagte gegenüber der Nachrichtenagentur AFP: "Da X und andere grosse Technologieunternehmen ihre Investitionen in menschliche Faktenprüfer reduziert haben, verlassen sich die Leute zunehmend auf Grok als Faktenprüfer." Sie warnte: "Unsere Forschung hat wiederholt ergeben, dass KI-Chatbots keine zuverlässigen Quellen für Nachrichten und Informationen sind, insbesondere nicht im Zusammenhang mit Eilmeldungen."
Die Forschung von NewsGuard ergab, dass zehn führende Chatbots, darunter Grok, leicht Falschinformationen wiederholten, darunter russische Desinformationsnarrative sowie falsche oder irreführende Behauptungen im Zusammenhang mit den jüngsten australischen Wahlen. Eine kürzlich vom Tow Center for Digital Journalism der Columbia University durchgeführte Studie über acht KI-Suchwerkzeuge ergab, dass Chatbots "im Allgemeinen nicht gut darin sind, sich zu weigern, Fragen zu beantworten, die sie nicht genau beantworten können, sondern ungenaue oder spekulative Antworten geben."
AFP-Faktenprüfer in Uruguay befragten Gemini nach einem KI-generierten Bild einer Frau. Gemini bestätigte nicht nur die Echtheit des Bildes, sondern erfand auch Details über die Identität der Frau und den Ort, an dem das Bild angeblich aufgenommen wurde.
Grok kennzeichnete kürzlich ein Video, das angeblich eine riesige Anakonda zeigt, die im Amazonas schwimmt, als "echt" und berief sich sogar auf eine glaubwürdig klingende wissenschaftliche Expedition, um seine falschen Behauptungen zu untermauern. Tatsächlich handelte es sich bei dem Video um eine KI-generiertes Video, und AFP-Faktenprüfer in Lateinamerika berichteten, dass sich viele Nutzer auf Groks Einschätzung als Beweis für die Echtheit des Videos beriefen.
Bedenken hinsichtlich der KI-Faktenprüfung
Diese Ergebnisse haben Bedenken ausgelöst, da Umfragen zeigen, dass immer mehr Online-Nutzer für die Sammlung und Überprüfung von Informationen von traditionellen Suchmaschinen zu KI-Chatbots wechseln. Gleichzeitig kündigte Meta Anfang des Jahres an, sein Programm zur Faktenprüfung durch Dritte in den Vereinigten Staaten zu beenden und die Aufgabe der Widerlegung von Falschinformationen an normale Nutzer zu übertragen, wobei ein Modell namens "Community Notes" übernommen wird, das von der Plattform X gefördert wird. Forscher haben jedoch wiederholt die Wirksamkeit von "Community Notes" bei der Bekämpfung von Falschinformationen in Frage gestellt.
Die menschliche Faktenprüfung ist seit langem ein Zankapfel im polarisierten politischen Klima, insbesondere in den Vereinigten Staaten, wo Konservative behaupten, sie unterdrücke die freie Meinungsäusserung und zensiere rechte Inhalte, eine Behauptung, die von professionellen Faktenprüfern entschieden zurückgewiesen wird.
AFP arbeitet derzeit in 26 Sprachen mit dem Faktenprüfungsprogramm von Facebook zusammen, unter anderem in Asien, Lateinamerika und der Europäischen Union.
Die Qualität und Genauigkeit von KI-Chatbots kann je nach Art ihrer Schulung und Programmierung variieren, was Bedenken hinsichtlich der Möglichkeit politischer Einflussnahme oder Kontrolle auf ihre Ergebnisse aufwirft.
xAI von Musk machte kürzlich "nicht autorisierte Änderungen" für Groks Erzeugung ungefragter Beiträge verantwortlich, in denen auf einen "Völkermord an Weissen" in Südafrika Bezug genommen wurde. Als der KI-Experte David Caswell Grok fragte, wer seine Systemaufforderung geändert haben könnte, nannte der Chatbot Musk als den "wahrscheinlichsten" Schuldigen.
Musk ist ein in Südafrika geborener Milliardär und ein Unterstützer des US-Präsidenten Donald Trump. Er hat zuvor unbegründete Behauptungen aufgestellt, wonach südafrikanische Politiker "offen einen Völkermord an Weissen" befürworten.
Angie Holan, Direktorin des International Fact-Checking Network, sagte gegenüber der Nachrichtenagentur AFP: "Wir haben gesehen, dass KI-Assistenten Ergebnisse erfinden oder voreingenommene Antworten geben können, nachdem menschliche Programmierer ihre Anweisungen speziell geändert haben." "Ich bin besonders besorgt darüber, wie Grok Anfragen zu sehr sensiblen Themen behandelt, nachdem er Anweisungen erhalten hat, vorab genehmigte Antworten zu geben."
Risiken von KI-Chatbots im Informationsbereich
Der zunehmende Einsatz von KI-Chatbots zur Bereitstellung von Informationen wirft einige ernsthafte Bedenken auf, die mit ihrem potenziellen irreführenden und manipulativen Einfluss verbunden sind. Obwohl diese Technologien Vorteile beim schnellen Zugriff auf Informationen und der Vereinfachung der Forschung bieten, können ihre inhärenten Einschränkungen und Verzerrungen unbeabsichtigt oder absichtlich zur Verbreitung von Fehlinformationen oder Propaganda beitragen.
Inhärente Einschränkungen von KI-Chatbots
KI-Chatbots lernen durch die Analyse grosser Mengen an Textdaten, aber es fehlt ihnen die Fähigkeit zum kritischen Denken, die der Mensch besitzt. Das bedeutet, dass sie Muster aus den Daten extrahieren und scheinbar plausible Antworten generieren können, ohne jedoch die zugrunde liegende Bedeutung oder den Kontext wirklich zu verstehen. Dieser Mangel an Wissen kann zu ungenauen, unvollständigen oder irreführenden Informationen führen.
Darüber hinaus können die Trainingsdaten von KI-Chatbots Verzerrungen enthalten, die sich in den generierten Antworten widerspiegeln. Wenn die Trainingsdaten beispielsweise hauptsächlich aus einer bestimmten Quelle oder Perspektive stammen, kann der Chatbot eine Präferenz für diese Quelle oder Perspektive zeigen und so voreingenommene Informationen verbreiten.
Risiken durch KI-Chatbots
Da immer mehr Menschen auf KI-Chatbots angewiesen sind, um Informationen zu erhalten, steigt auch das Risiko der Verbreitung von Fehlinformationen. Wenn ein Chatbot ungenaue oder irreführende Informationen generiert, können Benutzer diese unwissentlich akzeptieren und verbreiten, was zur Verbreitung falscher Überzeugungen führt.
Darüber hinaus können KI-Chatbots für böswillige Zwecke eingesetzt werden, z. B. zur Verbreitung von Propaganda oder zur Manipulation der öffentlichen Meinung. Durch die sorgfältige Gestaltung der Trainingsdaten oder die Anpassung der Algorithmen können böswillige Akteure Chatbots so manipulieren, dass sie bestimmte Arten von Antworten generieren, um die Überzeugungen und das Verhalten der Benutzer zu beeinflussen.
Wie man Risiken mindern kann
Um die mit KI-Chatbots verbundenen Risiken zu mindern, sind eine Reihe von Massnahmen erforderlich. Erstens sollten sich die Entwickler bemühen, sicherzustellen, dass die Trainingsdaten von KI-Chatbots so umfassend und unvoreingenommen wie möglich sind. Dies kann die Einbeziehung einer breiten Palette von Datenstichproben aus verschiedenen Quellen und Perspektiven erforderlich machen, um die Auswirkungen von Verzerrungen zu reduzieren.
Zweitens müssen KI-Chatbots strengen Tests und Bewertungen unterzogen werden, um Ungenauigkeiten oder voreingenommene Tendenzen zu erkennen und zu korrigieren. Dies kann die manuelle Überprüfung der von Chatbots generierten Antworten und die Verwendung verschiedener Metriken zur Bewertung ihrer Genauigkeit und Unparteilichkeit erfordern.
Drittens sollten Nutzer kritisch denken und den von KI-Chatbots bereitgestellten Informationen nicht blindlings vertrauen. Nutzer sollten Informationen immer aus verschiedenen Quellen vergleichen und sich der potenziellen Verzerrungen von Chatbots bewusst sein.
Die Rolle von Technologieplattformen und Communitys
Technologieplattformen und Communitys spielen eine wichtige Rolle bei der Regulierung und Überwachung der von KI-Chatbots generierten Inhalte. Plattformen können Strategien implementieren, um Fehlinformationen oder Propaganda zu identifizieren und zu entfernen, und sie können mit Faktenprüfungsorganisationen zusammenarbeiten, um die Genauigkeit der von Chatbots generierten Antworten zu überprüfen. Darüber hinaus können Communitys dazu beitragen, das Bewusstsein der Nutzer zu schärfen, indem sie Diskussionen über die Einschränkungen und Verzerrungen von KI-Chatbots fördern und die Nutzer ermutigen, kritisch zu denken.
Fazit
KI-Chatbots sind nützliche Werkzeuge, aber sie haben auch inhärente Einschränkungen und Risiken. Um sicherzustellen, dass diese Technologien verantwortungsbewusst eingesetzt werden und die Verbreitung von Fehlinformationen und Manipulationen reduziert wird, müssen Entwickler, Regulierungsbehörden und Nutzer wachsam bleiben. Indem wir die notwendigen Massnahmen ergreifen, können wir die Vorteile von KI-Chatbots maximieren und gleichzeitig ihre potenziellen Gefahren minimieren.