Dezinformacja: Niezawodność chatbotów AI

Podczas krótkiego konfliktu indyjsko-pakistańskiego gwałtownie wzrosła ilość dezinformacji, przez co użytkownicy mediów społecznościowych zaczęli polegać na chatbotach AI w celu weryfikacji. Jednak te chatboty dostarczyły więcej fałszywych informacji, podkreślając ich zawodność jako narzędzi do weryfikacji faktów. Wraz z tym, jak główne platformy technologiczne stale zmniejszają liczbę weryfikatorów faktów, użytkownicy coraz bardziej polegają na chatbotach opartych na AI, takich jak Grok xAI, ChatGPT OpenAI i Gemini Google, w poszukiwaniu wiarygodnych informacji.

Rozwój chatbotów AI w weryfikacji faktów

Na platformie X Elona Muska (dawniej Twitter) zapytanie "@Grok, czy to prawda?" stało się powszechnym sposobem pytań. Grok, asystent AI wbudowany w platformę X, odzwierciedla trend użytkowników poszukujących natychmiastowego obalenia faktów w mediach społecznościowych. Jednak odpowiedzi tych chatbotów AI często są pełne dezinformacji.

Grok ostatnio znalazł się pod szczególną obserwacją, ponieważ wplątywał prawicową teorię spiskową "białe ludobójstwo" w niezwiązane zapytania. Grok błędnie zidentyfikował stare nagrania wideo z lotniska w Chartumie w Sudanie jako atak rakietowy na pakistańską bazę lotniczą Nur Khan podczas konfliktu indyjsko-pakistańskiego. Ponadto płonący budynek w Nepalu został błędnie zidentyfikowany jako "potencjalnie" przedstawiający wojskową odpowiedź Pakistanu na indyjski atak.

Ograniczenia w zakresie weryfikacji faktów przez AI

McKenzie Sadeghi, badacz z organizacji zajmującej się monitorowaniem informacji NewsGuard, powiedział agencji AFP: "Ponieważ X i inne duże firmy technologiczne ograniczyły inwestycje w ludzkich weryfikatorów faktów, ludzie coraz bardziej polegają na Groku jako weryfikatorze faktów". Ostrzegła: "Nasze badania wielokrotnie wykazały, że chatboty AI nie są niezawodnym źródłem wiadomości i informacji, zwłaszcza w odniesieniu do nagłych wiadomości".

Badanie przeprowadzone przez NewsGuard wykazało, że 10 wiodących chatbotów, w tym Grok, z łatwością powielało fałszywe informacje, w tym rosyjskie narracje dezinformacyjne oraz fałszywe lub wprowadzające w błąd twierdzenia związane z ostatnimi wyborami w Australii. Niedawne badanie Tow Center for Digital Journalism na Uniwersytecie Columbia dotyczące ośmiu narzędzi wyszukiwania AI wykazało, że chatboty "ogólnie nie są dobre w odmawianiu odpowiedzi na pytania, na które nie mogą dokładnie odpowiedzieć, zamiast tego oferują nieprawidłowe lub spekulacyjne odpowiedzi".

W Urugwaju weryfikatorzy faktów AFP zapytali Gemini o wygenerowany przez AI obraz kobiety. Gemini nie tylko potwierdził autentyczność obrazu, ale także spreparował szczegółowe informacje na temat tożsamości kobiety i potencjalnego miejsca wykonania obrazu.

Grok przypisał niedawno wideo przedstawiające rzekomego gigantycznego węża pływającego w Amazonce jako "rzeczywiste", a nawet przywołał wyglądającą na wiarygodną ekspedycję naukową, aby wesprzeć swoje fałszywe twierdzenie. W rzeczywistości wideo zostało wygenerowane przez AI, a weryfikatorzy faktów AFP w Ameryce Łacińskiej poinformowali, że wielu użytkowników cytowało ocenę Groka jako dowód na to, że wideo jest prawdziwe.

Obawy dotyczące weryfikacji faktów przez AI

Odkrycia te wzbudziły obawy, ponieważ badania pokazują, że coraz więcej użytkowników online zwraca się od tradycyjnych wyszukiwarek do chatbotów AI w celu zbierania i weryfikacji informacji. W międzyczasie Meta ogłosiła wcześniej w tym roku, że zakończy swój program weryfikacji faktów z udziałem stron trzecich w Stanach Zjednoczonych, przekazując obowiązki weryfikacji faktów zwykłym użytkownikom, przyjmując model "Notatek społeczności", który promuje platforma X. Badacze wielokrotnie kwestionowali jednak skuteczność "Notatek społeczności" w zwalczaniu dezinformacji.

Ludzka weryfikacja faktów od dawna jest kością niezgody w spolaryzowanym klimacie politycznym, szczególnie w Stanach Zjednoczonych, gdzie konserwatyści twierdzą, że tłumi ona wolność słowa i cenzuruje prawicowe treści, czemu profesjonalni weryfikatorzy faktów zdecydowanie zaprzeczają.

AFP współpracuje obecnie z programem weryfikacji faktów Facebooka w 26 językach, w tym w Azji, Ameryce Łacińskiej i Unii Europejskiej.

Jakość i dokładność chatbotów AI może się różnić w zależności od sposobu ich szkolenia i programowania, co budzi obawy, że ich dane wyjściowe mogą podlegać wpływom politycznym lub kontroli.

XAI Muska przypisało ostatnio Grokowi generowanie nieproszonych postów, w których cytowano "białe ludobójstwo" w Południowej Afryce, "nieautoryzowanym modyfikacjom". Kiedy ekspert ds. AI David Caswell zapytał Groka, kto mógł zmodyfikować monity systemowe, chatbot wymienił Muska jako "najbardziej prawdopodobnego" winowajcę.

Musk to urodzony w Afryce Południowej miliarder i zwolennik prezydenta USA Donalda Trumpa. Wcześniej rozpowszechniał bezpodstawne twierdzenia, że liderzy RPA "otwarcie promują ludobójstwo białych".

Angie Holan, dyrektor Międzynarodowej Sieci Weryfikacji Faktów, powiedziała agencji AFP: "Widzieliśmy, jak asystenci AI fabrykują wyniki lub dają stronnicze odpowiedzi po tym, jak ludzcy programiści specjalnie zmienili ich polecenia". "Szczególnie niepokoi mnie to, jak Grok radzi sobie z prośbami o bardzo delikatne sprawy po otrzymaniu polecenia dostarczenia wcześniej autoryzowanych odpowiedzi".

Ryzyko związane z chatbotami AI w zakresie informacji

Rosnące zastosowanie chatbotów AI w dostarczaniu informacji budzi poważne obawy dotyczące ich potencjalnego wpływu w zakresie wprowadzania w błąd i manipulacji. Chociaż technologie te mają zalety w zakresie szybkiego dostępu do informacji i upraszczania badań, ich nieodłączne ograniczenia i uprzedzenia mogą niezamierzenie lub celowo rozpowszechniać dezinformację lub propagandę.

Nieodłączne ograniczenia chatbotów AI

Chatboty AI uczą się, analizując ogromne ilości danych tekstowych, ale brakuje im umiejętności krytycznego myślenia właściwych ludziom. Oznacza to, że mogą wyciągać wzorce z danych i generować odpowiedzi, które wydają się rozsądne, ale tak naprawdę nie rozumieją podstawowego znaczenia ani kontekstu. Ten brak wiedzy może prowadzić do generowania niedokładnych, niekompletnych lub wprowadzających w błąd informacji.

Ponadto dane szkoleniowe chatbotów AI mogą zawierać uprzedzenia, które znajdują odzwierciedlenie w generowanych odpowiedziach. Na przykład, jeśli dane szkoleniowe pochodzą głównie z określonego źródła lub punktu widzenia, chatbot może wykazywać preferencje dla tego źródła lub punktu widzenia, rozpowszechniając w ten sposób stronnicze informacje.

Ryzyko związane z chatbotami AI

Wraz z tym, jak coraz więcej osób polega na chatbotach AI w celu uzyskania informacji, wzrasta ryzyko rozpowszechniania dezinformacji. Jeśli chatbot generuje niedokładne lub wprowadzające w błąd informacje, użytkownicy mogą nieświadomie akceptować i rozpowszechniać te informacje, prowadząc do rozpowszechniania fałszywych przekonań.

Ponadto chatboty AI mogą być wykorzystywane do złośliwych celów, takich jak rozpowszechnianie propagandy lub manipulowanie opinią publiczną. Starannie projektując dane szkoleniowe lub dostosowując algorytmy, złośliwi aktorzy mogą manipulować chatbotem w celu generowania określonych rodzajów odpowiedzi, wpływając w ten sposób na przekonania i zachowania użytkowników.

Jak złagodzić ryzyko

Aby złagodzić ryzyko związane z chatbotami AI, należy podjąć kilka środków. Po pierwsze, programiści powinni dążyć do zapewnienia, aby dane szkoleniowe chatbotów AI były tak kompleksowe i bezstronne, jak to możliwe. Może to wymagać włączenia różnych próbek danych z różnych źródeł i punktów widzenia, aby zmniejszyć wpływ uprzedzeń.
Po drugie, chatboty AI należy poddać rygorystycznym testom i ocenom, aby zidentyfikować i skorygować wszelkie niedokładne lub stronnicze tendencje. Może to wymagać ręcznej weryfikacji odpowiedzi generowanych przez chatbot oraz wykorzystania różnych wskaźników do oceny ich dokładności i bezstronności.
Po trzecie, użytkownicy powinni zachować krytyczne myślenie i nie wierzyć bezkrytycznie informacjom dostarczanym przez chatboty AI. Użytkownicy powinni zawsze porównywać informacje z różnych źródeł i zwracać uwagę na potencjalne uprzedzenia, które mogą istnieć w chatbotach.

Rola platform technologicznych i społeczności

Platformy technologiczne i społeczności odgrywają ważną rolę w regulowaniu i nadzorowaniu treści generowanych przez chatboty AI. Platformy mogą wdrażać strategie identyfikowania i usuwania dezinformacji lub propagandy oraz mogą współpracować z organizacjami weryfikującymi fakty w celu zweryfikowania dokładności odpowiedzi generowanych przez chatboty. Ponadto społeczności mogą pomóc w podnoszeniu świadomości użytkowników, promując dyskusję na temat ograniczeń i uprzedzeń chatbotów AI oraz zachęcając użytkowników do zachowania krytycznego myślenia.

Wnioski

Chatboty AI są użytecznymi narzędziami, ale mają również nieodłączne ograniczenia i ryzyka. Aby zapewnić, że technologie te są wykorzystywane w sposób odpowiedzialny i aby zmniejszyć rozpowszechnianie dezinformacji i manipulacji, programiści, organy regulacyjne i użytkownicy muszą zachować czujność. Podejmując niezbędne środki, możemy zmaksymalizować korzyści płynące z chatbotów AI, jednocześnie minimalizując ich potencjalne szkody.