Sztuczna inteligencja (AI) chatboty różnią się pod względem jakości i dokładności, w zależności od sposobu ich przeszkolenia i zaprogramowania. Powoduje to obawy, ponieważ narzędzia te mogą podlegać wpływom politycznym lub kontroli. Szczególnie w sytuacjach, gdy platformy technologiczne ograniczają liczbę ludzkich weryfikatorów faktów, użytkownicy coraz częściej polegają na chatbotach AI w poszukiwaniu wiarygodnych informacji. Okazuje się jednak, że same chatboty są podatne na generowanie dezinformacji.
Poleganie na AI w weryfikacji faktów podczas konfliktów i jego wady
Podczas czterodniowego konfliktu między Indiami a Pakistanem użytkownicy mediów społecznościowych zwrócili się do chatbotów AI w celu weryfikacji. Jednak napotkali oni jeszcze więcej fałszywych informacji, co uwydatniło zawodność tych chatbotów jako narzędzi do weryfikacji faktów. Ponieważ platformy technologiczne stopniowo zmniejszają liczbę ludzkich weryfikatorów faktów, użytkownicy coraz częściej polegają na chatbotach opartych na AI, w tym Groku xAI, ChatGPT OpenAI i Gemini Google, w celu znalezienia wiarygodnych informacji. Okazało się jednak, że odpowiedzi udzielane przez te chatboty AI często są pełne fałszywych informacji.
Na platformie X (dawniej Twitter) należącej do Elona Muska pojawiło się powszechne pytanie: "@Grok, czy to prawda?". Grok ma wbudowanego asystenta AI na tej platformie, co odzwierciedla rosnącą tendencję do szukania szybkich dementi w mediach społecznościowych. Jednak odpowiedzi udzielane przez chatboty AI często są pełne fałszywych informacji.
Przykłady rozpowszechniania nieścisłych informacji przez chatboty AI
Grok jest obecnie poddawany nowym kontrolom ze względu na doniesienia, że wplata skrajnie prawicową teorię spiskową o "białym ludobójstwie" w niezwiązane zapytania. Błędnie zidentyfikował stary materiał wideo z lotniska w Chartumie w Sudanie jako atak rakietowy na pakistańską bazę sił powietrznych Nur Khan podczas konfliktu indopakistańskiego. Ponadto niezwiązane wideo z pożaru budynku w Nepalu zostało błędnie zidentyfikowane jako "potencjalnie" przedstawiające odpowiedź Pakistanu na ataki Indii.
Grok niedawno oznaczył również jako "prawdziwe" wideo, które rzekomo przedstawia gigantyczną anakondę w Amazonce, a nawet przytoczył brzmiącą wiarygodnie wyprawę naukową na poparcie swojego fałszywego twierdzenia. W rzeczywistości film został wygenerowany przez AI. Weryfikatorzy faktów Agencji AFP z Ameryki Łacińskiej zauważyli, że wielu użytkowników powoływało się na ocenę Groka jako dowód na autentyczność tego materiału.
Redukcja inwestycji w weryfikatorów faktów
Ponieważ X i inne duże firmy technologiczne zmniejszają inwestycje w ludzkich weryfikatorów faktów, coraz częściej polega się na Groku jako na weryfikatorze faktów. Mackenzie Sadri, badaczka z organizacji monitorującej wiadomości NewsGuard, ostrzega: "Nasze badania wielokrotnie wykazały, że chatboty AI nie są wiarygodnym źródłem wiadomości i informacji, zwłaszcza w przypadku wydarzeń nagłych".
Badanie NewsGuard wykazało, że 10 wiodących chatbotów z łatwością powiela fałszywe informacje, w tym rosyjskie narracje dezinformacyjne i fałszywe lub wprowadzające w błąd twierdzenia związane z niedawnymi wyborami w Australii. Ostatnie badanie przeprowadzone przez Tow Center for Digital Journalism na Uniwersytecie Columbia na ośmiu narzędziach wyszukiwania AI wykazało, że chatboty "ogólnie nie radzą sobie z odmawianiem odpowiedzi na pytania, na które nie mogą odpowiedzieć dokładnie, ale zamiast tego dostarczają nieprawidłowe lub spekulatywne odpowiedzi".
Trudności AI w potwierdzaniu fałszywych obrazów i tworzeniu szczegółów
Kiedy weryfikatorzy faktów Agencji AFP w Urugwaju zapytali Gemini o obraz kobiety wygenerowany przez AI, nie tylko potwierdził on autentyczność obrazu, ale także sfabrykował szczegóły dotyczące jej tożsamości i potencjalnego miejsca zrobienia zdjęcia.
Odkrycia te wywołały obawy, ponieważ badania wykazały, że użytkownicy online coraz częściej przechodzą od tradycyjnych wyszukiwarek do chatbotów AI w celu uzyskania informacji i przeprowadzania weryfikacji.
Zmiana w podejściu Meta do weryfikacji faktów
Wcześniej w tym roku Meta ogłosiła, że zakończy program weryfikacji faktów przez strony trzecie w Stanach Zjednoczonych, przekazując zadanie obalania dezinformacji zwykłym użytkownikom, przyjmując model znany jako "Community Notes", promowany przez X. Jednak badacze wielokrotnie kwestionowali skuteczność "Community Notes" w zwalczaniu dezinformacji.
Wyzwania i kontrowersje związane z ludzką weryfikacją faktów
Ludzka weryfikacja faktów od dawna jest kością niezgody w spolaryzowanym klimacie politycznym, zwłaszcza w Stanach Zjednoczonych, gdzie konserwatywni zwolennicy twierdzą, że tłumi ona wolność słowa i cenzuruje prawicowe treści - czemu profesjonalni weryfikatorzy faktów zdecydowanie zaprzeczają. AFP współpracuje obecnie z programem weryfikacji faktów Facebook pod kątem 26 języków, w tym w Azji, Ameryce Łacińskiej i Unii Europejskiej.
Wpływ polityczny i chatboty AI
Jakość i dokładność chatbotów AI różnią się w zależności od sposobu ich przeszkolenia i zaprogramowania, co budzi obawy, że ich wyniki mogą podlegać wpływom lub kontroli politycznej. Niedawno xAI Muska obwiniło "nieautoryzowane modyfikacje" za generowanie przez Groka nieproszonych postów w RPA, w których wspomniano o "białym ludobójstwie". Kiedy ekspert AI, David Kastelewicz, zapytał Groka, kto mógł zmodyfikować jego podpowiedź systemową, chatbot wymienił Muska jako "najbardziej prawdopodobnego" sprawcę.
Musk jest urodzonym w RPA miliarderem i zwolennikiem prezydenta Donalda Trumpa. Wcześniej rozpowszechniał bezpodstawne twierdzenia, że przywódcy RPA "otwarcie nawołują do ludobójstwa białych".
Obawy dotyczące sposobu, w jaki chatboty AI radzą sobie z delikatnymi kwestiami
Angie Holan, dyrektor Międzynarodowej Sieci Weryfikacji Faktów, powiedziała: "Widzieliśmy, że asystenci AI mogą fabrykować wyniki lub udzielać stronniczych odpowiedzi po tym, jak ludzcy programiści specjalnie zmienili instrukcje. Szczególnie martwi mnie, jak Grok radzi sobie z prośbami dotyczącymi bardzo delikatnych spraw po otrzymaniu instrukcji udzielania wstępnie zatwierdzonych odpowiedzi".
Znaczenie zapewnienia dokładności AI
Rosnąca popularność chatbotów AI stwarza poważne wyzwania dla rozpowszechniania informacji. Choć oferują one szybki i wygodny sposób dostępu do informacji, są również podatne na błędy i rozpowszechnianie fałszywych informacji. Ponieważ użytkownicy coraz częściej polegają na tych narzędziach w celu weryfikacji faktów, zapewnienie ich dokładności i niezawodności staje się kluczowe.
Firmy technologiczne, organizacje weryfikujące fakty i naukowcy muszą współpracować, aby poprawić jakość i niezawodność chatbotów AI. Obejmuje to wdrożenie rygorystycznych protokołów szkoleniowych, wykorzystanie ludzkich weryfikatorów faktów do weryfikacji informacji generowanych przez AI oraz opracowanie mechanizmów wykrywania i eliminowania dezinformacji.
Spojrzenie w przyszłość
Ponieważ technologia AI stale się rozwija, chatboty AI z pewnością będą odgrywać coraz większą rolę w sposobie, w jaki uzyskujemy i konsumujemy informacje. Ważne jest jednak, aby traktować te narzędzia krytycznie i być świadomym ich ograniczeń. Podejmując kroki w celu zapewnienia dokładności i niezawodności chatbotów AI, możemy wykorzystać ich potencjał, jednocześnie łagodząc ryzyko związane z rozpowszechnianiem dezinformacji.
Uprzedzenia w narzędziach AI
W narzędziach AI mogą występować uprzedzenia, zarówno w danych, na których są szkolone, jak i w sposobie ich programowania. Uprzedzenia te mogą prowadzić do generowania niedokładnych lub wprowadzających w błąd wyników. Na przykład przypadek Groka, który wplata skrajnie prawicową teorię spiskową o "białym ludobójstwie" w niezwiązane zapytania, pokazuje, jak systemy AI mogą potencjalnie rozpowszechniać szkodliwe ideologie.
Uprzedzenia w narzędziach AI mogą być spowodowane różnymi czynnikami, w tym:
Uprzedzenia w danych szkoleniowych: Systemy AI uczą się poprzez dane szkoleniowe. Jeśli zbiory danych zawierają uprzedzenia, to system AI również nauczy się tych uprzedzeń. Na przykład, jeśli system AI jest szkolony na artykułach napisanych głównie przez mężczyzn, może rozwinąć uprzedzenia wobec kobiet.
Uprzedzenia w algorytmach: Algorytmy używane do budowania systemów AI również mogą zawierać uprzedzenia. Na przykład, jeśli algorytm jest zaprojektowany tak, aby priorytetowo traktować odpowiedzi pewnych grup, może dyskryminować inne grupy.
Uprzedzenia spowodowane interwencją człowieka: Nawet jeśli system AI jest szkolony na bezstronnych danych, interwencja człowieka może wprowadzić uprzedzenia. Na przykład, jeśli ludzki programista otrzyma instrukcje, aby udzielać wstępnie zatwierdzonych odpowiedzi na określone pytania, może to spowodować uprzedzenia.
Istnieje kilka powodów, dla których radzenie sobie z uprzedzeniami w narzędziach AI jest ważne:
Sprawiedliwość: Jeśli systemy AI zawierają uprzedzenia, mogą traktować niektóre grupy niesprawiedliwie. Na przykład, jeśli system AI jest używany do rekrutacji, może uprzedzać dyskryminowane grupy.
Dokładność: Jeśli systemy AI zawierają uprzedzenia, mogą nie być w stanie dostarczyć dokładnych informacji. Na przykład, jeśli system AI jest używany do udzielania porad medycznych, może udzielać nieprawidłowych lub wprowadzających w błąd porad.
Zaufanie: Jeśli ludzie nie wierzą, że systemy AI są sprawiedliwe i dokładne, jest mniej prawdopodobne, że będą je używać.
Radzenie sobie z uprzedzeniami w narzędziach AI wymaga wieloaspektowego podejścia, które obejmuje:
Zbieranie bezstronnych danych: Ważne jest, aby upewnić się, że zbiory danych używane do szkolenia systemów AI są bezstronne. Może to wymagać znacznego wysiłku, ponieważ znalezienie i usunięcie uprzedzeń z danych może być trudne.
Opracowywanie bezstronnych algorytmów: Algorytmy używane do budowania systemów AI muszą być bezstronne. Może to wymagać użycia nowych technik uczenia maszynowego w celu budowania algorytmów, które są mniej podatne na uprzedzenia.
Interwencja człowieka: Interwencję człowieka można wykorzystać do poprawy uprzedzeń w systemach AI. Na przykład, ludzki programista może przejrzeć odpowiedzi generowane przez system AI i skorygować wszelkie uprzedzenia, które się pojawią.
Przejrzystość: Ważne jest, aby użytkownicy systemów AI byli świadomi potencjalnych uprzedzeń, które mogą istnieć w systemie AI. Można to osiągnąć, dostarczając informacje o danych, na których system AI był szkolony, oraz o algorytmach używanych do budowania systemu AI.
Radzenie sobie z uprzedzeniami w narzędziach AI to nieustanne wyzwanie, ale jest niezbędne, aby upewnić się, że narzędzia te są sprawiedliwe, dokładne i godne zaufania.
Ograniczenia weryfikacji faktów AI
Chociaż narzędzia do weryfikacji faktów AI poczyniły postępy w identyfikowaniu dezinformacji, nadal istnieją ograniczenia w ich możliwościach i skuteczności. Ograniczenia te wynikają z kilku czynników:
Zrozumienie kontekstu: Systemom AI trudno jest zrozumieć złożony kontekst i niuanse, które są niezbędne do dokładnej weryfikacji faktów. Na przykład, system AI może nie być w stanie odróżnić satyry lub humoru od prawdziwego stwierdzenia.
Wykrywanie subtelnej dezinformacji: Systemy AI mogą mieć trudności z wykrywaniem subtelnej dezinformacji, takiej jak wyrywanie wypowiedzi
z kontekstu lub selektywne przedstawianie faktów.Brak wiedzy specjalistycznej: Systemom AI często brakuje wiedzy specjalistycznej w danej dziedzinie, która jest wymagana do weryfikacji faktów w niektórych tematach. Na przykład, system AI może nie mieć wystarczającej wiedzy medycznej, aby dokładnie weryfikować twierdzenia związane ze zdrowiem.
Manipulacja: Osoby rozpowszechniające dezinformację stale opracowują nowe metody manipulowania i omijania systemów weryfikacji faktów. Systemy AI muszą być stale aktualizowane i ulepszane, aby nadążać za tymi nowymi taktykami.
Bariery językowe: Narzędzia do weryfikacji faktów AI mogą nie być w stanie skutecznie radzić sobie z dezinformacją w różnych językach. Tłumaczenie i zrozumienie niuansów różnych języków jest trudne i wymaga specjalistycznej wiedzy językowej.
Ryzyko fałszywych alarmów: Systemy weryfikacji faktów AI mogą popełniać błędy, co prowadzi do oznaczania dokładnych informacji jako dezinformacji. Te fałszywe alarmy mogą mieć poważne konsekwencje, takie jak cenzura legalnych treści lub niszczenie reputacji osób lub organizacji.
Aby złagodzić ograniczenia weryfikacji faktów AI, ważne jest łączenie ludzkiej wiedzy specjalistycznej z narzędziami AI. Ludzcy weryfikatorzy faktów mogą zapewnić kontekst, wiedzę specjalistyczną w danej dziedzinie i krytyczne myślenie, które trudno jest powielić w systemach automatycznych. Ponadto przejrzystość i ciągłe ulepszanie są niezbędne do zapewnienia, że systemy weryfikacji faktów AI są skuteczne i niezawodne.
Strategie minimalizowania ryzyka i ulepszania weryfikacji faktów AI
Minimalizowanie ryzyka weryfikacji faktów AI i zwiększanie jej dokładności i niezawodności wymaga wieloaspektowego podejścia, które obejmuje ulepszenia techniczne, nadzór człowieka i względy etyczne. Oto kilka ważnych strategii:
Ulepsz dane szkoleniowe: Ulepsz dane szkoleniowe, które są używane do trenowania modeli AI, wdrażając zróżnicowane, kompleksowe i wiarygodne źródła informacji. Upewnij się, że dane są bezstronne, aktualne i obejmują szeroki zakres tematów i perspektyw.
Połącz wiedzę ekspercką człowieka: Połącz ludzkich weryfikatorów faktów z procesem weryfikacji faktów AI, aby uzupełnić ograniczenia AI. Ludzcy eksperci mogą zapewnić kontekst, krytyczne myślenie i wiedzę specjalistyczną w danej dziedzinie, którą trudno jest powielić w systemach automatycznych.
Opracuj metody hybrydowe: Opracuj metody hybrydowe, które łączą techniki AI z nadzorem człowieka. AI można wykorzystać do identyfikowania potencjalnej dezinformacji, a ludzcy weryfikatorzy faktów mogą przeglądać i weryfikować wyniki.
Wdróż przejrzyste procesy: Ustanów przejrzyste procesy i metody weryfikacji faktów, aby użytkownicy mogli zrozumieć, w jaki sposób dochodzi się do wniosków i oceniać dokładność. Dostarcz informacje o źródłach danych, algorytmach i zaangażowaniu człowieka.
Promuj umiejętności korzystania z mediów: Promuj umiejętności korzystania z mediów poprzez programy edukacyjne i kampanie świadomościowe, aby pomóc jednostkom krytycznie oceniać informacje, identyfikować dezinformację i podejmować świadome decyzje.
Zachęcaj do współpracy międzydyscyplinarnej: Zachęcaj do współpracy między firmami technologicznymi, organizacjami weryfikującymi fakty, badaczami i decydentami, aby dzielić się wiedzą, najlepszymi praktykami i zasobami. Wspólnie pracuj, aby sprostać wyzwaniom i możliwościom w weryfikacji faktów AI.
Zajmij się barierami językowymi: Opracuj narzędzia do weryfikacji faktów AI, które mogą skutecznie radzić sobie z dezinformacją w różnych językach. Zainwestuj w tłumaczenie maszynowe i trenuj dedykowane modele dla każdego języka.
Ciągle oceniaj i ulepszaj: Ciągle oceniaj wydajność systemów weryfikacji faktów AI, identyfikuj obszary wymagające ulepszeń i optymalizuj algorytmy. Regularnie przeprowadzaj audyty i testy, aby zapewnić dokładność i niezawodność.
Ustanów wytyczne etyczne: Ustal wytyczne etyczne dotyczące rozwoju i wdrażania weryfikacji faktów AI, aby zająć się kwestiami takimi jak uprzedzenia, przejrzystość, odpowiedzialność i poszanowanie praw człowieka. Upewnij się, że systemy weryfikacji faktów AI są używane w sposób sprawiedliwy, bezstronny i odpowiedzialny.
Wdrażając te strategie, możemy zwiększyć dokładność i niezawodność weryfikacji faktów AI, złagodzić ryzyko i zmaksymalizować jej potencjał w zwalczaniu dezinformacji.
Rola umiejętności korzystania z informacji i krytycznego myślenia
Biorąc pod uwagę ogromną ilość informacji dostępnych w Internecie i potencjał chatbotów AI do rozpowszechniania niedokładnych informacji, rozwijanie umiejętności korzystania z informacji i krytycznego myślenia jest kluczowe. Umiejętność korzystania z informacji umożliwia jednostkom dostęp, ocenę i efektywne wykorzystywanie informacji. Krytyczne myślenie umożliwia jednostkom analizowanie, interpretowanie i dokonywanie świadomych ocen.
Oto podstawowe umiejętności korzystania z informacji i krytycznego myślenia:
Identyfikowanie wiarygodnych źródeł: Ocenianie wiarygodności, reputacji i stronniczości źródeł informacji. Szukaj źródeł z wiedzą specjalistyczną, przejrzystymi zasadami i dowodami na poparcie faktów.
Weryfikowanie informacji: Sprawdzanie informacji krzyżowo z wieloma wiarygodnymi źródłami. Uważaj na niepotwierdzone twierdzenia, teorie spiskowe i sensacyjne nagłówki.
Identyfikowanie stronniczości: Świadomość, że wszystkie źródła informacji mogą zawierać stronniczość. Oceń stronniczość, program lub uprzedzenia polityczne autora lub organizacji źródła.
Analizowanie argumentów: Ocenianie dowodów i uzasadnień przedstawionych przez źródło informacji. Szukaj błędów logicznych, selektywnego przedstawiania i apeli emocjonalnych.
Rozważanie różnych perspektyw: Szukanie różnych poglądów i perspektyw w danej kwestii. Angażuj się w rozmowy z osobami o odmiennych poglądach i rozważ różne argumenty.
Zachowanie otwartego umysłu: Chętnie zmieniaj swoje poglądy na podstawie nowych informacji lub dowodów. Unikaj tendencji do potwierdzania, czyli szukania tylko informacji, które potwierdzają istniejące przekonania.
Wzmacnianie umiejętności korzystania z informacji i krytycznego myślenia może być osiągnięte poprzez różne wysiłki, takie jak:
Programy edukacyjne: Dostarczanie programów edukacyjnych o umiejętnościach korzystania z informacji i krytycznego myślenia w szkołach, na uniwersytetach i w organizacjach społecznych.
Kampanie na temat umiejętności korzystania z mediów: Uruchamianie ogłoszeń w służbie publicznej, zasobów online i warsztatów na temat umiejętności korzystania z mediów w celu zwiększenia świadomości i promowania krytycznego myślenia.
Szkolenia dla nauczycieli: Zapewnienie nauczycielom szkolenia o tym, jak uczyć umiejętności korzystania z informacji i krytycznego myślenia.
Zaangażowanie rodziców: Zachęcanie rodziców do angażowania się w nawyki konsumpcji mediów ich dzieci i omawiania z nimi trafności i wiarygodności informacji online.
Wzmacniając umiejętność korzystania z informacji i krytycznego myślenia, możemy umożliwić jednostkom dokonywanie świadomych decyzji, unikanie dezinformacji i stawanie się aktywnymi obywatelami w erze cyfrowej, w której informacje są bardzo obfite.