Fani NBA szydzą z AI Twittera

Troll, który oszukał AI

NBA Centel, konto na platformie X (dawniej Twitter), znane z satyrycznych i często nieprawdziwych postów, stworzyło tweet, który wywołał poruszenie w internetowej społeczności koszykarskiej. W poniedziałek konto fałszywie poinformowało, że Kevin Durant wyprzedził Shai Gilgeous-Alexandra na ósmym miejscu na liście wszech czasów pod względem wykonanych rzutów wolnych w sezonie zasadniczym.

Chociaż prawdą jest, że Durant niedawno wyprzedził Dirka Nowitzkiego na tej pozycji z 7244 celnymi rzutami wolnymi, uwzględnienie Gilgeous-Alexandra było jawnym fałszerstwem. Gwiazdor Oklahoma City Thunder, z 2692 rzutami wolnymi w karierze, nie mieści się nawet w pierwszej 200 w historii ligi.

Rażący błąd Groka

Prawdziwe rozbawienie wynikało jednak z odpowiedzi Groka. Chatbot AI, opracowany przez xAI Elona Muska, z pewnością siebie potwierdził celowo błędny tweet. Ten rażący błąd nie uszedł uwadze, a fani NBA szybko wykorzystali okazję, by zakpić z pomyłki AI.

Reakcje napływały lawinowo, od żartobliwych docinków po jawną kpinę. Incydent ten posłużył jako kolejne przypomnienie ograniczeń obecnej technologii AI, a w szczególności jej podatności na dezinformację, zwłaszcza gdy jest ona przedstawiana w sposób pewny siebie i pozornie autorytatywny.

Oto jak zareagowali niektórzy fani:

Jeden z fanów powiedział:

Inny fan dodał:

Kolejne reakcje napływały:

Grok firmy xAI: Praca w toku?

Przejęcie Twittera przez Elona Muska za oszałamiającą kwotę 44 miliardów dolarów w październiku 2022 roku oznaczało znaczącą zmianę w krajobrazie mediów społecznościowych. Rok później, w listopadzie 2023 roku, xAI zaprezentowało Groka, reklamując go jako rewolucyjne narzędzie zdolne do odpowiadania na „prawie wszystko”, a nawet sugerowania pytań, które użytkownicy mogliby chcieć zadać.

Jednak początkowa wersja, Grok-1, spotkała się z natychmiastową krytyką za swoje nieścisłości i wady. To skłoniło do wydania Grok-1.5 w połowie grudnia tego samego roku, z obietnicami poprawy wydajności i niezawodności.

Pomimo tych postępów, Grok nadal jest przedmiotem analizy. Krytycy wskazują na liczne przypadki, w których AI potknęło się, dostarczając nieprawidłowych lub wprowadzających w błąd informacji. Jednym z godnych uwagi przykładów był fan Taylor Swift pytający o znaczenie tytułu albumu artystki, „TTPD” (‘The Tortured Poets Department’). Grok z pewnością siebie udzielił nieprawidłowej odpowiedzi, podkreślając swoje ciągłe zmagania z dokładnością.

Rzeczywista pozycja Shai Gilgeous-Alexandra w rzutach wolnych

Sfabrykowana statystyka dotycząca Shai Gilgeous-Alexandra dodatkowo uwypukliła słabość Groka. Wśród aktywnych graczy, młody gwiazdor Thunder jest daleko od szczytu listy wszech czasów pod względem rzutów wolnych. Pozostaje w tyle za takimi graczami jak Karl-Anthony Towns (2768) i Kawhi Leonard (2792), zajmując obecnie 28. miejsce wśród aktywnych graczy. Ten rażący kontrast z twierdzeniem AI dolał oliwy do ognia internetowych kpin.

Nie pierwsze rodeo dla NBA Centel

To nie pierwszy raz, kiedy NBA Centel z powodzeniem oszukało Groka. Zaledwie kilka dni wcześniej konto parodii opublikowało informację, że kolega Kevina Duranta z drużyny, Devin Booker, przekazał 20 000 dolarów na kampanię GoFundMe dla Hooters, twierdząc, że sieć restauracji stoi w obliczu „potencjalnego bankructwa”. Po raz kolejny Grok odpowiedział, potwierdzając raport jako prawdziwy, co jeszcze bardziej ugruntowało jego reputację jako łatwego do wprowadzenia w błąd.

(Tymczasowe) zablokowanie NBA Centel

Figle NBA Centel nie pozostały bez konsekwencji. 26 lutego X tymczasowo ograniczyło konto, co wywołało reakcje fanów, graczy, a nawet dziennikarzy sportowych, takich jak Stephen A. Smith. Decyzja platformy o zablokowaniu konta, choć tymczasowo, uwypukliła ciągłe napięcie między satyrą, dezinformacją a odpowiedzialnością platform mediów społecznościowych.

Wzorzec dezinformacji

Po przywróceniu konta NBA Centel kontynuowało swoją passę, z powodzeniem oszukując Groka dwa razy w ciągu jednego tygodnia. Incydenty te podsyciły szerszą dyskusję na temat wiarygodności narzędzi informacyjnych opartych na sztucznej inteligencji i potencjału ich nadużywania, czy to celowego, czy przypadkowego. Powtarzające się wpadki Groka rodzą pytania o jego zdolność do odróżniania wiarygodnych źródeł od niewiarygodnych oraz o jego podatność na padanie ofiarą celowo spreparowanej dezinformacji.

Incydent ten podkreśla również kluczowy aspekt ewoluującej relacji między ludźmi a sztuczną inteligencją. Podczas gdy technologia AI nadal rozwija się w szybkim tempie, jasne jest, że ludzki nadzór i krytyczne myślenie pozostają niezbędne. Zdolność do odróżniania faktów od fikcji, do identyfikowania stronniczości i satyry oraz do kwestionowania informacji prezentowanych przez narzędzia AI jest ważniejsza niż kiedykolwiek.

Wyzwanie odróżnienia satyry od rzeczywistości

Dla platform mediów społecznościowych wyzwanie polega na zrównoważeniu wolności słowa z potrzebą zwalczania rozprzestrzeniania się dezinformacji. Konta parodii, takie jak NBA Centel, zajmują szarą strefę, często używając humoru i przesady, aby nawiązać kontakt z odbiorcami. Jednak ich posty mogą czasami zacierać granice między satyrą a rzeczywistością, potencjalnie wprowadzając w błąd użytkowników, a jak widać w tym przypadku, nawet chatboty AI.
Incydent z Grokiem przypomina o znaczeniu umiejętności korzystania z mediów w erze cyfrowej. Użytkownicy muszą być wyposażeni w umiejętności krytycznej oceny informacji, niezależnie od ich źródła, i być świadomi potencjału zarówno celowej, jak i niezamierzonej dezinformacji. Obejmuje to zrozumienie ograniczeń narzędzi AI i uznanie, że nie są one nieomylnymi źródłami prawdy.

Przyszłość AI i dokładność informacji

Ciągły rozwój technologii AI stwarza zarówno ekscytujące możliwości, jak i poważne wyzwania. W miarę jak AI staje się coraz bardziej zintegrowana z naszym codziennym życiem, jej zdolność do dokładnego przetwarzania i rozpowszechniania informacji będzie miała kluczowe znaczenie. Incydent z Grokiem podkreśla potrzebę ciągłego udoskonalania algorytmów AI, szczególnie w zakresie ich zdolności do wykrywania i obsługi satyrycznych lub wprowadzających w błąd treści.
Programiści muszą priorytetowo traktować rozwój narzędzi AI, które są nie tylko potężne i wszechstronne, ale także niezawodne i godne zaufania. Obejmuje to włączenie mechanizmów sprawdzania faktów, weryfikacji źródeł i wykrywania potencjalnych uprzedzeń. Wymaga to również zaangażowania w przejrzystość, umożliwiając użytkownikom zrozumienie, w jaki sposób systemy AI dochodzą do swoich wniosków i identyfikowanie potencjalnych źródeł błędów.

Incydent z NBA Centel i Grokiem to tylko jeden przykład wyzwań, które nas czekają. W miarę jak technologia AI będzie się rozwijać, konieczne będzie proaktywne rozwiązywanie tych problemów, zapewniając, że AI będzie służyć jako narzędzie do poszerzania naszego zrozumienia świata, a nie przyczyniania się do rozprzestrzeniania dezinformacji. Przyszłość AI zależy od jej zdolności nie tylko do przetwarzania informacji, ale także do odróżniania prawdy od fałszu i robienia tego w sposób, który jest zarówno niezawodny, jak i przejrzysty. Śmiech skierowany w stronę wpadki Groka służy jako mocne przypomnienie o tym ciągłym wyzwaniu.