Troll, który oszukał AI
NBA Centel, konto na platformie X (dawniej Twitter), znane z satyrycznych i często nieprawdziwych postów, stworzyło tweet, który wywołał poruszenie w internetowej społeczności koszykarskiej. W poniedziałek konto fałszywie poinformowało, że Kevin Durant wyprzedził Shai Gilgeous-Alexandra na ósmym miejscu na liście wszech czasów pod względem wykonanych rzutów wolnych w sezonie zasadniczym.
Chociaż prawdą jest, że Durant niedawno wyprzedził Dirka Nowitzkiego na tej pozycji z 7244 celnymi rzutami wolnymi, uwzględnienie Gilgeous-Alexandra było jawnym fałszerstwem. Gwiazdor Oklahoma City Thunder, z 2692 rzutami wolnymi w karierze, nie mieści się nawet w pierwszej 200 w historii ligi.
Rażący błąd Groka
Prawdziwe rozbawienie wynikało jednak z odpowiedzi Groka. Chatbot AI, opracowany przez xAI Elona Muska, z pewnością siebie potwierdził celowo błędny tweet. Ten rażący błąd nie uszedł uwadze, a fani NBA szybko wykorzystali okazję, by zakpić z pomyłki AI.
Reakcje napływały lawinowo, od żartobliwych docinków po jawną kpinę. Incydent ten posłużył jako kolejne przypomnienie ograniczeń obecnej technologii AI, a w szczególności jej podatności na dezinformację, zwłaszcza gdy jest ona przedstawiana w sposób pewny siebie i pozornie autorytatywny.
Oto jak zareagowali niektórzy fani:
Jeden z fanów powiedział:
Inny fan dodał:
Kolejne reakcje napływały:
Grok firmy xAI: Praca w toku?
Przejęcie Twittera przez Elona Muska za oszałamiającą kwotę 44 miliardów dolarów w październiku 2022 roku oznaczało znaczącą zmianę w krajobrazie mediów społecznościowych. Rok później, w listopadzie 2023 roku, xAI zaprezentowało Groka, reklamując go jako rewolucyjne narzędzie zdolne do odpowiadania na „prawie wszystko”, a nawet sugerowania pytań, które użytkownicy mogliby chcieć zadać.
Jednak początkowa wersja, Grok-1, spotkała się z natychmiastową krytyką za swoje nieścisłości i wady. To skłoniło do wydania Grok-1.5 w połowie grudnia tego samego roku, z obietnicami poprawy wydajności i niezawodności.
Pomimo tych postępów, Grok nadal jest przedmiotem analizy. Krytycy wskazują na liczne przypadki, w których AI potknęło się, dostarczając nieprawidłowych lub wprowadzających w błąd informacji. Jednym z godnych uwagi przykładów był fan Taylor Swift pytający o znaczenie tytułu albumu artystki, „TTPD” (‘The Tortured Poets Department’). Grok z pewnością siebie udzielił nieprawidłowej odpowiedzi, podkreślając swoje ciągłe zmagania z dokładnością.
Rzeczywista pozycja Shai Gilgeous-Alexandra w rzutach wolnych
Sfabrykowana statystyka dotycząca Shai Gilgeous-Alexandra dodatkowo uwypukliła słabość Groka. Wśród aktywnych graczy, młody gwiazdor Thunder jest daleko od szczytu listy wszech czasów pod względem rzutów wolnych. Pozostaje w tyle za takimi graczami jak Karl-Anthony Towns (2768) i Kawhi Leonard (2792), zajmując obecnie 28. miejsce wśród aktywnych graczy. Ten rażący kontrast z twierdzeniem AI dolał oliwy do ognia internetowych kpin.
Nie pierwsze rodeo dla NBA Centel
To nie pierwszy raz, kiedy NBA Centel z powodzeniem oszukało Groka. Zaledwie kilka dni wcześniej konto parodii opublikowało informację, że kolega Kevina Duranta z drużyny, Devin Booker, przekazał 20 000 dolarów na kampanię GoFundMe dla Hooters, twierdząc, że sieć restauracji stoi w obliczu „potencjalnego bankructwa”. Po raz kolejny Grok odpowiedział, potwierdzając raport jako prawdziwy, co jeszcze bardziej ugruntowało jego reputację jako łatwego do wprowadzenia w błąd.
(Tymczasowe) zablokowanie NBA Centel
Figle NBA Centel nie pozostały bez konsekwencji. 26 lutego X tymczasowo ograniczyło konto, co wywołało reakcje fanów, graczy, a nawet dziennikarzy sportowych, takich jak Stephen A. Smith. Decyzja platformy o zablokowaniu konta, choć tymczasowo, uwypukliła ciągłe napięcie między satyrą, dezinformacją a odpowiedzialnością platform mediów społecznościowych.
Wzorzec dezinformacji
Po przywróceniu konta NBA Centel kontynuowało swoją passę, z powodzeniem oszukując Groka dwa razy w ciągu jednego tygodnia. Incydenty te podsyciły szerszą dyskusję na temat wiarygodności narzędzi informacyjnych opartych na sztucznej inteligencji i potencjału ich nadużywania, czy to celowego, czy przypadkowego. Powtarzające się wpadki Groka rodzą pytania o jego zdolność do odróżniania wiarygodnych źródeł od niewiarygodnych oraz o jego podatność na padanie ofiarą celowo spreparowanej dezinformacji.
Incydent ten podkreśla również kluczowy aspekt ewoluującej relacji między ludźmi a sztuczną inteligencją. Podczas gdy technologia AI nadal rozwija się w szybkim tempie, jasne jest, że ludzki nadzór i krytyczne myślenie pozostają niezbędne. Zdolność do odróżniania faktów od fikcji, do identyfikowania stronniczości i satyry oraz do kwestionowania informacji prezentowanych przez narzędzia AI jest ważniejsza niż kiedykolwiek.
Wyzwanie odróżnienia satyry od rzeczywistości
Dla platform mediów społecznościowych wyzwanie polega na zrównoważeniu wolności słowa z potrzebą zwalczania rozprzestrzeniania się dezinformacji. Konta parodii, takie jak NBA Centel, zajmują szarą strefę, często używając humoru i przesady, aby nawiązać kontakt z odbiorcami. Jednak ich posty mogą czasami zacierać granice między satyrą a rzeczywistością, potencjalnie wprowadzając w błąd użytkowników, a jak widać w tym przypadku, nawet chatboty AI.
Incydent z Grokiem przypomina o znaczeniu umiejętności korzystania z mediów w erze cyfrowej. Użytkownicy muszą być wyposażeni w umiejętności krytycznej oceny informacji, niezależnie od ich źródła, i być świadomi potencjału zarówno celowej, jak i niezamierzonej dezinformacji. Obejmuje to zrozumienie ograniczeń narzędzi AI i uznanie, że nie są one nieomylnymi źródłami prawdy.
Przyszłość AI i dokładność informacji
Ciągły rozwój technologii AI stwarza zarówno ekscytujące możliwości, jak i poważne wyzwania. W miarę jak AI staje się coraz bardziej zintegrowana z naszym codziennym życiem, jej zdolność do dokładnego przetwarzania i rozpowszechniania informacji będzie miała kluczowe znaczenie. Incydent z Grokiem podkreśla potrzebę ciągłego udoskonalania algorytmów AI, szczególnie w zakresie ich zdolności do wykrywania i obsługi satyrycznych lub wprowadzających w błąd treści.
Programiści muszą priorytetowo traktować rozwój narzędzi AI, które są nie tylko potężne i wszechstronne, ale także niezawodne i godne zaufania. Obejmuje to włączenie mechanizmów sprawdzania faktów, weryfikacji źródeł i wykrywania potencjalnych uprzedzeń. Wymaga to również zaangażowania w przejrzystość, umożliwiając użytkownikom zrozumienie, w jaki sposób systemy AI dochodzą do swoich wniosków i identyfikowanie potencjalnych źródeł błędów.
Incydent z NBA Centel i Grokiem to tylko jeden przykład wyzwań, które nas czekają. W miarę jak technologia AI będzie się rozwijać, konieczne będzie proaktywne rozwiązywanie tych problemów, zapewniając, że AI będzie służyć jako narzędzie do poszerzania naszego zrozumienia świata, a nie przyczyniania się do rozprzestrzeniania dezinformacji. Przyszłość AI zależy od jej zdolności nie tylko do przetwarzania informacji, ale także do odróżniania prawdy od fałszu i robienia tego w sposób, który jest zarówno niezawodny, jak i przejrzysty. Śmiech skierowany w stronę wpadki Groka służy jako mocne przypomnienie o tym ciągłym wyzwaniu.