Musk, AI i Ubrojenie "Błędu Administracyjnego"

Odejście Elona Muska z inicjatywy Defense Operational Guidance Enhancement (DOGE) może wydawać się istotnym wydarzeniem, ale jego prawdziwy wpływ zależy od stopnia czujności opinii publicznej. Prawdziwa historia to nie tylko cięcia budżetowe czy teatralne popisy Muska; chodzi o podstępną integrację projektów ideologicznych z systemami technicznymi, które sterują rządem USA.

W lutym przedstawiłem koncepcję "AI coup," gdzie sztuczna inteligencja funkcjonuje mniej jako narzędzie, a bardziej jako spektakl i usprawiedliwienie. Duże Modele Językowe (LLM) służą jako generatory pretekstów, zapewniając wygodną przykrywkę dla działań, za które nikt nie chce wziąć odpowiedzialności. Elon Musk odegrał podobną rolę, odwracając uwagę opinii publicznej sensacyjnymi pokazami, jednocześnie wprowadzając radykalne zmiany.

Jednym z najbardziej rażących przykładów było cofnięcie finansowania programu, który zapobiegł 26 milionom zgonów z powodu AIDS, w tym dzieci. Wybrani urzędnicy w dużej mierze zignorowali tę kwestię, udając bezradność.

Kontrowersyjne wybryki Muska posłużyły jako wygodna zasłona dymna dla radykalnej demontażu rządu federalnego. Chociaż wywołało to oddolny ruch protestacyjny i negatywnie wpłynęło na sprzedaż Tesli, to zamaskowało głębszy problem integracji AI.

Podczas gdy Musk i Trump promowali ideologicznie zorientowane cięcia budżetowe DOGE, analiza w The Atlantic ujawniła, że całkowite wydatki federalne faktycznie wzrosły. Transformacja siły roboczej w administracji federalnej za pomocą AI, reklamowana jako sposób na "efektywność rządu," w dużej mierze pozostaje niezauważona. DOGE wykorzystywał Llama 2 do przeglądania i klasyfikowania wiadomości e-mail od pracowników federalnych, ale kontrakt Palantira na 113 milionów dolarów na stworzenie ogromnej infrastruktury inwigilacji cywilnej uwydatnia niepokojący trend. Firma integruje również model językowy Grok Muska ze swoją platformą.

Błędy Programowania

Grok xAI, pod bezpośrednią kontrolą Muska, stanowi niepokojący przykład. Model odpowiadał na łagodne zapytania komentarzami promującymi rzeczywistość białego ludobójstwa w Afryce Południowej. Ta manipulacja ukrytym systemem podpowiedzi modelu ujawnia niezdarną próbę inżynierii społecznej. Później odkryto, że model angażuje się w negowanie Holokaustu, co xAI przypisał "błędu programowania."

xAI odpowiedział na incydent z "białym ludobójstwem," stwierdzając, że modyfikacja podpowiedzi naruszyła wewnętrzne zasady. Dodali, że przyszłe zmiany podpowiedzi systemowych będą podlegać przeglądowi.

Incydenty te podkreślają nieodłączne ryzyko związane z podpowiedziami systemowymi. Mogą być zmieniane przez każdego, kto ma kontrolę nad modelem, i podlegają kontroli dopiero po wykryciu. Poleganie na korporacyjnych modelach AI w procesach decyzyjnych rządu przyznaje ogromną władzę polityczną elitom technologicznym.

Zazwyczaj wdrażanie technologii w rządzie wiąże się ze starannymi rozważaniami i ocenami bezpieczeństwa. Wdrażaniu DOGE brakuje odpowiedniego nadzoru, co budzi obawy o niezależność jakichkolwiek przeglądów. Integrując dane agencji w jednolity model, DOGE nie uwzględnia specyficznych potrzeb bezpieczeństwa poszczególnych agencji. Zasadniczo DOGE wprowadza transformacyjne zmiany bez oceny ich konieczności, wystarczalności lub korzyści dla obywateli.

Gdyby administracji Trumpa naprawdę zależało na budowaniu niezawodnych systemów, ich działania by to odzwierciedlały. Zamiast tego DOGE i administracja Trumpa stłumiły nadzór nad błędami w korporacyjnych modelach AI i przypadkami manipulacji podpowiedziami systemowymi. Po cofnięciu finansowania przez DOGE dla badań nad odchyleniami AI, nowa ustawa uchwalona przez Kongres zabrania wszelkich nowych przepisów dotyczących nadzoru nad AI na następną dekadę.

Nieuczciwi Pracownicy

Odejście Muska z DOGE pozostawia po sobie spuściznę, przypieczętowaną wyborem Palantira, założonej przez Thiela firmy AI, wybranej przez Muska. Musk i Thiel byli współzałożycielami PayPala, a Thiel wyraził sceptycyzm co do kompatybilności wolności i demokracji.

Koncentracja władzy zainicjowana przez Muska poprzez DOGE utrzyma się, działając bardziej dyskretnie. Chociaż jego odejście oznacza zwycięstwo dla tych, którzy mu się sprzeciwiali, praca DOGE jest kontynuowana pod kierownictwem biurokratów zatrudnionych za ich lojalność.

Prawdziwym celem DOGE nigdy nie było wyeliminowanie marnotrawstwa w rządzie, ale zautomatyzowanie biurokracji przy mniejszej liczbie środków odpowiedzialności. Ten cel "efektywności rządu" pozostaje słabo zdefiniowany. Usprawnienie rządu powinno uprościć interakcje obywateli z usługami i informacjami. Zamiast tego zwolnienia stworzyły systemowe korki, jednocześnie zagrażając prywatności. Cięcia funduszy dla IRS wywołały obawy dotyczące audytów i zwrotów podatków, potencjalnie kosztując miliardy dolarów utraconych dochodów.

Celem DOGE nie było optymalizowanie biurokracji, ale eliminacja elementu ludzkiego. Priorytetyzuje wydajność w stylu przemysłowym, kategoryzując obywateli i zakładając systemowe nadużycia. Prawa i przywileje są następnie przyznawane lub odmawiane na podstawie błędów wbudowanych w system AI.

Ci, którzy kontrolują definicję i automatyzację odpowiedzi na te kategorie, mają znaczną władzę. Modele odzwierciedlają decyzje tych, którzy je trenują, w tym akceptowane błędy i cele optymalizacji. Przy obecnych administratorach używających śladów algorytmicznych, biurokracja traci ostatni kontakt z ludzkością.

Błędy Administracyjne

Biurokracja i błąd biurokratyczny nie są niczym nowym. Bezprecedensowe jest jednak odcięcie ludzkiej odpowiedzialności za błędy, promujące obojętność wobec ich unikania.

Rozważmy raport zdrowotny Roberta F. Kennedy’ego Jr., który zawierał sfabrykowane cytaty. Ten czyn byłby historycznie skandalem, ale został odrzucony jako "błąd formatowania." Kennedy popiera politykę niepopartą dowodami, a generowanie tego raportu przez AI sugeruje priorytet prezentacji nad uzasadnionym dochodzeniem naukowym. Automatyzacja sfabrykowanych dowodów to tylko jeden ze sposobów, w jaki AI stała się narzędziem administracji.

DOGE wydaje się bardziej skupiać na karaniu opozycji wobec Trumpa – migrantów, naukowców, mniejszości rasowych – a jego szeroko zakrojone wysiłki generują nieuniknione błędy. Deportacja Kilmara Abrego Garcii, przypisana "błędu administracyjnemu," jest tego przykładem. To ilustruje zamierzone wykorzystanie błędu jako broni.

Ostatecznie DOGE ma na celu stworzenie systemu, w którym kontrowersyjne wyniki można obwinić na "administracyjne," "programistyczne," lub "formatowania" błędy. Administracja przerzuca winę na wadliwe narzędzia, odmawiając przyjęcia odpowiedzialności. W przypadku Garcii administracja odmawia naprawienia błędu. To demonstruje świat niewiarygodnego porządku, gdzie tylko ci, którzy przysięgają lojalność, zostaną oszczędzeni.

Tworzymy kruche środowisko, w którym spersonalizowane losy zależą od kaprysów AI i jej niewidzialnego programowania. Co się stanie, gdy te programy AI będą narzędziami destabilizującymi, które konsolidują dane w zunifikowane architektury nadzoru?

Podczas gdy odejście Muska z DOGE może spowodować spadek zainteresowania opinii publicznej, podstawowe problemy pozostają: odchylenia algorytmiczne, brak odpowiedzialności i erozja nadzoru ludzkiego. Trendy te, jeśli pozostaną bez kontroli, mogą zaszkodzić samym fundamentom sprawiedliwego i równego społeczeństwa.