Memo “Rozdroże” i rola Llama 2
Według analizy Wired, podmioty stowarzyszone z DOGE (Departament ds. Efektywności Rządu) Elona Muska, działające w ramach Urzędu Zarządzania Personelem, wykorzystały model Llama 2 Meta do szczegółowej analizy i kategoryzacji odpowiedzi od pracowników federalnych na kontrowersyjny e-mail "Rozdroże" wysłany w całej administracji pod koniec stycznia.
Memo "Rozdroże", uderzająco podobne do wcześniejszego komunikatu, który Musk wysłał pracownikom Twittera, dało pracownikom federalnym wybór: zademonstrować "lojalność", akceptując zmienioną politykę powrotu do biura przez rząd, lub zdecydować się na rezygnację. W tym czasie krążyły plotki, że DOGE wykorzystuje sztuczną inteligencję do przetwarzania danych pracowników rządowych. Potwierdzenie pojawiło się od tego czasu, potwierdzając wykorzystanie Llama 2 do przeszukiwania odpowiedzi pracowników i kwantyfikacji liczby rezygnacji.
Kontrowersyjna przeszłość Llama 2: zastosowania wojskowe i odpowiedź Meta
Historia Llama 2 nie jest wolna od kontrowersji. W listopadzie chińscy badacze wykorzystali Llama 2 jako podstawę modelu AI używanego przez chińskie wojsko. To ujawnienie wywołało sprzeciw, skłaniając Meta do początkowego potępienia "nieautoryzowanego" polegania badaczy na "pojedynczym" i "przestarzałym" modelu. Jednak Meta następnie odwróciła swoją politykę zakazującą zastosowań wojskowych i rozszerzyła dostęp do swoich modeli AI dla celów bezpieczeństwa narodowego USA.
Meta publicznie zadeklarowała swoje zaangażowanie w udostępnianie Llama agencjom rządowym USA, w tym tym zaangażowanym w obronę i bezpieczeństwo narodowe, a także partnerom z sektora prywatnego wspierającym ich wysiłki. Ogłosiła partnerstwa z firmami takimi jak Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI i Snowflake, aby ułatwić wdrożenie Llama w agencjach rządowych.
Wired sugeruje, że otwarty charakter modeli Meta pozwala rządowi na łatwe wykorzystanie ich do wspierania celów Muska, potencjalnie bez wyraźnej zgody firmy. Określenie zakresu wdrożenia modeli Meta w rządzie pozostaje wyzwaniem. Uzasadnienie polegania DOGE na Llama 2, szczególnie biorąc pod uwagę postępy Meta w Llama 3 i 4, jest niejasne.
Ograniczona wiedza o wykorzystaniu Llama 2 przez DOGE
Szczegóły dotyczące konkretnego zastosowania Llama 2 przez DOGE pozostają skąpe. Śledztwo Wired ujawniło, że DOGE wdrożył model lokalnie, co sugeruje, że dane prawdopodobnie nie były przesyłane przez Internet, co łagodzi obawy o prywatność wyrażane przez wielu pracowników rządowych.
Obawy Kongresu i wezwania do dochodzenia
W kwietniowym liście adresowanym do Russella Voughta, dyrektora Biura Zarządzania i Budżetu, ponad 40 ustawodawców zażądało dokładnego dochodzenia w sprawie wykorzystania AI przez DOGE. Wyrazili obawy, że takie użycie, wraz z potencjalnymi zagrożeniami bezpieczeństwa, może podważyć udane i odpowiednie przyjęcie AI w rządzie.
List konkretnie odnosił się do pracownika DOGE i byłego pracownika SpaceX, który rzekomo wykorzystał model Grok-2 xAI Muska do opracowania "asystenta AI". Wspomniał również o użyciu chatbota o nazwie "GSAi", opartego na modelach Anthropic i Meta, do analizy danych dotyczących umów i zamówień. Ponadto DOGE był powiązany z oprogramowaniem o nazwie AutoRIF, rzekomo zaprojektowanym w celu przyspieszenia masowych zwolnień w administracji.
Ustawodawcy podkreślili "poważne obawy dotyczące bezpieczeństwa" związane z wykorzystaniem przez DOGE "systemów AI do analizy wiadomości e-mail od dużej części dwumilionowej federalnej siły roboczej opisującej osiągnięcia z poprzedniego tygodnia", powołując się na brak przejrzystości.
Wiadomości e-mail pojawiły się po wiadomościach "Rozdroża", skłaniając pracowników do przedstawiania cotygodniowych osiągnięć w pięciu punktach. Pracownicy wyrazili obawy dotyczące charakteru odpowiedzi, obawiając się, że DOGE może pozyskiwać wrażliwe informacje bez odpowiednich uprawnień bezpieczeństwa.
Wired nie mógł ostatecznie potwierdzić, czy Llama 2 został również użyty do analizy tych odpowiedzi e-mail. Jednak pracownicy federalni zasugerowali Wired, że DOGE prawdopodobnie "ponownie wykorzysta swój kod" z eksperymentu z e-mailami "Rozdroże", jeśli byłaby to rozsądna decyzja.
Dlaczego Grok nie został użyty
Pojawia się pytanie: dlaczego DOGE nie wykorzystał Groka?
Prawdopodobnym wyjaśnieniem jest to, że Grok, będący wówczas modelem zastrzeżonym, był niedostępny dla zadania DOGE w styczniu. Według Wired, DOGE może zwiększyć swoje poleganie na Groku w przyszłości, zwłaszcza biorąc pod uwagę ogłoszenie Microsoftu, że w tym tygodniu zacznie hostować modele Grok 3 xAI w swoim Azure AI Foundry, rozszerzając w ten sposób potencjalne zastosowania modelu.
Obawy ustawodawców: konflikty interesów i naruszenia danych
W swoim liście ustawodawcy wezwali Voughta do zbadania potencjalnych konfliktów interesów z udziałem Muska, przestrzegając jednocześnie przed potencjalnymi naruszeniami danych. Stwierdzili, że AI, wykorzystywana przez DOGE, nie jest jeszcze odpowiednia do zastosowań rządowych.
Argumentowali, że "bez odpowiednich zabezpieczeń, wprowadzanie wrażliwych danych do systemu AI oddaje je w posiadanie operatora systemu - masowe naruszenie zaufania publicznego i pracowniczego oraz wzrost zagrożeń cybernetycznych związanych z tymi danymi". Zauważyli ponadto, że "generatywne modele AI również często popełniają błędy i wykazują znaczne odchylenia - technologia po prostu nie jest gotowa do użycia w podejmowaniu decyzji wysokiego ryzyka bez odpowiedniego sprawdzenia, przejrzystości, nadzoru i zabezpieczeń".
Chociaż raport Wired sugeruje, że DOGE nie przesłał wrażliwych danych z wiadomości e-mail "Rozdroże" do zewnętrznego źródła, ustawodawcy opowiadają się za bardziej rygorystycznym sprawdzaniem systemów AI, aby złagodzić "ryzyko udostępniania danych osobowych lub innych wrażliwych informacji wdrażającym model AI".
Dominującym problemem jest to, że Musk mógłby w coraz większym stopniu wykorzystywać własne modele, potencjalnie czerpiąc korzyści z danych rządowych niedostępnych dla jego konkurentów, jednocześnie narażając te dane na ryzyko naruszenia. Ustawodawcy mają nadzieję, że DOGE zostanie zmuszone do zaprzestania korzystania ze swoich systemów AI. Vought wydaje się jednak bardziej zgodny z podejściem DOGE, o czym świadczą jego wytyczne dotyczące AI dla użytku federalnego, które zachęcają agencje do "usuwania przeszkód w innowacjach i zapewniania najlepszej wartości dla podatnika".
List ustawodawców podkreśla, że "chociaż popieramy federalny rząd integrujący nowe, zatwierdzone technologie AI, które mogą poprawić wydajność lub skuteczność, nie możemy poświęcić bezpieczeństwa, prywatności i odpowiednich standardów użytkowania podczas interakcji z danymi federalnymi". Stwierdzają również, że "nie możemy również akceptować używania systemów AI, często znanych z halucynacji i uprzedzeń, w decyzjach dotyczących rozwiązania stosunku pracy w administracji federalnej lub finansowania federalnego bez wystarczającej przejrzystości i nadzoru nad tymi modelami - ryzyko utraty talentu i krytycznych badań z powodu wadliwej technologii lub wadliwego wykorzystania takiej technologii. po prostu zbyt wysoki".
Dogłębne spojrzenie na implikacje wykorzystania sztucznej inteligencji w inicjatywach dotyczących efektywności rządu.
Rozwijająca się saga dotycząca wykorzystania sztucznej inteligencji przez Departament ds. Efektywności Rządu (DOGE) w jego wysiłkach na rzecz usprawnienia operacyjnego wywołała burzę dyskusji i kontroli. Ujawnienie, że agencja oparła się na modelu Llama 2 Meta - sztucznej inteligencji typu open source - zamiast na zastrzeżonym Grok AI Elona Muska, dodało warstwę złożoności do już skomplikowanej narracji. Taka sytuacja uzasadnia dogłębne spojrzenie na wieloaspektowe implikacje integracji sztucznej inteligencji z operacjami rządowymi, badając nieodłączne korzyści i ryzyko, względy etyczne oraz potencjał konfliktów interesów.
Urok i pułapki sztucznej inteligencji w administracji
Integracja sztucznej inteligencji z funkcjami rządowymi obiecuje transformacyjne postępy w zakresie wydajności, analizy danych i podejmowania decyzji. Od automatyzacji rutynowych zadań po przesiewanie ogromnych zbiorów danych, sztuczna inteligencja ma potencjał do odblokowania bezprecedensowego poziomu produktywności i poprawy świadczenia usług publicznych. Wyobraź sobie algorytmy, które mogą przewidywać awarie infrastruktury, personalizować edukację lub optymalizować alokację zasobów w działaniach związanych z pomocą w przypadku klęsk żywiołowych. Możliwości wydają się nieograniczone.
Jednak ta rewolucja technologiczna nie jest pozbawiona niebezpieczeństw. Poleganie na systemach sztucznej inteligencji wprowadza złożoną sieć dylematów etycznych, luk w zabezpieczeniach i potencjalnych uprzedzeń. Modele sztucznej inteligencji są szkolone na danych, a jeśli dane te odzwierciedlają uprzedzenia społeczne, sztuczna inteligencja będzie je utrwalać, a nawet wzmacniać. Stanowi to poważne zagrożenie dla sprawiedliwości i równości w usługach rządowych, potencjalnie prowadząc do dyskryminujących wyników w obszarach takich jak egzekwowanie prawa, opieka społeczna i edukacja.
Ponadto korzystanie ze sztucznej inteligencji budzi głębokie pytania o przejrzystość i odpowiedzialność. Kiedy decyzje są podejmowane przez algorytmy, trudne staje się zrozumienie uzasadnienia tych decyzji, co utrudnia pociągnięcie agencji rządowych do odpowiedzialności za swoje działania.
Dylemat Llama 2 kontra Grok
Wybór Llama 2 zamiast Grok wiąże się z własnym zestawem rozważań. Otwarty charakter Llama 2 sprawia, że jest on łatwo dostępny i konfigurowalny, co pozwala agencjom rządowym dostosować go do swoich specyficznych potrzeb bez blokowania w zastrzeżonym ekosystemie. Oznacza to jednak również, że brakuje mu dedykowanego wsparcia i konserwacji, które zwykle wiążą się z zastrzeżonymi rozwiązaniami AI.
Z drugiej strony, Grok, jako zastrzeżona sztuczna inteligencja, oferuje obietnicę najnowocześniejszej wydajności i specjalistycznej wiedzy. Budzi jednak również obawy dotyczące potencjalnego uzależnienia od dostawcy, prywatności danych i uprzedzeń wynikających z danych szkoleniowych sztucznej inteligencji. Podkreśla obawy dotyczące potencjalnego wpływu każdej prywatnej jednostki, w szczególności tej związanej z osobą wysoko profilowaną ściśle związaną z celami rządu, na procesy decyzyjne.
Widmo konfliktu interesów
Zaangażowanie podmiotów Elona Muska (SpaceX i xAI) w rządowe inicjatywy AI budzi widmo konfliktu interesów. Jako prominentna postać, która ma udziały w różnych sektorach, zaangażowanie Muska budzi pytania o potencjalny wpływ, jaki mógłby wywierać na politykę rządu i przyznawanie kontraktów.
Czy rząd przyznawałby preferencyjne traktowanie firmom Muska? Czy istnieją odpowiednie zabezpieczenia, aby zapewnić, że decyzje są podejmowane bezstronnie i w najlepszym interesie publicznym? To uzasadnione pytania, które wymagają rygorystycznej kontroli.
Bezpieczeństwo danych i obawy dotyczące prywatności
Wykorzystanie sztucznej inteligencji w operacjach rządowych nieuchronnie wiąże się z gromadzeniem, przechowywaniem i przetwarzaniem wrażliwych danych obywateli. Stwarza to kuszący cel ataków cybernetycznych i naruszeń danych. Rząd musi wdrożyć solidne środki bezpieczeństwa, aby chronić te dane przed nieautoryzowanym dostępem i niewłaściwym wykorzystaniem. Obejmuje to nie tylko ochronę danych przed zagrożeniami zewnętrznymi, ale także ustanowienie ścisłych kontroli dostępu i mechanizmów odpowiedzialności, aby zapobiec nadużyciom ze strony osób z wewnątrz.
Obawy o prywatność danych wzmacnia nieprzejrzysty charakter algorytmów sztucznej inteligencji. Obywatele często nie mają pojęcia, w jaki sposób ich dane są przetwarzane lub wykorzystywane do podejmowania decyzji, które wpływają na ich życie. Ten brak przejrzystości podważa zaufanie do rządu i może prowadzić do oporu wobec inicjatyw opartych na sztucznej inteligencji.
Implikacje dla przyszłości administracji
Debata na temat wykorzystania sztucznej inteligencji przez DOGE dotyczy nie tylko konkretnego przypadku, ale szerszej przyszłości administracji w erze sztucznej inteligencji. W jaki sposób rząd może wykorzystać moc sztucznej inteligencji, aby poprawić usługi publiczne, jednocześnie minimalizując ryzyko? Jak możemy zapewnić, że sztuczna inteligencja jest wykorzystywana etycznie, przejrzyście i w sposób odpowiedzialny?
Odpowiedzi na te pytania wymagają wielokierunkowego podejścia:
Ustanowienie jasnych wytycznych etycznych: Skodyfikuj jasny zestaw zasad etycznych, które rządzą wykorzystaniem sztucznej inteligencji w administracji. Zasady te powinny priorytetowo traktować sprawiedliwość, przejrzystość, odpowiedzialność i poszanowanie prywatności.
Promowanie przejrzystości i otwartości: Spraw, aby algorytmy sztucznej inteligencji i procesy decyzyjne były bardziej przejrzyste. Publikuj raporty opisujące, w jaki sposób sztuczna inteligencja jest wykorzystywana w administracji, i zapewnij obywatelom możliwości przekazywania opinii.
Bezpieczeństwo danych: Wdróż solidne środki bezpieczeństwa, aby chronić wrażliwe dane obywateli przed zagrożeniami cybernetycznymi i nadużyciami ze strony osób z wewnątrz.
Zapewnienie odpowiedzialności: Ustanów jasne linie odpowiedzialności za decyzje oparte na sztucznej inteligencji. Wyznacz urzędników rządowych, którzy są odpowiedzialni za nadzorowanie wykorzystania sztucznej inteligencji i rozwiązywanie wszelkich problemów, które mogą się pojawić.
Kultywowanie zaufania publicznego: Edukuj społeczeństwo na temat korzyści i zagrożeń związanych ze sztuczną inteligencją w administracji. Angażuj się w dialog z obywatelami, aby rozwiać ich obawy i budować zaufanie do odpowiedzialnego wykorzystania tej technologii.
Przyjmując proaktywne i przemyślane podejście, rząd może wykorzystać transformacyjną moc sztucznej inteligencji, chroniąc jednocześnie interes publiczny. Kontrowersje wokół DOGE służą jako cenne przypomnienie o znaczeniu starannego planowania, otwartego dialogu i zaangażowania w zasady etyczne w erze sztucznej inteligencji.
Rozwijająca się narracja
Dramat związany z wykorzystaniem sztucznej inteligencji przez DOGE jeszcze się nie skończył. W miarę kontynuowania dochodzeń i pojawiania się kolejnych szczegółów, incydent ten niewątpliwie będzie miał wpływ na przyszłe wdrażanie sztucznej inteligencji w rządzie. Miejmy nadzieję, że ta sytuacja doprowadzi do bardziej przemyślanej integracji technologii.