Wizje AI: Spory gigantów USA

Nawigacja po labiryncie regulacyjnym: Wezwanie do jedności (i prewencji)

Wspólnym wątkiem przewijającym się przez zgłoszenia kilku głównych firm AI jest wyraźna obawa o rosnącą mozaikę stanowych regulacji dotyczących sztucznej inteligencji. OpenAI, twórca ChatGPT, wyraźnie wezwał do ratunku przed tym, co postrzega jako nadciągający potop ponad 700 odrębnych ustaw, które obecnie krążą na poziomie stanowym. Jednak proponowane przez OpenAI rozwiązanie to nie federalne ustawodawstwo, ale raczej wąskie, dobrowolne ramy. Te ramy, co istotne, wyprzedzałyby regulacje stanowe, oferując firmom AI rodzaj bezpiecznej przystani. W zamian za tę ochronę firmy uzyskałyby dostęp do lukratywnych kontraktów rządowych i otrzymywałyby wcześniejsze ostrzeżenia o potencjalnych zagrożeniach bezpieczeństwa. Rząd z kolei byłby uprawniony do testowania nowych możliwości modeli i porównywania ich z zagranicznymi odpowiednikami.

Google powtarza to stanowisko, opowiadając się za wyprzedzeniem prawa stanowego za pomocą “ujednoliconych krajowych ram dla granicznych modeli AI”. Te ramy, według Google, powinny priorytetowo traktować bezpieczeństwo narodowe, jednocześnie wspierając środowisko sprzyjające amerykańskim innowacjom w dziedzinie AI. Jednak w przeciwieństwie do OpenAI, Google nie jest z natury przeciwny federalnym regulacjom AI, pod warunkiem, że koncentrują się one na konkretnych zastosowaniach tej technologii. Kluczowym zastrzeżeniem dla Google jest to, że twórcy AI nie powinni ponosić odpowiedzialności za niewłaściwe wykorzystanie ich narzędzi przez innych. Google wykorzystał również okazję, aby naciskać na nową federalną politykę prywatności, argumentując, że wpływa ona na branżę AI.

Poza regulacjami krajowymi Google wzywa administrację USA do aktywnego angażowania się z innymi rządami w kwestie legislacji dotyczącej AI. Firma szczególnie przestrzega przed przepisami, które mogłyby zmusić firmy do ujawnienia tajemnic handlowych. Wyobraża sobie międzynarodową normę, w której tylko rząd macierzysty firmy miałby uprawnienia do przeprowadzania dogłębnych ocen jej modeli AI.

Wyzwanie Chin: Kontrola eksportu i strategiczna konkurencja

Widmo szybkich postępów Chin w dziedzinie AI rysuje się wyraźnie w zgłoszeniach wszystkich głównych graczy. Zasada “dyfuzji AI”, wprowadzona przez administrację Bidena w styczniu 2024 r. w celu ograniczenia dostępu Chin do zaawansowanej technologii amerykańskiej, stała się centralnym punktem debaty. Podczas gdy wszystkie firmy uznały istnienie tej zasady, ich proponowane modyfikacje ujawniają diametralnie różne podejścia.

OpenAI proponuje strategię “dyplomacji handlowej”. Sugeruje rozszerzenie najwyższego poziomu zasady, który obecnie zezwala na nieograniczony import amerykańskich chipów AI, o większą liczbę krajów. Warunek? Kraje te muszą zobowiązać się do przestrzegania “demokratycznych zasad AI”, wdrażając systemy AI w sposób, który “promuje więcej wolności dla ich obywateli”. Takie podejście ma na celu wykorzystanie amerykańskiego przywództwa technologicznego do zachęcania do przyjęcia globalnego zarządzania AI opartego na wartościach.

Microsoft podziela pragnienie OpenAI, aby rozszerzyć najwyższy poziom zasady dyfuzji. Jednak Microsoft podkreśla również potrzebę wzmocnienia egzekwowania. Wzywa do zwiększenia zasobów dla Departamentu Handlu, aby zapewnić, że najnowocześniejsze chipy AI są eksportowane i wdrażane tylko w centrach danych certyfikowanych jako zaufane i bezpieczne przez rząd USA. Środek ten ma na celu uniemożliwienie chińskim firmom obchodzenia ograniczeń poprzez uzyskiwanie dostępu do potężnych chipów AI za pośrednictwem rosnącego “szarego rynku” mniejszych, mniej kontrolowanych dostawców centrów danych w Azji i na Bliskim Wschodzie.

Anthropic, twórca modelu Claude AI, opowiada się za jeszcze ściślejszą kontrolą krajów na drugim poziomie zasady dyfuzji AI, w szczególności ograniczając ich dostęp do chipów H100 firmy Nvidia. Ponadto Anthropic wzywa USA do rozszerzenia kontroli eksportu o chipy H20 firmy Nvidia, które zostały specjalnie zaprojektowane na rynek chiński, aby były zgodne z obowiązującymi przepisami USA. To pokazuje bardziej jastrzębie stanowisko Anthropic w sprawie uniemożliwienia Chinom nabycia jakiejkolwiek technologii, która mogłaby wzmocnić ich możliwości w zakresie AI.

Google, w wyraźnym odejściu od swoich konkurentów, wyraża otwarty sprzeciw wobec zasady dyfuzji AI. Uznając zasadność celów bezpieczeństwa narodowego, Google twierdzi, że zasada ta nakłada “nieproporcjonalne obciążenia na amerykańskich dostawców usług w chmurze”. Stanowisko to odzwierciedla szersze obawy Google dotyczące potencjału regulacji do tłumienia innowacji i utrudniania globalnej konkurencyjności.

Poza zasadą dyfuzji, OpenAI podnosi stawkę, sugerując globalny zakaz chipów Huawei i chińskich “modeli, które naruszają prywatność użytkowników i stwarzają zagrożenia bezpieczeństwa, takie jak ryzyko kradzieży własności intelektualnej”. Jest to również szeroko interpretowane jako przytyk do DeepSeek.

Prawa autorskie i paliwo AI: Nawigacja po własności intelektualnej

Kłopotliwa kwestia praw autorskich, szczególnie w kontekście szkolenia modeli AI, również zyskuje znaczną uwagę. OpenAI, w wyraźnym odrzuceniu europejskiego aktu o AI, krytykuje przepis, który przyznaje posiadaczom praw możliwość rezygnacji z wykorzystywania ich dzieł do szkolenia AI. OpenAI wzywa administrację USA do “uniemożliwienia mniej innowacyjnym krajom narzucania swoich reżimów prawnych amerykańskim firmom AI i spowalniania naszego tempa postępu”. Stanowisko to odzwierciedla przekonanie OpenAI, że nieograniczony dostęp do danych ma kluczowe znaczenie dla utrzymania przewagi konkurencyjnej USA w dziedzinie AI.

Google z kolei wzywa do “zrównoważonych praw autorskich”, a także przepisów dotyczących prywatności, które automatycznie przyznają zwolnienie dla informacji publicznie dostępnych. Sugeruje to bardziej zniuansowane podejście, uznające prawa twórców, a jednocześnie uznające znaczenie danych dla rozwoju AI. Google proponuje również przegląd “patentów AI przyznanych przez pomyłkę”, podkreślając rosnącą liczbę amerykańskich patentów AI nabywanych przez chińskie firmy.

Zasilanie przyszłości: Infrastruktura i zapotrzebowanie na energię

Sama moc obliczeniowa wymagana do szkolenia i obsługi zaawansowanych modeli AI wymaga znacznej rozbudowy infrastruktury i zasobów energetycznych. OpenAI, Anthropic i Google opowiadają się za usprawnieniem procesu wydawania pozwoleń na linie przesyłowe, dążąc do przyspieszenia rozbudowy infrastruktury energetycznej w celu wsparcia nowych centrów danych AI.

Anthropic zajmuje szczególnie odważne stanowisko, wzywając do dodatkowych 50 gigawatów energii w USA, wyłącznie do użytku AI, do 2027 roku. Podkreśla to ogromne zapotrzebowanie na energię szybko rozwijającego się krajobrazu AI i potencjał AI do stania się głównym motorem zużycia energii.

Bezpieczeństwo, adaptacja rządowa i państwo oparte na AI

Zgłoszenia dotyczą również skrzyżowania AI, bezpieczeństwa narodowego i operacji rządowych. OpenAI proponuje przyspieszenie zatwierdzania cyberbezpieczeństwa dla najlepszych narzędzi AI, umożliwiając agencjom rządowym łatwiejsze testowanie i wdrażanie ich. Sugeruje również partnerstwa publiczno-prywatne w celu opracowania modeli AI skoncentrowanych na bezpieczeństwie narodowym, które mogą nie mieć realnego rynku komercyjnego, takich jak modele przeznaczone do niejawnych zadań nuklearnych.

Anthropic powtarza wezwanie do szybszych procedur zamówień publicznych w celu integracji AI z funkcjami rządowymi. Warto zauważyć, że Anthropic podkreśla również znaczenie solidnych ról oceny bezpieczeństwa dla National Institute of Standards and Technology (NIST) i U.S. AI Safety Institute.

Google argumentuje, że agencje bezpieczeństwa narodowego powinny mieć możliwość korzystania z komercyjnych zasobów pamięci masowej i obliczeniowych dla swoich potrzeb AI. Opowiada się również za tym, aby rząd udostępnił swoje zbiory danych do komercyjnego szkolenia AI i nakazał otwarte standardy danych i interfejsy API w różnych rządowych wdrożeniach chmury, aby ułatwić “wgląd oparty na AI”.

Wpływ społeczny: Rynki pracy i transformacja oparta na AI

Wreszcie, zgłoszenia poruszają szersze implikacje społeczne AI, w szczególności jej potencjalny wpływ na rynki pracy. Anthropic wzywa administrację do ścisłego monitorowania trendów na rynku pracy i przygotowania się na znaczące zakłócenia. Google podobnie przyznaje, że nadchodzą zmiany, podkreślając potrzebę szerszego rozwoju umiejętności AI. Google zwraca się również o zwiększenie funduszy na badania nad AI i politykę zapewniającą amerykańskim badaczom odpowiedni dostęp do mocy obliczeniowej, danych i modeli.

Zasadniczo, zgłoszenia do ‘AI Action Plan’ malują obraz branży w kluczowym momencie. Chociaż zjednoczone w swojej ambicji rozwoju technologii AI, wiodące amerykańskie firmy mają zasadniczo różne poglądy na to, jak radzić sobie ze złożonymi wyzwaniami regulacji, konkurencji międzynarodowej i wpływu społecznego. Nadchodzące miesiące i lata pokażą, jak te rozbieżne wizje kształtują przyszłość AI, nie tylko w Stanach Zjednoczonych, ale na całym świecie.