Senatorowie Naciskają na Zakaz DeepSeek i Innych Technologii AI w Kontraktach Federalnych z Powodu Ryzyka Bezpieczeństwa
W ruchu mającym na celu ochronę wrażliwych danych federalnych przed potencjalnymi zagrożeniami ze strony wrogich państw, w szczególności Chińskiej Republiki Ludowej (ChRL), senatorowie USA Jacky Rosen i Bill Cassidy wprowadzili ustawę skierowaną przeciwko DeepSeek, należącej do Chińskiej Partii Komunistycznej (ChPK), oraz innym technologiom AI uznanym za wrogie.
Senatorowie wyrazili poważne obawy co do potencjalnych zagrożeń dla bezpieczeństwa narodowego ze strony DeepSeek. Jako główny powód swoich obaw podają chińskie prawo, które nakazuje DeepSeek udostępnianie zebranych danych chińskiemu rządowi i jego agencjom wywiadowczym. Kilka stanów USA i państw sojuszniczych podjęło już kroki w celu zablokowania DeepSeek na urządzeniach rządowych, co podkreśla krytyczne obawy dotyczące bezpieczeństwa związane z platformą AI.
Ustawa o Ochronie Przed Zagraniczną Wrogą Sztuczną Inteligencją
Proponowana ponadpartyjna ustawa, zatytułowana "Ustawa o Ochronie Przed Zagraniczną Wrogą Sztuczną Inteligencją", ma na celu uniemożliwienie federalnym wykonawcom korzystania z DeepSeek do realizacji kontraktów z agencjami federalnymi. Ustawa rozszerza ten zakaz na każdą kolejną aplikację opracowaną przez High-Flyer, uniemożliwiając jej wykorzystanie w kontraktach rządu federalnego.
Wymagania Dotyczące Raportowania i Nadzór Kongresowy
Ponadto ustawa nakazuje Sekretarzowi Handlu USA, we współpracy z Sekretarzem Obrony USA, sporządzenie kompleksowego raportu dla Kongresu. Raport ten będzie analizował zagrożenia dla bezpieczeństwa narodowego i szpiegostwa gospodarczego wynikające z platform AI pochodzących z wrogich państw, w tym Chin, Korei Północnej, Iranu i Rosji.
Senator Rosen, demokratka z Nevady, podkreśliła znaczenie ochrony amerykańskich danych i systemów rządowych przed zagrożeniami cybernetycznymi pochodzącymi od zagranicznych wrogów. Stwierdziła, że ponadpartyjna ustawa skutecznie uniemożliwiłaby federalnym wykonawcom korzystanie z DeepSeek, platformy AI powiązanej z ChPK, podczas wykonywania prac rządowych. Rosen zobowiązała się do dalszej współpracy ponadpartyjnej w celu wzmocnienia bezpieczeństwa narodowego i ochrony danych Amerykanów.
Senator Cassidy, republikanin z Luizjany, podkreślił dwojaki charakter sztucznej inteligencji jako potężnego narzędzia, które można wykorzystać do celów korzystnych, takich jak ulepszanie medycyny i edukacji. Ostrzegł jednak, że w niepowołanych rękach AI może zostać użyta jako broń. Cassidy ostrzegł, że wprowadzanie wrażliwych danych do systemów takich jak DeepSeek może dać Chinom kolejną broń.
Szczegółowe Mandaty Raportowania
Proponowana ustawa stanowi, że w ciągu jednego roku od wejścia ustawy w życie Sekretarz Handlu, w porozumieniu z Sekretarzem Obrony, musi przedłożyć szczegółowy raport kluczowym komisjom w Senacie i Izbie Reprezentantów. Komisje te obejmują Komisję Sił Zbrojnych, Komisję Handlu, Nauki i Transportu oraz Komisję ds. Energii i Handlu. Raport musi odnosić się do zagrożeń dla bezpieczeństwa narodowego wynikających z platform sztucznej inteligencji, w tym dużych modeli językowych i generatywnej AI, które mają siedzibę lub są powiązane z krajami budzącymi obawy.
Kompleksowe Elementy Raportu
Ustawa nakazuje uwzględnienie w kompleksowym raporcie kilku krytycznych elementów. Obejmują one dokładną analizę praw cenzorskich i możliwości obcych rządów, w szczególności tych, które mogą mieć dostęp do aplikacji AI lub wywierać na nie wpływ.
Rola AI w Propagandzie i Dezinformacji
Raport musi również ocenić, w jaki sposób platformy AI są obecnie wykorzystywane lub potencjalnie mogłyby być wykorzystywane do promowania propagandy sponsorowanej przez państwo. Jest to szczególnie istotne w kontekście wrogich państw dążących do podważenia demokratycznych instytucji i rozpowszechniania dezinformacji. Rozumiejąc, w jaki sposób AI może być używana jako broń w ten sposób, decydenci mogą opracować strategie skutecznego przeciwdziałania tym zagrożeniom.
Obejście Kontroli Eksportu
Kolejnym istotnym aspektem raportu jest ocena implikacji dla bezpieczeństwa narodowego wysiłków wrogich państw mających na celu obejście amerykańskich kontroli eksportu na procesory graficzne (GPU). GPU są krytyczne dla rozwoju zaawansowanych modeli AI, a każda próba nielegalnego ich nabycia stanowi poważne zagrożenie dla interesów bezpieczeństwa narodowego USA. Dlatego raport musi zidentyfikować i zająć się słabymi punktami w systemie kontroli eksportu, aby zapobiec uzyskaniu dostępu do tych krytycznych technologii przez wrogie państwa.
Zagrożenia Prywatności i Bezpieczeństwa Danych
Raport jest zobowiązany do zbadania zagrożeń prywatności i bezpieczeństwa danych związanych z danymi z USA, które są wprowadzane lub przesyłane za pośrednictwem aplikacji AI. Analiza musi odnosić się do kluczowych obaw, w tym jak i gdzie dane są przechowywane, czy na serwerach lokalnych, czy w infrastrukturze chmurowej. Musi również zbadać, czy dane te mogą być dostępne lub wykorzystywane przez obce rządy lub podmioty polityczne, zwłaszcza ChPK, oraz w jakim stopniu dane pochodzące z USA przyczyniają się do rozwoju zagranicznych technologii AI.
Lokalizacja przechowywania danych ma kluczowe znaczenie, ponieważ bezpośrednio wpływa na poziom kontroli i bezpieczeństwa, jaki można nad nimi sprawować. Serwery lokalne oferują bardziej bezpośrednią kontrolę, ale wymagają znacznych inwestycji w infrastrukturę i wiedzę specjalistyczną. Infrastruktura chmurowa z kolei zapewnia skalowalność i dostępność, ale polega na środkach bezpieczeństwa wdrożonych przez dostawcę chmury.
Ryzyko Szpiegostwa Gospodarczego
Raport musi ocenić ryzyko szpiegostwa gospodarczego stwarzane przez taki dostęp, w tym zagrożenia dla własności intelektualnej, tajemnic handlowych, informacji zastrzeżonych i innych wrażliwych lub poufnych danych.
Szpiegostwo gospodarcze polega na kradzieży cennych informacji biznesowych przez obce podmioty w celu uzyskania przewagi konkurencyjnej. Mogą to być tajemnice handlowe, patenty i inne poufne dane, które dają firmom strategiczną przewagę na rynku. Uzyskując dostęp do danych z USA za pośrednictwem aplikacji AI, wrogie państwa mogłyby potencjalnie ukraść te informacje i podważyć konkurencyjność amerykańskich przedsiębiorstw.
Zagrożenia dla Informacji Rządowych
Wreszcie, raport powinien ocenić potencjalne niebezpieczeństwo, jakie ten dostęp stwarza dla informacji rządu federalnego, w tym danych, które wpływają na decyzje polityczne lub są powiązane z programami rządowymi. Bezpieczeństwo informacji rządowych jest najważniejsze dla funkcjonowania demokratycznego społeczeństwa. Jeśli wrogie państwa mogą uzyskać dostęp do tych danych lub nimi manipulować, mogłyby potencjalnie wpływać na decyzje polityczne lub zakłócać programy rządowe.
Poprzednie Działania i Bieżące Przeglądy
Administracja prezydenta Donalda Trumpa, za pośrednictwem Rady Bezpieczeństwa Narodowego, zainicjowała przegląd zagrożeń dla bezpieczeństwa narodowego związanych z DeepSeek, odzwierciedlający obawy obejmujące wiele administracji. Izba Reprezentantów podjęła kroki, aby zakazać biurom kongresowym instalowania lub pobierania DeepSeek na urządzeniach służbowych, co dodatkowo podkreśla zagrożenia bezpieczeństwa związane z platformą.
Działania Agencji Rządowych
Agencja Systemów Informacji Obronnej i Marynarka Wojenna wydały podobne notatki dla swojego personelu, ograniczające korzystanie z DeepSeek na urządzeniach rządowych. Działania te podjęte przez różne agencje rządowe wskazują na powszechne uznanie potencjalnych zagrożeń stwarzanych przez DeepSeek i skoordynowany wysiłek w celu złagodzenia tych zagrożeń.
Ograniczenia na Poziomie Stanowym
Teksas, Nowy Jork i Wirginia wprowadziły już przepisy nakładające podobne ograniczenia na pracowników i kontrahentów rządu stanowego, sygnalizując rosnący trend wśród stanów w zakresie rozwiązywania problemów związanych z bezpieczeństwem platform AI pochodzących z wrogich państw. Oczekuje się, że inne stany pójdą w ich ślady, jeszcze bardziej umacniając wysiłki na rzecz ochrony wrażliwych danych przed potencjalnymi zagrożeniami.
AI w Przemysłowym Cyberbezpieczeństwie
Według danych opublikowanych w październiku przez Takepoint Research, ewoluujący krajobraz cyberbezpieczeństwa ujawnia, że korzyści płynące z AI w przemysłowym cyberbezpieczeństwie przewyższają ryzyko dla 80 procent respondentów. AI jest szczególnie skuteczna w wykrywaniu zagrożeń (64 procent), monitorowaniu sieci (52 procent) i zarządzaniu lukami w zabezpieczeniach (48 procent), co podkreśla jej rosnące znaczenie w poprawie obrony w środowiskach OT (technologia operacyjna). W badaniu zidentyfikowano, że nadmierne poleganie na AI, manipulacja systemem AI i fałszywe wyniki negatywne są głównymi obawami właścicieli aktywów przemysłowych.
Skuteczność AI w wykrywaniu zagrożeń wynika z jej zdolności do analizowania dużych ilości danych i identyfikowania wzorców, które mogą wskazywać na złośliwą aktywność. Systemy oparte na AI mogą wykrywać anomalie i podejrzane zachowania w czasie rzeczywistym, zapewniając zespołom bezpieczeństwa wczesne ostrzeżenia o potencjalnych zagrożeniach.
Monitorowanie sieci to kolejny obszar, w którym AI przoduje. Ciągłe monitorowanie ruchu sieciowego przez systemy AI umożliwia wykrywanie nieautoryzowanych prób dostępu i innych naruszeń bezpieczeństwa. AI może również identyfikować luki w konfiguracjach sieci i zalecać działania naprawcze.
Zarządzanie lukami w zabezpieczeniach polega na identyfikowaniu i rozwiązywaniu słabych punktów w systemach i aplikacjach, zanim zostaną one wykorzystane przez atakujących. AI może zautomatyzować proces skanowania luk w zabezpieczeniach i ustalać priorytety działań naprawczych w oparciu o dotkliwość luk.
Obawy Dotyczące Nadmiernego Polegania i Manipulacji
Chociaż AI oferuje znaczne korzyści w przemysłowym cyberbezpieczeństwie, należy również pamiętać o potencjalnym ryzyku. Jedną z głównych obaw jest nadmierne poleganie na AI. Zespoły bezpieczeństwa nie powinny zbytnio polegać na systemach AI i powinny utrzymywać swoją wiedzę specjalistyczną i świadomość sytuacyjną.
Kolejną obawą jest manipulacja systemem AI. Przeciwnicy mogą próbować manipulować systemami AI, aby uniknąć wykrycia lub spowodować, że podejmą one błędne decyzje. Dlatego ważne jest wdrożenie solidnych środków bezpieczeństwa w celu ochrony systemów AI przed manipulacją.
Fałszywe wyniki negatywne, w których systemy AI nie wykrywają rzeczywistych zagrożeń, również stanowią problem. Zespoły bezpieczeństwa powinny regularnie oceniać wydajność systemów AI i dostosowywać ich konfiguracje, aby zminimalizować ryzyko fałszywych wyników negatywnych.