Kontrowersyjny debiut DeepSeek
Podczas konferencji Baidu AI Developer Conference w dniu 25 kwietnia, Robin Li, prezes i dyrektor generalny Baidu, wyraził swoje obawy dotyczące modelu AI DeepSeek, który wcześniej w tym roku zdobył znaczną uwagę i uznanie. Li zwrócił uwagę na jego ograniczenia w przetwarzaniu różnorodnych formatów multimedialnych, powolną wydajność, wysokie koszty oraz skłonność do generowania niedokładnych informacji, co czyni go niewiarygodnym do powszechnego użytku.
Według raportów z Guancha.cn i Sina.com, Li podczas konferencji odniósł się do zmiennego krajobrazu wielkoskalowych modeli AI. Podkreślił intensywną konkurencję między twórcami modeli, często opisywaną jako ‘wyścig szczurów’, oraz wynikające z tego zamieszanie i niepewność wśród programistów, co do tworzenia aplikacji z pełnym przekonaniem.
Li podkreślił, że ‘Bez aplikacji chipy i modele są bezwartościowe’. Wskazał wysoki koszt i niepraktyczność wykorzystywania obecnych wielkoskalowych modeli jako główną przeszkodę dla programistów, którzy chcą budować aplikacje AI.
DeepSeek, startup z siedzibą w Hangzhou w Chinach, w styczniu udostępnił swój model rozumowania open-source, R1. W tym czasie państwowe media wychwalały DeepSeek jako model przewyższający nawet OpenAI. Jednak późniejsze dochodzenia użytkowników i badaczy ujawniły wady, luki w zabezpieczeniach i potencjalne zagrożenia. Liczne rządy, w tym Tajwan, Japonia, Korea Południowa, Stany Zjednoczone, Kanada, Włochy, Australia i Holandia, wraz z setkami firm, zakazały używania DeepSeek na urządzeniach rządowych i korporacyjnych.
8 lutego eksperci ds. bezpieczeństwa AI podzielili się z mediami wynikami szczegółowych testów bezpieczeństwa DeepSeek. Odkryli, że DeepSeek był bardziej podatny na ‘jailbreaking’ w porównaniu z ChatGPT, Gemini i Claude. Ta podatność umożliwiała użytkownikom ominięcie pierwotnych ograniczeń bezpieczeństwa AI, ułatwiając uzyskanie potencjalnie niebezpiecznych, szkodliwych lub nielegalnych treści.
W marcu ‘Luchen Technology’, firma zajmująca się infrastrukturą AI, powiązana z Uniwersytetem Tsinghua, która jako jedna z pierwszych zintegrowała modele DeepSeek w celu świadczenia usług API i cloud mirror, ogłosiła zawieszenie powiązanych usług. Założyciel firmy, You Yang, ujawnił w poście, że rzeczywiste koszty związane z DeepSeek były znacznie wyższe niż koszty teoretyczne. Po reakcji online publicznie stwierdził, że DeepSeek nie może działać bez wykorzystania amerykańskiej technologii w krótkim terminie, kwestionując, dlaczego tego faktu nie można otwarcie przyznać.
Według raportu Sina Technology z 4 marca, DeepSeek ogłosił teoretyczną marżę zysku kosztowego w wysokości 545% dla swojego systemu online 1 marca o godzinie 17:02. Następnie Luchen Technology ogłosiła, że w ciągu tygodnia zaprzestanie świadczenia usług DeepSeek API, wzywając użytkowników do wykorzystania pozostałych sald.
Raport zauważa, że Luchen Technology nie ujawniła publicznie konkretnych przyczyn zaprzestania świadczenia usługi DeepSeek API. Jednak obszerna analiza kosztów DeepSeek przez założyciela na platformach takich jak Zhihu sugeruje, że koszt był głównym czynnikiem w decyzji o zaprzestaniu świadczenia usługi API.
Obawy o bezpieczeństwo narodowe
Powiązania między DeepSeek a rządem chińskim są potencjalnie bardziej bezpośrednie niż początkowo sądzono. Feroot Security, kanadyjska firma zajmująca się cyberbezpieczeństwem, odkryła znaczące powiązania między stroną logowania do witryny DeepSeek a China Mobile, chińską firmą państwową, wcześniej objętą sankcjami przez rząd USA.
W ostatnich miesiącach obawy o bezpieczeństwo narodowe doprowadziły do coraz częstszych wezwań do zakazu DeepSeek.
24 kwietnia kilku członków Izby Reprezentantów USA wysłało list do DeepSeek, wyrażając obawy dotyczące powiązań firmy z Chińską Partią Komunistyczną (ChPK) i żądając informacji dotyczących danych USA wykorzystywanych do szkolenia jej modeli AI.
Reprezentant Brett Guthrie, przewodniczący Komisji ds. Energii i Handlu Izby Reprezentantów, oraz reprezentant Gus Bilirakis, przewodniczący Podkomisji ds. Innowacji, Danych i Handlu, wraz z dziesięcioma innymi członkami podkomisji, skierowali list do DeepSeek, wyrażając obawy dotyczące ‘gromadzenia danych osobowych Amerykanów’ przez firmę i związanych z tym zagrożeń dla bezpieczeństwa narodowego.
W liście Guthrie i Bilirakis stwierdzili, że ‘DeepSeek przyznaje się do przesyłania danych osobowych amerykańskich użytkowników na serwery w Chinach, gdzie te informacje niewątpliwie byłyby dostępne dla urzędników powiązanych z Chińską Partią Komunistyczną. Obawiamy się, że ten związek agencji z naszym głównym przeciwnikiem zagraża naszym danym i bezpieczeństwu narodowemu.
‘Aby zapewnić, że amerykańscy użytkownicy i ich firmy są chronieni przed zagraniczną ingerencją, rozpoczynamy dochodzenie w sprawie DeepSeek i zagrożenia, jakie stanowi dla naszego narodu’.
W liście stwierdzono dalej: ‘Według doniesień medialnych firma udostępnia również dane osobowe użytkowników innym podmiotom powiązanym z Chińską Partią Komunistyczną, w tym ByteDance.
‘Jednocześnie badacze odkryli krytyczne luki w rzekomych mechanizmach kontroli bezpieczeństwa i zabezpieczeniach modelu DeepSeek. W odpowiedzi na te zagrożenia rosnąca liczba stanów, w tym Nowy Jork, Teksas i Wirginia, zakazała używania DeepSeek na urządzeniach rządowych, a prokuratorzy generalni stanów wezwali do szerszych zakazów’.
16 kwietnia specjalna komisja Izby Reprezentantów USA ds. Chińskiej Partii Komunistycznej opublikowała raport, w którym podkreślono, że DeepSeek stanowi poważne zagrożenie dla bezpieczeństwa narodowego USA. W raporcie oskarżono DeepSeek o gromadzenie danych użytkowników dla ChPK i potajemne manipulowanie wynikami, stając się najnowszym narzędziem dla ChPK do upiększania się, monitorowania obcych obywateli oraz kradzieży i podważania amerykańskich ograniczeń kontroli eksportu.
W raporcie wskazano, że choć DeepSeek może wydawać się kolejnym chatbotem AI, który zapewnia użytkownikom sposób generowania tekstu i odpowiadania na pytania, bliższe badanie ujawnia, że DeepSeek potajemnie przesyła uzyskane dane osobowe do China Mobile, która ma powiązania z chińską armią, tworząc luki w zabezpieczeniach dla użytkowników. USA już zakazały China Mobile działalności w Stanach Zjednoczonych.
Dogłębne spojrzenie na rzekome braki DeepSeek
Podczas gdy początkowy szum wokół DeepSeek rysował obraz cudu AI, gotowego zrewolucjonizować różne sektory, bliższa analiza ujawniła bardziej zniuansowaną i złożoną rzeczywistość. Obawy wyrażone przez dyrektora generalnego Baidu, Robina Li, oraz późniejsze dochodzenia prowadzone przez ekspertów ds. cyberbezpieczeństwa i organy rządowe, podkreślają kilka krytycznych obszarów, w których DeepSeek nie spełnia oczekiwań i stwarza potencjalne zagrożenia.
Ograniczone możliwości multimodalne
Jedną z głównych krytyk kierowanych pod adresem DeepSeek jest jego ograniczona zdolność do przetwarzania treści multimodalnych. W przeciwieństwie do bardziej zaawansowanych modeli AI, które mogą płynnie integrować i rozumieć różne formy danych, w tym tekst, obrazy, dźwięk i wideo, DeepSeek podobno ma trudności ze zrozumieniem czegokolwiek poza podstawowym wprowadzaniem tekstu. To ograniczenie znacznie ogranicza jego zastosowanie w rzeczywistych scenariuszach, w których informacje są często prezentowane w kombinacji formatów. Na przykład DeepSeek może mieć trudności z analizą wpisu w mediach społecznościowych, który zawiera zarówno tekst, jak i obraz, lub z transkrypcją i zrozumieniem wideokonferencji.
Problemy z wydajnością: Szybkość i koszt
Oprócz ograniczeń w obsłudze różnorodnych mediów, DeepSeek staje również przed wyzwaniami związanymi z jego wydajnością. Według Robina Li, model charakteryzuje się ‘powolną’ prędkością i ‘wysokim’ kosztem, co czyni go mniej atrakcyjnym dla programistów, którzy chcą budować skalowalne i opłacalne aplikacje AI. Wysokie zasoby obliczeniowe wymagane do uruchomienia DeepSeek mogą przełożyć się na znaczne wydatki dla firm, szczególnie tych z wdrożeniami na dużą skalę. Ponadto powolna prędkość przetwarzania może utrudniać aplikacje w czasie rzeczywistym, takie jak chatboty lub wirtualni asystenci, gdzie responsywność ma kluczowe znaczenie dla pozytywnego doświadczenia użytkownika.
Problem ‘wskaźnika halucynacji’
Kolejnym poważnym problemem związanym z DeepSeek jest jego wysoki ‘wskaźnik halucynacji’, odnoszący się do tendencji modelu do generowania niedokładnych lub nonsensownych informacji. Ten problem stanowi poważne wyzwanie dla aplikacji, które wymagają wiarygodnych i godnych zaufania wyników. W krytycznych dziedzinach, takich jak opieka zdrowotna lub finanse, gdzie dokładność ma ogromne znaczenie, ryzyko, że DeepSeek wygeneruje fałszywe lub wprowadzające w błąd informacje, może mieć poważne konsekwencje. ‘Wskaźnik halucynacji’ podważa wiarygodność modelu i ogranicza jego użyteczność w wrażliwych kontekstach.
Luki w zabezpieczeniach i Jailbreaking
Ujawnienie, że DeepSeek jest bardziej podatny na ‘jailbreaking’ niż inne wiodące modele AI, budzi poważne obawy dotyczące bezpieczeństwa. ‘Jailbreaking’ odnosi się do procesu omijania ograniczeń bezpieczeństwa AI w celu uzyskania szkodliwych, nieetycznych lub nielegalnych treści. Fakt, że DeepSeek można łatwiej manipulować w ten sposób, sugeruje słabości w jego podstawowej architekturze bezpieczeństwa. Ta podatność może zostać wykorzystana przez złośliwych aktorów do generowania dezinformacji, rozpowszechniania propagandy lub angażowania się w inne szkodliwe działania.
Prywatność danych i zagrożenia dla bezpieczeństwa narodowego
Rzekome powiązania między DeepSeek a rządem chińskim, w szczególności jego praktyki udostępniania danych China Mobile, wywołały alarm o prywatność danych i bezpieczeństwo narodowe. Przesyłanie danych osobowych amerykańskich użytkowników na serwery w Chinach, gdzie mogłyby być dostępne dla urzędników powiązanych z ChPK, budzi poważne obawy dotyczące potencjalnej inwigilacji, szpiegostwa i naruszenia poufnych informacji. Kontrola DeepSeek przez rząd USA podkreśla rosnącą świadomość potencjalnych zagrożeń związanych z modelami AI opracowywanymi przez zagraniczne podmioty mające bliskie powiązania z wrogimi rządami.
Szersze implikacje
Obawy dotyczące DeepSeek wykraczają poza konkretne ograniczenia i luki w zabezpieczeniach tego konkretnego modelu AI. Odzwierciedlają one szersze wyzwania i zagrożenia związane z szybkim rozwojem i wdrażaniem technologii AI. Przypadek DeepSeek podkreśla znaczenie:
- Rygorystycznych testów i oceny: Dokładne testy i ocena są niezbędne do identyfikacji i eliminowania potencjalnych słabości, uprzedzeń i luk w zabezpieczeniach w modelach AI przed ich szerokim wdrożeniem.
- Przejrzystości i odpowiedzialności: Programiści powinni być przejrzyści co do danych wykorzystywanych do szkolenia ich modeli i algorytmów, które stosują. Powinni również ponosić odpowiedzialność za wyniki i konsekwencje swoich systemów AI.
- Ochrony prywatności danych i zabezpieczeń: Potrzebne są silne środki ochrony prywatności danych i zabezpieczeń, aby chronić dane osobowe użytkowników przed nieautoryzowanym dostępem, niewłaściwym wykorzystaniem lub wykorzystaniem.
- Współpracy międzynarodowej: Współpraca międzynarodowa ma kluczowe znaczenie dla ustanowienia wspólnych standardów i przepisów dotyczących rozwoju i wdrażania AI, zapewniając, że technologie te są wykorzystywane w sposób odpowiedzialny i etyczny.
- Krytycznego myślenia i umiejętności korzystania z mediów: Należy zachęcać użytkowników do krytycznej oceny informacji generowanych przez modele AI i do rozwijania umiejętności korzystania z mediów, aby odróżnić dokładne treści od wprowadzających w błąd.
Kontrowersje wokół DeepSeek służą jako przestroga, przypominając nam, że dążenie do innowacji w AI musi być zrównoważone z uważnym rozważeniem potencjalnych zagrożeń i implikacji społecznych.