Gemini zbiera najwięcej danych

Kontrowersje wokół DeepSeek i reakcja amerykańskiego przemysłu technologicznego

W styczniu DeepSeek, chińska firma, zaprezentowała swój flagowy model AI o otwartym kodzie źródłowym. Debiut wywołał falę obaw w amerykańskim przemyśle technologicznym. Niemal natychmiast pojawiły się głosy zaniepokojenia dotyczące prywatności i bezpieczeństwa. Organizacje prywatne i rządowe, podsycane obawami o potencjalne ryzyko, szybko zakazały używania DeepSeek zarówno w kraju, jak i za granicą.

Podstawą obaw było przekonanie, że DeepSeek, ze względu na swoje chińskie pochodzenie, stanowi podwyższone ryzyko dla amerykańskiego społeczeństwa. Często przytaczano obawy dotyczące inwigilacji, cyberwojny i innych zagrożeń dla bezpieczeństwa narodowego. Obawy te podsycał konkretny zapis w polityce prywatności DeepSeek, który stwierdzał: ‘Dane osobowe, które od Ciebie zbieramy, mogą być przechowywane na serwerze znajdującym się poza krajem, w którym mieszkasz. Przechowujemy zebrane informacje na bezpiecznych serwerach zlokalizowanych w Chińskiej Republice Ludowej’.

To pozornie niewinne stwierdzenie zostało zinterpretowane przez niektórych jako potencjalna furtka dla chińskiego rządu do uzyskania dostępu do wrażliwych danych użytkowników. Szybki postęp w globalnym rozwoju AI i postrzegany ‘wyścig zbrojeń AI’ między USA a Chinami tylko wzmocniły te obawy, tworząc atmosferę głębokiego braku zaufania i podnosząc kwestie etyczne.

Zaskakujące odkrycie: Apetyt Geminiego na dane

Jednak pośród wrzawy wokół DeepSeek pojawiło się zaskakujące odkrycie. Pomimo intensywnej kontroli skierowanej na chiński model AI, okazuje się, że DeepSeek nie jest największym zbieraczem danych w arenie chatbotów. Niedawne badanie przeprowadzone przez Surfshark, renomowanego dostawcę VPN, rzuciło światło na praktyki gromadzenia danych przez niektóre z najpopularniejszych aplikacji chatbotów AI.

Naukowcy skrupulatnie przeanalizowali szczegóły dotyczące prywatności dziesięciu popularnych chatbotów, wszystkich łatwo dostępnych w Apple App Store: ChatGPT, Gemini, Copilot, Perplexity, DeepSeek, Grok, Jasper, Poe, Claude i Pi. Ich analiza skupiła się na trzech kluczowych aspektach:

  1. Rodzaje zbieranych danych: Jakie konkretne kategorie informacji o użytkownikach gromadzi każda aplikacja?
  2. Powiązanie danych: Czy jakiekolwiek zebrane dane są bezpośrednio powiązane z tożsamością użytkownika?
  3. Reklamodawcy zewnętrzni: Czy aplikacja udostępnia dane użytkowników zewnętrznym podmiotom reklamowym?

Wyniki były alarmujące. Gemini Google’a okazał się najbardziej intensywnie zbierającą dane aplikacją chatbota AI, przyćmiewając swoich konkurentów pod względem ilości i różnorodności gromadzonych danych osobowych. Aplikacja zbiera aż 22 z 35 możliwych typów danych użytkownika. Obejmuje to bardzo wrażliwe dane, takie jak:

  • Dokładne dane o lokalizacji: Wskazanie dokładnej lokalizacji geograficznej użytkownika.
  • Treści użytkownika: Przechwytywanie treści interakcji użytkownika w aplikacji.
  • Lista kontaktów: Dostęp do kontaktów urządzenia użytkownika.
  • Historia przeglądania: Śledzenie aktywności użytkownika w przeglądarce internetowej.

To obszerne gromadzenie danych znacznie przewyższa to, co robią inne popularne chatboty zbadane w badaniu. DeepSeek, przedmiot wielu kontrowersji, zajął piąte miejsce na dziesięć aplikacji, zbierając stosunkowo umiarkowane 11 unikalnych typów danych.

Dane o lokalizacji i udostępnianie stronom trzecim: Bliższe spojrzenie

Badanie ujawniło również niepokojące trendy dotyczące danych o lokalizacji i udostępniania danych stronom trzecim. Tylko Gemini, Copilot i Perplexity zbierają dokładne dane o lokalizacji, bardzo wrażliwe informacje, które mogą wiele ujawnić na temat ruchów i nawyków użytkownika.

Mówiąc ogólniej, około 30% analizowanych chatbotów udostępnia wrażliwe dane użytkowników, w tym dane o lokalizacji i historię przeglądania, podmiotom zewnętrznym, takim jak brokerzy danych. Ta praktyka budzi poważne obawy dotyczące prywatności, ponieważ naraża informacje o użytkownikach na szerszą sieć podmiotów, potencjalnie do celów wykraczających poza wiedzę lub kontrolę użytkownika.

Śledzenie danych użytkownika: Reklama ukierunkowana i nie tylko

Kolejnym alarmującym odkryciem była praktyka śledzenia danych użytkowników w celu reklamy ukierunkowanej i innych celów. Trzydzieści procent chatbotów, a konkretnie Copilot, Poe i Jasper, zbiera dane w celu śledzenia swoich użytkowników. Oznacza to, że dane użytkownika zebrane z aplikacji są powiązane z danymi stron trzecich, co umożliwia reklamę ukierunkowaną lub pomiar skuteczności reklamy.

Stwierdzono, że Copilot i Poe zbierają identyfikatory urządzeń w tym celu, podczas gdy Jasper poszedł jeszcze dalej, zbierając nie tylko identyfikatory urządzeń, ale także dane dotyczące interakcji z produktem, dane reklamowe i ‘wszelkie inne dane dotyczące aktywności użytkownika w aplikacji’, według ekspertów Surfshark.

DeepSeek: Nie najlepszy, nie najgorszy

Kontrowersyjny model DeepSeek R1, choć poddany intensywnej kontroli, zajmuje środkowe miejsce pod względem gromadzenia danych. Zbiera średnio 11 unikalnych typów danych, koncentrując się głównie na:

  • Informacjach kontaktowych: Imiona, nazwiska, adresy e-mail, numery telefonów itp.
  • Treściach użytkownika: Treści generowane przez użytkowników w aplikacji.
  • Diagnostyce: Dane związane z wydajnością aplikacji i rozwiązywaniem problemów.

Chociaż nie jest to chatbot najbardziej szanujący prywatność, praktyki gromadzenia danych DeepSeek są mniej rozległe niż w przypadku niektórych jego amerykańskich odpowiedników, w szczególności Gemini.

ChatGPT: Perspektywa porównawcza

Dla porównania, ChatGPT, jeden z najczęściej używanych chatbotów AI, zbiera 10 unikalnych typów danych. Obejmuje to:

  • Informacje kontaktowe
  • Treści użytkownika
  • Identyfikatory
  • Dane o użytkowaniu
  • Diagnostykę

Należy zauważyć, że ChatGPT gromadzi również historię czatów. Użytkownicy mają jednak możliwość skorzystania z ‘Tymczasowego czatu’, funkcji zaprojektowanej w celu złagodzenia tego problemu poprzez nieprzechowywanie historii rozmów.

Polityka prywatności DeepSeek: Kontrola użytkownika i usuwanie danych

Polityka prywatności DeepSeek, choć dla niektórych jest źródłem obaw, zawiera postanowienia dotyczące kontroli użytkownika nad historią czatów. Polityka stanowi, że użytkownicy mogą zarządzać swoją historią czatów i mają możliwość jej usunięcia za pomocą ustawień. Oferuje to pewien stopień kontroli, który nie zawsze jest obecny w innych aplikacjach chatbotów.

Szerszy kontekst: Rozwój AI i dynamika USA-Chiny

Obawy dotyczące DeepSeek i szersza debata na temat prywatności danych AI są nierozerwalnie związane z szybką akceleracją globalnego rozwoju AI i postrzeganym wyścigiem zbrojeń AI między USA a Chinami. Ten geopolityczny kontekst dodaje kolejną warstwę złożoności do problemu, podsycając obawy o bezpieczeństwo narodowe i potencjalne nadużycia technologii AI.

Wyniki badania Surfshark stanowią jednak kluczowe przypomnienie, że obawy dotyczące prywatności danych nie ograniczają się do modeli AI opracowanych w określonych krajach. Najbardziej rażącym zbieraczem danych wśród popularnych chatbotów analizowanych jest w rzeczywistości aplikacja z siedzibą w USA. Podkreśla to potrzebę bardziej zniuansowanego i kompleksowego podejścia do prywatności danych AI, takiego, które wykracza poza granice państw i koncentruje się na praktykach poszczególnych firm i wdrażanych przez nie zabezpieczeniach. Konieczne jest, aby użytkownicy byli informowani o praktykach gromadzenia danych przez narzędzia AI, z których korzystają, niezależnie od ich pochodzenia, oraz aby wprowadzono solidne regulacje w celu ochrony prywatności użytkowników w szybko rozwijającym się krajobrazie AI. Należy skupić się na ustanowieniu jasnych standardów gromadzenia, wykorzystywania i udostępniania danych, zapewnieniu przejrzystości i kontroli użytkownika oraz pociągnięciu firm do odpowiedzialności za ich praktyki dotyczące danych.