DeepSeek AI w Chinach: Ostrzeżenia lekarzy
Integracja DeepSeek AI w chińskich szpitalach obejmuje obecnie szerokie zastosowanie tego modelu AI w ponad 300 placówkach medycznych. Jednakże, chińska społeczność medyczna wyraża poważne obawy. Artykuł opublikowany w JAMA, pod kierownictwem Huang Tianyin’a, założyciela i dziekana wydziału medycznego Uniwersytetu Tsinghua, ostrzega, że szybkie wdrażanie dużych modeli językowych DeepSeek w warunkach klinicznych może być „zbyt szybkie, zbyt wczesne”.
Liczby te rysują uderzający obraz transformacji sztucznej inteligencji w chińskiej opiece zdrowotnej. Wdrożenie DeepSeek w szpitalach trzeciego stopnia reprezentuje znaczącą zmianę w sposobie wykorzystania sztucznej inteligencji, która nie ogranicza się już tylko do wspomagania diagnozy, ale rozszerza się także na zarządzanie szpitalem, wspieranie badań i zarządzanie pacjentami.
Model ten wykazał znaczną poprawę wydajności, w tym 40-krotny wzrost efektywności w monitorowaniu pacjentów. Szerokie zastosowanie wynika z unikalnej pozycji DeepSeek jako otwartego i niskokosztowego rozwiązania alternatywnego dla zastrzeżonych systemów AI.
LLM DeepSeek-V3 i DeepSeek-R1, opracowane przez spółkę zależną chińskiej firmy inwestycyjnej, charakteryzują się niskimi kosztami i otwartym kodem źródłowym, co znacznie obniża próg wejścia dla korzystania z LLM.
Chińskie firmy opieki zdrowotnej szybko zintegrowały model ze swoją działalnością. Ponad 30 firm opieki zdrowotnej w Chinach kontynentalnych dodało AI do swoich operacji, w tym firmy takie jak Hengrui Medicine Co., Ltd. i Yunnan Baiyao Group Co., Ltd.
Po wdrożeniu wielu modeli AI o otwartym kodzie źródłowym w celu poprawy efektywności operacyjnej i obniżenia kosztów, akcje Berry Genomics Co., Ltd. wzrosły o ponad 71%.
Sygnały ostrzegawcze: Bezpieczeństwo kliniczne pod lupą
Pomimo entuzjazmu wokół DeepSeek AI, badania JAMA wskazują na istotne sygnały ostrzegawcze. Huang Tianyin, profesor okulistyki i były dyrektor medyczny Narodowego Centrum Okulistyki w Singapurze, wraz ze współpracownikami zidentyfikował kilka kluczowych problemów.
Badacze ostrzegają, że tendencja DeepSeek do generowania “pozornie rozsądnych, ale faktycznie nieprawidłowych danych wyjściowych” może prowadzić do “poważnych zagrożeń klinicznych”, pomimo jego potężnych zdolności rozumowania. Zjawisko to, znane jako halucynacje AI, jest szczególnie niebezpieczne w środowisku medycznym, gdzie dokładność może decydować o życiu i śmierci.
Zespół badawczy podkreśla, że pracownicy medyczni mogą nadmiernie polegać na wynikach DeepSeek lub akceptować je bezkrytycznie, co potencjalnie może prowadzić do błędów diagnostycznych lub odchyleń w leczeniu. Bardziej ostrożni klinicyści natomiast mogą stanąć w obliczu obciążenia w postaci konieczności weryfikacji wyników AI w sytuacjach klinicznych, w których czas odgrywa kluczową rolę.
Wyzwania infrastrukturalne i luki w zabezpieczeniach
Oprócz obaw dotyczących dokładności klinicznej, szybkie wdrażanie DeepSeek AI w chińskich szpitalach ujawniło poważne luki w cyberbezpieczeństwie. Chociaż wiele szpitali decyduje się na prywatne, lokalne wdrożenia, aby złagodzić zagrożenia dla bezpieczeństwa i prywatności, badania sugerują, że takie podejście “przenosi odpowiedzialność za bezpieczeństwo na poszczególne placówki medyczne”, z których wiele nie posiada kompleksowej infrastruktury cyberbezpieczeństwa.
Ostatnie badania dotyczące cyberbezpieczeństwa pogłębiły obawy. Badania wskazują, że prawdopodobieństwo wykorzystania DeepSeek przez cyberprzestępców jest 11 razy większe niż w przypadku innych modeli AI, co podkreśla kluczową lukę w jego konstrukcji. Badanie przeprowadzone przez Cisco wykazało, że DeepSeek nie zdołał zablokować szkodliwych podpowiedzi w ocenach bezpieczeństwa, w tym tych związanych z cyberprzestępczością i dezinformacją.
Otwarta natura DeepSeek, choć zwiększa dostępność, wiąże się również z unikalnymi wyzwaniami w zakresie bezpieczeństwa. Otwarta struktura DeepSeek oznacza, że każdy może pobrać i modyfikować aplikację, umożliwiając użytkownikom nie tylko zmianę jej funkcjonalności, ale także mechanizmów bezpieczeństwa, tworząc w ten sposób większe ryzyko wykorzystania.
Konsekwencje w rzeczywistości: Historie z pierwszej linii frontu klinicznego
Integracja DeepSeek AI w chińskich szpitalach rozpoczęła już zmianę dynamiki relacji lekarz-pacjent. Popularne wideo na Douyin (chiński odpowiednik TikToka) pokazuje sfrustrowanego lekarza, który po kwestionowaniu przez pacjenta korzystającego z DeepSeek odkrywa, że wytyczne medyczne zostały faktycznie zaktualizowane, a AI miał rację.
Ta anegdota ilustruje zarówno potencjał, jak i zagrożenia związane z wdrażaniem AI w opiece zdrowotnej. Chociaż technologia może pomóc w aktualizacji praktyki medycznej, podważa również tradycyjną hierarchię medyczną i wprowadza nowe źródła niepewności w procesie podejmowania decyzji klinicznych.
„Idealna burza” dla zagrożeń bezpieczeństwa
Badacze twierdzą, że unikalna sytuacja w chińskiej opiece zdrowotnej tworzy „idealną burzę” dla zagrożeń bezpieczeństwa klinicznego. Wskazują na luki w podstawowej infrastrukturze opieki zdrowotnej, a także na wysoki poziom rozpowszechnienia smartfonów. Zauważają, że „grupy wrażliwe o złożonych potrzebach medycznych mają teraz bezprecedensowy dostęp do porad zdrowotnych opartych na AI, ale często brakuje im nadzoru klinicznego wymaganego do bezpiecznego wdrożenia”.
Demokratyzacja dostępu do medycznej AI, choć może być korzystna dla równości w opiece zdrowotnej, rodzi pytania o jakość i bezpieczeństwo opieki w środowiskach o ograniczonych zasobach, w których może brakować odpowiedniego nadzoru.
Implikacje geopolityczne i prywatność danych
Szybkie wdrażanie DeepSeek AI w chińskich szpitalach nie umknęło uwadze społeczności międzynarodowej. Niektóre kraje podjęły środki ostrożności. Włochy, Tajwan, Australia i Korea Południowa zablokowały lub zakazały dostępu do aplikacji na urządzeniach rządowych, obawiając się, że praktyki zarządzania danymi tego narzędzia stanowią zagrożenie dla bezpieczeństwa narodowego.
Eksperci ds. prywatności wyrażają obawy dotyczące gromadzenia i przechowywania danych. Ten chiński chatbot może stanowić zagrożenie dla bezpieczeństwa narodowego, ponieważ “po zagregowaniu dane te można wykorzystać do zbierania informacji o populacji lub zachowaniach użytkowników, które można wykorzystać do tworzenia skuteczniejszych ataków phishingowych lub innych złośliwych działań manipulacyjnych”.
Luki regulacyjne
Pomimo szerokiego zastosowania, ramy regulacyjne w Chinach nie nadążają za szybkim wdrażaniem AI w opiece zdrowotnej. Obecne interpretacje regulacyjne dopuszczają, aby sztuczna inteligencja wzmacniała, a nie zastępowała ludzki osąd diagnostyczny, co sugeruje, że konieczne jest ostrożne integrowanie jej z usługami medycznymi.
Warto zauważyć, że żaden produkt medyczny AI nie został uwzględniony w chińskim krajowym podstawowym ubezpieczeniu zdrowotnym, co wskazuje na utrzymujący się sceptycyzm co do niezawodności technologii. Historia DeepSeek AI w chińskich szpitalach stanowi odzwierciedlenie szerszych wyzwań związanych z wdrażaniem AI w kluczowych sektorach na całym świecie.
Chociaż technologia oferuje ogromny potencjał poprawy opieki zdrowotnej i obniżenia kosztów, ostrzeżenia lekarzy podkreślają potrzebę ostrożnego, metodycznego wdrażania.
Ostatnie badania podkreślają względną dokładność modelu DeepSeek w określonych wskaźnikach, takich jak ocena Deauville’a u pacjentów z chłoniakiem, ale nadal przyznają, że istnieją znaczne rozbieżności w porównaniu z ludzkimi lekarzami. Różnica w dokładności, w połączeniu z lukami w zabezpieczeniach i wyzwaniami regulacyjnymi, sugeruje, że obecne tempo wdrażania może być rzeczywiście „zbyt szybkie, zbyt wczesne”.
Wnioski: Moment krytyczny
W miarę jak Chiny kontynuują transformację “inteligentnych szpitali” i opieki zdrowotnej opartej na sztucznej inteligencji, integracja DeepSeek AI w chińskich szpitalach jest zarówno świadectwem innowacji technologicznych, jak i ostrzeżeniem przed ryzykiem związanym z szybkim wdrażaniem. Obawy zgłoszone przez Huang Tianyin’a i jego współpracowników z Uniwersytetu Tsinghua nie są sprzeciwem wobec postępu, ale wezwaniem do odpowiedzialnych innowacji, które priorytetowo traktują bezpieczeństwo pacjentów, równocześnie z postępem technologicznym.
Przyszłe wyzwanie polega na znalezieniu właściwej równowagi między wykorzystaniem niezaprzeczalnych korzyści AI w opiece zdrowotnej a wdrożeniem solidnych zabezpieczeń w celu ochrony pacjentów przed ryzykiem związanym z przedwczesnym lub niedostatecznie regulowanym wdrażaniem AI.
Trwająca debata wokół DeepSeek AI w chińskich szpitalach ostatecznie odzwierciedla fundamentalne pytanie, przed którym stoi globalna opieka zdrowotna: Jak szybko to jest zbyt szybko, gdy integruje się potężne systemy AI z aplikacjami medycznymi ratującymi życie? Odpowiedź na to pytanie ukształtuje przyszłość cyfrowej opieki zdrowotnej, nie tylko w Chinach, ale na całym świecie.