DeepSeek in der Kritik: Baidu-Chef äußert Bedenken

DeepSeek’s Kontroverses Debüt

Wie Guancha.cn und Sina.com berichteten, sprach Li während der Konferenz über die schwankende Landschaft der groß angelegten KI-Modelle. Er hob den intensiven Wettbewerb zwischen den Modellentwicklern hervor, der oft als ‘Rattenrennen’ bezeichnet wird, und die daraus resultierende Verwirrung und Zögerlichkeit bei den Entwicklern, Anwendungen selbstbewusst zu erstellen.

Li betonte: ‘Ohne Anwendungen sind Chips und Modelle wertlos.’ Er wies auf die hohen Kosten und die Unpraktikabilität der Nutzung aktueller groß angelegter Modelle als Haupthindernis für Entwickler hin, die KI-Anwendungen erstellen wollen.

DeepSeek, ein Startup mit Sitz in Hangzhou, China, veröffentlichte im Januar sein Open-Source-Reasoning-Modell R1. Zu dieser Zeit lobten staatliche Medien DeepSeek als überlegen gegenüber Größen wie OpenAI. Nachfolgende Untersuchungen von Nutzern und Forschern ergaben jedoch Mängel, Sicherheitslücken und potenzielle Risiken. Zahlreiche Regierungen, darunter Taiwan, Japan, Südkorea, die Vereinigten Staaten, Kanada, Italien, Australien und die Niederlande, sowie Hunderte von Unternehmen haben die Nutzung von DeepSeek auf Regierungs- und Firmengeräten verboten.

Am 8. Februar teilten KI-Sicherheitsexperten den Medien die Ergebnisse eingehender Sicherheitstests an DeepSeek mit. Sie entdeckten, dass DeepSeek anfälliger für ‘Jailbreaking’ war als ChatGPT, Gemini und Claude. Diese Schwachstelle ermöglichte es Benutzern, die ursprünglichen Sicherheitsbeschränkungen der KI zu umgehen, wodurch es einfacher wurde, potenziell gefährliche, schädliche oder illegale Inhalte zu erhalten.

Im März kündigte ‘Luchen Technology’, ein KI-Infrastrukturunternehmen mit Verbindungen zur Tsinghua-Universität, das als eines der ersten DeepSeek-Modelle integrierte, um API- und Cloud-Mirror-Dienste bereitzustellen, die Aussetzung der damit verbundenen Dienste an. Der Gründer des Unternehmens, You Yang, enthüllte in einem Beitrag, dass die tatsächlichen Kosten im Zusammenhang mit DeepSeek deutlich höher waren als die theoretischen Kosten. Nach Online-Gegenreaktionen erklärte er öffentlich, dass DeepSeek ohne den Einsatz amerikanischer Technologie kurzfristig nicht funktionieren könne, und fragte, warum diese Realität nicht offen anerkannt werden könne.

Laut einem Bericht von Sina Technology vom 4. März kündigte DeepSeek am 1. März um 17:02 Uhr eine theoretische Kosten-Gewinn-Marge von 545 % für sein Online-System an. Anschließend kündigte Luchen Technology an, dass sie die Bereitstellung von DeepSeek-API-Diensten innerhalb einer Woche einstellen und die Benutzer auffordern würde, ihre restlichen Guthaben zu nutzen.

Der Bericht stellte fest, dass Luchen Technology die spezifischen Gründe für die Einstellung des DeepSeek-API-Dienstes nicht öffentlich bekannt gegeben hat. Die ausführliche Analyse der Kosten von DeepSeek durch den Gründer auf Plattformen wie Zhihu deutet jedoch darauf hin, dass die Kosten ein Hauptfaktor bei der Entscheidung waren, die Bereitstellung des API-Dienstes einzustellen.

Bedenken Hinsichtlich Der Nationalen Sicherheit

Die Verbindungen zwischen DeepSeek und der chinesischen Regierung sind möglicherweise direkter als ursprünglich angenommen. Feroot Security, ein kanadisches Cybersicherheitsunternehmen, entdeckte bedeutende Verbindungen zwischen der Login-Seite der DeepSeek-Website und China Mobile, einem chinesischen Staatsunternehmen, das zuvor von der US-Regierung sanktioniert wurde.

In den letzten Monaten haben Bedenken hinsichtlich der nationalen Sicherheit zu zunehmenden Forderungen nach einem Verbot von DeepSeek geführt.

Am 24. April sandten mehrere Mitglieder des US-Repräsentantenhauses einen Brief an DeepSeek, in dem sie Bedenken hinsichtlich der Verbindungen des Unternehmens zur Kommunistischen Partei Chinas (KPCh) äußerten und Informationen über die US-Daten anforderten, die zum Trainieren seiner KI-Modelle verwendet wurden.

Der Abgeordnete Brett Guthrie, Vorsitzender des Ausschusses für Energie und Handel des Repräsentantenhauses, und der Abgeordnete Gus Bilirakis, Vorsitzender des Unterausschusses für Innovation, Daten und Handel, richteten zusammen mit zehn weiteren Mitgliedern des Unterausschusses einen Brief an DeepSeek, in dem sie Bedenken hinsichtlich der ‘Erfassung persönlicher Daten von Amerikanern’ durch das Unternehmen und der damit verbundenen Risiken für die nationale Sicherheit äußerten.

In dem Brief erklärten Guthrie und Bilirakis, dass ‘DeepSeek zugibt, die persönlichen Daten amerikanischer Nutzer an Server in China zu übertragen, wo diese Informationen zweifellos von Beamten der Kommunistischen Partei Chinas abgerufen würden. Wir sind besorgt, dass diese Agenturbeziehung zu unserem Hauptgegner unsere Daten und die nationale Sicherheit gefährdet.’

‘Um sicherzustellen, dass amerikanische Nutzer und ihre Unternehmen vor ausländischer Einmischung geschützt sind, starten wir eine Untersuchung von DeepSeek und der Bedrohung, die es für unsere Nation darstellt.’

In dem Brief heißt es weiter: ‘Laut Medienberichten teilt das Unternehmen die persönlichen Daten der Nutzer auch mit anderen Einrichtungen, die der Kommunistischen Partei Chinas angeschlossen sind, darunter ByteDance.’

‘Gleichzeitig haben Forscher kritische Schwachstellen in den angeblichen Sicherheitskontrollen und Modellschutzmaßnahmen von DeepSeek entdeckt. Als Reaktion auf diese Risiken hat eine wachsende Zahl von Staaten, darunter New York, Texas und Virginia, die Verwendung von DeepSeek auf Regierungsgeräten verboten, und die Generalstaatsanwälte der Bundesstaaten haben breitere Verbote gefordert.’

Am 16. April veröffentlichte der US-Sonderausschuss des Repräsentantenhauses für die Kommunistische Partei Chinas einen Bericht, in dem betont wird, dass DeepSeek eine erhebliche Bedrohung für die nationale Sicherheit der USA darstellt. Der Bericht beschuldigte DeepSeek, Benutzerdaten für die KPCh zu sammeln und Ergebnisse heimlich zu manipulieren, und wurde so zum neuesten Instrument für die KPCh, um sich selbst zu beschönigen, ausländische Bürger zu überwachen und US-Exportkontrollbeschränkungen zu stehlen und zu untergraben.

Der Bericht wies darauf hin, dass DeepSeek zwar wie ein weiterer KI-Chatbot erscheinen mag, der Benutzern eine Möglichkeit bietet, Text zu generieren und Fragen zu beantworten, aber eine genauere Untersuchung zeigt, dass DeepSeek heimlich erhaltene persönliche Daten an China Mobile überträgt, das Verbindungen zum chinesischen Militär hat, wodurch Sicherheitslücken für Benutzer entstehen. Die USA haben China Mobile bereits den Betrieb in den Vereinigten Staaten untersagt.

Ein Tiefer Einblick In DeepSeek’s Angeblichen Mängel

Während der anfängliche Hype um DeepSeek das Bild eines KI-Wunders zeichnete, das bereit war, verschiedene Sektoren zu revolutionieren, hat eine genauere Betrachtung eine differenziertere und komplexere Realität offenbart. Die von Baidu’s CEO, Robin Li, geäußerten Bedenken und die anschließenden Untersuchungen von Cybersicherheitsexperten und Regierungsbehörden heben mehrere kritische Bereiche hervor, in denen DeepSeek die Erwartungen nicht erfüllt und potenzielle Risiken birgt.

Begrenzte Multimodale Fähigkeiten

Eine der Hauptkritiken an DeepSeek ist seine begrenzte Fähigkeit, multimodale Inhalte zu verarbeiten. Im Gegensatz zu fortschrittlicheren KI-Modellen, die verschiedene Datenformen, einschließlich Text, Bilder, Audio und Video, nahtlos integrieren und verstehen können, hat DeepSeek Berichten zufolge Schwierigkeiten, etwas über grundlegende Texteingaben hinaus zu verstehen. Diese Einschränkung schränkt seine Anwendbarkeit in realen Szenarien, in denen Informationen oft in einer Kombination von Formaten präsentiert werden, erheblich ein. Beispielsweise könnte DeepSeek Schwierigkeiten haben, einen Social-Media-Beitrag zu analysieren, der sowohl Text als auch ein Bild enthält, oder eine Videokonferenz zu transkribieren und zu verstehen.

Leistungsprobleme: Geschwindigkeit Und Kosten

Über seine Einschränkungen bei der Verarbeitung verschiedener Medien hinaus steht DeepSeek auch vor Herausforderungen im Zusammenhang mit seiner Leistung. Laut Robin Li zeichnet sich das Modell durch seine ‘langsame’ Geschwindigkeit und ‘hohen’ Kosten aus, was es für Entwickler, die skalierbare und kostengünstige KI-Anwendungen erstellen möchten, weniger attraktiv macht. Die hohen Rechenressourcen, die zum Ausführen von DeepSeek benötigt werden, können für Unternehmen zu erheblichen Kosten führen, insbesondere für solche mit groß angelegten Bereitstellungen. Darüber hinaus kann die langsame Verarbeitungsgeschwindigkeit Echtzeitanwendungen wie Chatbots oder virtuelle Assistenten behindern, bei denen die Reaktionsfähigkeit für eine positive Benutzererfahrung entscheidend ist.

Das ‘Halluzinationsraten’-Problem

Ein weiteres großes Problem bei DeepSeek ist seine hohe ‘Halluzinationsrate’, die sich auf die Tendenz des Modells bezieht, ungenaue oder unsinnige Informationen zu generieren. Dieses Problem stellt eine erhebliche Herausforderung für Anwendungen dar, die zuverlässige und vertrauenswürdige Ausgaben erfordern. In kritischen Bereichen wie dem Gesundheitswesen oder dem Finanzwesen, in denen Genauigkeit von größter Bedeutung ist, könnten die Risiken, dass DeepSeek falsche oder irreführende Informationen produziert, schwerwiegende Folgen haben. Die ‘Halluzinationsrate’ untergräbt die Glaubwürdigkeit des Modells und schränkt seine Benutzerfreundlichkeit in sensiblen Kontexten ein.

Sicherheitslücken Und Jailbreaking

Die Enthüllung, dass DeepSeek anfälliger für ‘Jailbreaking’ ist als andere führende KI-Modelle, wirft erhebliche Sicherheitsbedenken auf. ‘Jailbreaking’ bezieht sich auf den Prozess, die Sicherheitsbeschränkungen einer KI zu umgehen, um schädliche, unethische oder illegale Inhalte zu erhalten. Die Tatsache, dass DeepSeek auf diese Weise leichter manipuliert werden kann, deutet auf Schwächen in seiner zugrunde liegenden Sicherheitsarchitektur hin. Diese Schwachstelle könnte von böswilligen Akteuren ausgenutzt werden, um Desinformationen zu generieren, Propaganda zu verbreiten oder andere schädliche Aktivitäten auszuüben.

Datenschutz Und Nationale Sicherheitsrisiken

Die angeblichen Verbindungen zwischen DeepSeek und der chinesischen Regierung, insbesondere seine Datenweitergabepraktiken mit China Mobile, haben Alarmglocken in Bezug auf Datenschutz und nationale Sicherheit ausgelöst. Die Übertragung persönlicher Daten amerikanischer Nutzer an Server in China, wo diese von mit der KPCh verbundenen Beamten abgerufen werden könnten, wirft ernsthafte Bedenken hinsichtlich potenzieller Überwachung, Spionage und der Gefährdung sensibler Informationen auf. Die Prüfung von DeepSeek durch die US-Regierung unterstreicht das wachsende Bewusstsein für die potenziellen Risiken, die mit KI-Modellen verbunden sind, die von ausländischen Unternehmen mit engen Verbindungen zu gegnerischen Regierungen entwickelt wurden.

Die Breiteren Implikationen

Die Bedenken hinsichtlich DeepSeek gehen über die spezifischen Einschränkungen und Schwachstellen dieses speziellen KI-Modells hinaus. Sie spiegeln breitere Herausforderungen und Risiken wider, die mit der rasanten Entwicklung und Bereitstellung von KI-Technologien verbunden sind. Der Fall DeepSeek unterstreicht die Bedeutung von:

  • Gründlichen Tests Und Bewertungen: Gründliche Tests und Bewertungen sind unerlässlich, um potenzielle Schwächen, Verzerrungen und Sicherheitslücken in KI-Modellen zu identifizieren und zu beheben, bevor sie breit eingesetzt werden.
  • Transparenz Und Rechenschaftspflicht: Entwickler sollten transparent über die Daten sein, die zum Trainieren ihrer Modelle verwendet werden, und über die von ihnen verwendeten Algorithmen. Sie sollten auch für die Ergebnisse und Folgen ihrer KI-Systeme zur Rechenschaft gezogen werden.
  • Datenschutz Und Sicherheitsvorkehrungen: Starke Datenschutz- und Sicherheitsmaßnahmen sind erforderlich, um die persönlichen Daten der Nutzer vor unbefugtem Zugriff, Missbrauch oder Ausbeutung zu schützen.
  • Internationale Zusammenarbeit: Internationale Zusammenarbeit ist entscheidend, um gemeinsame Standards und Vorschriften für die KI-Entwicklung und -Bereitstellung festzulegen und sicherzustellen, dass diese Technologien verantwortungsvoll und ethisch eingesetzt werden.
  • Kritisches Denken Und Medienkompetenz: Nutzer sollten ermutigt werden, die von KI-Modellen generierten Informationen kritisch zu bewerten und Medienkompetenz zu entwickeln, um zwischen genauen und irreführenden Inhalten zu unterscheiden.

Die DeepSeek-Kontroverse dient als warnendes Beispiel und erinnert uns daran, dass das Streben nach KI-Innovation mit einer sorgfältigen Abwägung der potenziellen Risiken und gesellschaftlichen Auswirkungen einhergehen muss.