Estreia Controvertida do DeepSeek
Um modelo de IA chinês, DeepSeek, que ganhou atenção e elogios significativos no início deste ano, recentemente passou a ser alvo de escrutínio por parte de Robin Li, o Presidente e CEO da Baidu. Durante a Conferência de Desenvolvedores de IA da Baidu em 25 de abril, Li expressou reservas sobre as capacidades do DeepSeek, citando suas limitações no processamento de diversos formatos de mídia, seu desempenho lento e altos custos, e sua propensão para gerar informações imprecisas, tornando-o não confiável para uso generalizado.
De acordo com relatos da Guancha.cn e Sina.com, Li abordou o cenário flutuante de modelos de IA em larga escala durante a conferência. Ele destacou a intensa competição entre os desenvolvedores de modelos, muitas vezes descrita como uma ‘corrida de ratos’, e a resultante confusão e hesitação entre os desenvolvedores para criar aplicações com confiança.
Li enfatizou que ‘Sem aplicações, chips e modelos não valem nada’. Ele apontou o alto custo e a impraticabilidade da utilização dos modelos atuais em larga escala como um grande obstáculo para os desenvolvedores que visam construir aplicações de IA.
DeepSeek, uma startup com sede em Hangzhou, China, lançou seu modelo de raciocínio de código aberto, R1, em janeiro. Na época, a mídia estatal elogiou o DeepSeek como superando nomes como OpenAI. No entanto, investigações subsequentes por usuários e pesquisadores revelaram deficiências, vulnerabilidades de segurança e riscos potenciais. Vários governos, incluindo Taiwan, Japão, Coreia do Sul, Estados Unidos, Canadá, Itália, Austrália e Holanda, juntamente com centenas de empresas, proibiram o uso do DeepSeek em dispositivos governamentais e corporativos.
Em 8 de fevereiro, especialistas em segurança de IA compartilharam resultados de testes de segurança aprofundados no DeepSeek com a mídia. Eles descobriram que o DeepSeek era mais suscetível a ‘jailbreaking’ em comparação com o ChatGPT, Gemini e Claude. Essa vulnerabilidade permitiu que os usuários contornassem as restrições de segurança originais da IA, tornando mais fácil obter conteúdo potencialmente perigoso, prejudicial ou ilegal.
Em março, ‘Luchen Technology’, uma empresa de infraestrutura de IA com ligações com a Universidade de Tsinghua, que estava entre as primeiras a integrar modelos DeepSeek para fornecer API e serviços de espelho na nuvem, anunciou a suspensão dos serviços relacionados. O fundador da empresa, You Yang, revelou em uma postagem que os custos reais associados ao DeepSeek eram significativamente mais altos do que os custos teóricos. Após a reação online, ele afirmou publicamente que o DeepSeek não poderia operar sem utilizar tecnologia americana no curto prazo, questionando por que essa realidade não poderia ser reconhecida abertamente.
De acordo com um relatório da Sina Technology em 4 de março, o DeepSeek anunciou uma margem de lucro de custo teórico de 545% para seu sistema online em 1º de março às 17:02. Posteriormente, a Luchen Technology anunciou que descontinuaria o fornecimento de serviços de API DeepSeek dentro de uma semana, instando os usuários a utilizarem seus saldos restantes.
O relatório observou que a Luchen Technology não divulgou publicamente as razões específicas para descontinuar o serviço de API DeepSeek. No entanto, a extensa análise do fundador sobre os custos do DeepSeek em plataformas como o Zhihu sugere que o custo foi um fator primordial na decisão de cessar o fornecimento do serviço de API.
Preocupações Sobre a Segurança Nacional
As conexões entre o DeepSeek e o governo chinês são potencialmente mais diretas do que inicialmente se percebia. A Feroot Security, uma empresa canadense de cibersegurança, descobriu ligações significativas entre a página de login do site do DeepSeek e a China Mobile, uma empresa estatal chinesa anteriormente sancionada pelo governo dos EUA.
Nos últimos meses, as preocupações com a segurança nacional levaram a crescentes apelos pela proibição do DeepSeek.
Em 24 de abril, vários membros da Câmara dos Representantes dos EUA enviaram uma carta ao DeepSeek, expressando preocupações sobre as conexões da empresa com o Partido Comunista Chinês (PCC) e solicitando informações sobre os dados dos EUA usados para treinar seus modelos de IA.
O Representante Brett Guthrie, Presidente do Comitê de Energia e Comércio da Câmara, e o Representante Gus Bilirakis, Presidente do Subcomitê de Inovação, Dados e Comércio, juntamente com outros dez membros do subcomitê, dirigiram uma carta ao DeepSeek expressando preocupações sobre a ‘coleta de dados pessoais de americanos’ pela empresa e os riscos de segurança nacional associados.
Na carta, Guthrie e Bilirakis afirmaram que ‘O DeepSeek admite transmitir dados pessoais de usuários americanos para servidores na China, onde essas informações seriam, sem dúvida, acessadas por funcionários afiliados ao Partido Comunista Chinês. Estamos preocupados que esse relacionamento de agência com nosso principal adversário coloque em risco nossos dados e segurança nacional.
‘Para garantir que os usuários americanos e seus negócios estejam protegidos contra interferência estrangeira, estamos lançando uma investigação sobre o DeepSeek e a ameaça que ele representa para nossa nação.’
A carta ainda afirmava: ‘De acordo com relatos da mídia, a empresa também compartilha informações pessoais dos usuários com outras entidades afiliadas ao Partido Comunista Chinês, incluindo a ByteDance.
‘Ao mesmo tempo, pesquisadores descobriram vulnerabilidades críticas nos supostos controles de segurança e salvaguardas de modelo do DeepSeek. Em resposta a esses riscos, um número crescente de estados, incluindo Nova York, Texas e Virgínia, proibiu o uso do DeepSeek em dispositivos governamentais, e os procuradores-gerais estaduais pediram proibições mais amplas.’
Em 16 de abril, o Comitê Seleto da Câmara dos EUA sobre o Partido Comunista Chinês divulgou um relatório enfatizando que o DeepSeek representa uma ameaça significativa à segurança nacional dos EUA. O relatório acusou o DeepSeek de coletar dados de usuários para o PCC e manipular secretamente os resultados, tornando-se a mais recente ferramenta para o PCC embelezar-se, monitorar cidadãos estrangeiros e roubar e minar as restrições de controle de exportação dos EUA.
O relatório apontou que, embora o DeepSeek possa parecer apenas mais um chatbot de IA que fornece aos usuários uma maneira de gerar texto e responder a perguntas, um exame mais detalhado revela que o DeepSeek transmite secretamente os dados pessoais obtidos para a China Mobile, que tem ligações com os militares chineses, criando vulnerabilidades de segurança para os usuários. Os EUA já proibiram a China Mobile de operar nos Estados Unidos.
Uma Imersão Profunda nas Supostas Deficiências do DeepSeek
Enquanto o hype inicial em torno do DeepSeek pintava um quadro de uma maravilha da IA pronta para revolucionar vários setores, uma análise mais detalhada revelou uma realidade mais matizada e complexa. As preocupações levantadas pelo CEO da Baidu, Robin Li, e as subsequentes investigações por especialistas em cibersegurança e órgãos governamentais, destacam várias áreas críticas onde o DeepSeek fica aquém das expectativas e levanta riscos potenciais.
Capacidades Multimodais Limitadas
Uma das principais críticas direcionadas ao DeepSeek é sua capacidade limitada de processar conteúdo multimodal. Ao contrário de modelos de IA mais avançados que podem integrar e entender perfeitamente várias formas de dados, incluindo texto, imagens, áudio e vídeo, o DeepSeek supostamente tem dificuldades para compreender qualquer coisa além da entrada de texto básica. Essa limitação restringe significativamente sua aplicabilidade em cenários do mundo real onde as informações são frequentemente apresentadas em uma combinação de formatos. Por exemplo, o DeepSeek pode ter dificuldades para analisar uma postagem de mídia social que inclui texto e uma imagem, ou para transcrever e entender uma videoconferência.
Problemas de Desempenho: Velocidade e Custo
Além de suas limitações no manuseio de diversas mídias, o DeepSeek também enfrenta desafios relacionados ao seu desempenho. De acordo com Robin Li, o modelo é caracterizado por sua velocidade ‘lenta’ e custo ‘alto’, tornando-o menos atraente para desenvolvedores que buscam construir aplicações de IA escaláveis e econômicas. Os altos recursos computacionais necessários para executar o DeepSeek podem se traduzir em despesas significativas para as empresas, particularmente aquelas com implantações em larga escala. Além disso, a velocidade de processamento lenta pode prejudicar aplicações em tempo real, como chatbots ou assistentes virtuais, onde a capacidade de resposta é crucial para uma experiência de usuário positiva.
O Problema da ‘Taxa de Alucinação’
Outra grande preocupação em torno do DeepSeek é sua alta ‘taxa de alucinação’, referindo-se à tendência do modelo de gerar informações imprecisas ou sem sentido. Esse problema representa um desafio significativo para aplicações que exigem resultados confiáveis e confiáveis. Em domínios críticos, como saúde ou finanças, onde a precisão é primordial, o risco de o DeepSeek produzir informações falsas ou enganosas pode ter sérias consequências. A ‘taxa de alucinação’ prejudica a credibilidade do modelo e limita sua usabilidade em contextos sensíveis.
Vulnerabilidades de Segurança e Jailbreaking
A revelação de que o DeepSeek é mais suscetível a ‘jailbreaking’ do que outros modelos de IA líderes levanta significativas preocupações de segurança. ‘Jailbreaking’ refere-se ao processo de contornar as restrições de segurança de uma IA para obter conteúdo prejudicial, antiético ou ilegal. O fato de que o DeepSeek pode ser mais facilmente manipulado dessa forma sugere fraquezas em sua arquitetura de segurança subjacente. Essa vulnerabilidade pode ser explorada por agentes maliciosos para gerar desinformação, espalhar propaganda ou se envolver em outras atividades prejudiciais.
Privacidade de Dados e Riscos à Segurança Nacional
As supostas conexões entre o DeepSeek e o governo chinês, particularmente suas práticas de compartilhamento de dados com a China Mobile, desencadearam alarmes sobre privacidade de dados e segurança nacional. A transmissão de dados pessoais de usuários americanos para servidores na China, onde poderiam ser acessados por funcionários afiliados ao PCC, levanta sérias preocupações sobre potencial vigilância, espionagem e o comprometimento de informações confidenciais. O escrutínio do governo dos EUA sobre o DeepSeek ressalta a crescente conscientização sobre os riscos potenciais associados a modelos de IA desenvolvidos por entidades estrangeiras com estreitas ligações com governos adversários.
As Implicações Mais Amplas
As preocupações em torno do DeepSeek se estendem além das limitações e vulnerabilidades específicas deste modelo de IA em particular. Elas refletem desafios e riscos mais amplos associados ao rápido desenvolvimento e implantação de tecnologias de IA. O caso DeepSeek destaca a importância de:
- Testes e Avaliação Rigorosos: Testes e avaliação completos são essenciais para identificar e abordar potenciais fraquezas, vieses e vulnerabilidades de segurança em modelos de IA antes que sejam amplamente implantados.
- Transparência e Responsabilidade: Os desenvolvedores devem ser transparentes sobre os dados usados para treinar seus modelos e os algoritmos que empregam. Eles também devem ser responsabilizados pelos resultados e consequências de seus sistemas de IA.
- Privacidade de Dados e Salvaguardas de Segurança: Medidas fortes de privacidade e segurança de dados são necessárias para proteger as informações pessoais dos usuários contra acesso não autorizado, uso indevido ou exploração.
- Cooperação Internacional: A cooperação internacional é crucial para estabelecer padrões e regulamentos comuns para o desenvolvimento e implantação de IA, garantindo que essas tecnologias sejam usadas de forma responsável e ética.
- Pensamento Crítico e Alfabetização Midiática: Os usuários devem ser encorajados a avaliar criticamente as informações geradas por modelos de IA e a desenvolver habilidades de alfabetização midiática para distinguir entre conteúdo preciso e enganoso.
A controvérsia do DeepSeek serve como um conto de advertência, lembrando-nos de que a busca pela inovação em IA deve ser equilibrada com uma consideração cuidadosa dos riscos potenciais e implicações sociais.