DeepSeek R1: Censura Reforçada Pós-Atualização

O mais recente modelo de inteligência artificial da startup chinesa DeepSeek, o DeepSeek R1, alcançou resultados impressionantes em benchmarks de codificação, matemática e conhecimento geral, quase superando o modelo principal da OpenAI, o o3. Mas a versão atualizada do R1, também conhecida como “R1-0528”, pode estar menos disposta a responder a perguntas controversas, particularmente aquelas sobre tópicos que o governo chinês considera sensíveis.

De acordo com os testes realizados pelo desenvolvedor anônimo por trás do SpeechMap, o R1-0528 demonstra uma tolerância muito menor a áreas controversas da liberdade de expressão do que as versões anteriores do DeepSeek e é “de longe o modelo DeepSeek mais rigorosamente censurado em relação às críticas ao governo chinês”. O SpeechMap é uma plataforma que compara como diferentes modelos abordam temas sensíveis e controversos.

Como explicado em um artigo da Wired em janeiro, os modelos chineses devem cumprir rigorosos controles de informação. Uma lei de 2023 proíbe os modelos de gerar conteúdo que “prejudique a unidade nacional e a harmonia social”, o que pode ser interpretado como conteúdo que se opõe às narrativas históricas e políticas do governo. Para estar em conformidade, as startups chinesas geralmente censuram seus modelos usando filtros de nível de prompt ou ajustes finos. Um estudo descobriu que o R1 original da DeepSeek se recusou a responder a 85% das perguntas sobre temas que o governo chinês considera politicamente controversos.

De acordo com xlr8harder, o R1-0528 censura respostas sobre tópicos como os campos de detenção na região de Xinjiang, na China, onde mais de um milhão de muçulmanos uigures foram detidos arbitrariamente. Embora às vezes critique certos aspectos das políticas do governo chinês – em testes de xlr8harder, ele ofereceu os campos de Xinjiang como exemplos de violações dos direitos humanos – quando questionado diretamente, o modelo frequentemente fornece a posição oficial do governo chinês.

A TechCrunch também observou isso em nossos breves testes.

Os modelos de IA disponíveis publicamente na China, incluindo modelos de geração de vídeo, foram criticados no passado por censurar tópicos sensíveis ao governo chinês, como o Massacre da Praça Tiananmen. Em dezembro, Clément Delangue, CEO da plataforma de desenvolvimento de IA Hugging Face, alertou sobre as consequências não intencionais de empresas ocidentais construírem sobre IA chinesa de bom desempenho e com licenças públicas.

O impacto da censura nos modelos de IA é há muito uma preocupação, especialmente em um contexto de tensões geopolíticas. O caso do DeepSeek R1-0528 destaca o complexo equilíbrio entre a busca pelo avanço tecnológico da IA e a manutenção da liberdade de pensamento e do acesso à informação. Vale a pena explorar profundamente como a DeepSeek está lidando com esses desafios e o que isso significa para o futuro desenvolvimento da indústria de IA.

Definição e Formas de Censura

A censura, em sentido amplo, refere-se à restrição ou supressão de informações e pode assumir várias formas. No campo da inteligência artificial, a censura geralmente se manifesta como:

  • Filtragem de conteúdo: Impedir que o modelo gere ou exiba certos tipos de conteúdo, como tópicos politicamente sensíveis, violência, discriminação, etc.
  • Distorção de informações: A apresentação de informações pelo modelo é modificada ou deturpada para se alinhar com uma determinada ideologia ou posição política.
  • Evasão de respostas: O modelo se recusa a responder a certas perguntas ou fornece respostas vagas e ambíguas.
  • Engenharia de prompts: Usando prompts cuidadosamente elaborados, guiar o modelo para fornecer respostas que correspondam a uma intenção específica.

O caso do DeepSeek R1-0528 sugere que o modelo pode ter adotado vários meios de censura acima, especialmente quando se trata de tópicos sensíveis ao governo chinês.

Razões e Motivações para a Censura

As razões e motivações para censurar modelos de inteligência artificial são geralmente multifacetadas:

  • Leis e regulamentos: Alguns países ou regiões promulgaram leis e regulamentos que exigem que os modelos de IA cumpram padrões específicos de controle de informações. Por exemplo, as leis relevantes na China proíbem os modelos de gerar conteúdo que “prejudique a unidade nacional e a harmonia social”.
  • Pressão política: Governos ou grupos políticos podem exercer pressão sobre empresas de IA para que censurem o conteúdo de seus modelos, a fim de defender seus interesses políticos.
  • Responsabilidade social: As empresas de IA podem, por considerações de responsabilidade social, censurar proativamente o conteúdo de seus modelos para evitar a disseminação de informações prejudiciais ou o desencadeamento de agitação social.
  • Interesses comerciais: Para evitar ofender o governo ou o público, as empresas de IA podem censurar o conteúdo de seus modelos a fim de defender seus interesses comerciais.

A DeepSeek, como uma empresa chinesa de inteligência artificial, pode enfrentar considerações de leis e regulamentos, pressão política e responsabilidade social, e, portanto, tem que censurar o R1-0528.

Impactos Potenciais da Censura

A censura de modelos de inteligência artificial pode ter os seguintes impactos potenciais:

  • Restrição do acesso à informação: A censura restringirá o acesso do usuário a informações abrangentes e objetivas, afetando assim seu julgamento e tomada de decisão.
  • Sufocamento da inovação: A censura restringirá o desenvolvimento da tecnologia de inteligência artificial, pois os pesquisadores podem não conseguir explorar e testar livremente várias ideias.
  • Exacerbação das divisões sociais: A censura pode exacerbar as divisões sociais, pois diferentes grupos só podem acessar informações que correspondam às suas próprias posições.
  • Danos à confiança: Se os usuários descobrirem que há censura em um modelo de inteligência artificial, eles podem perder a confiança no modelo.

O caso do DeepSeek R1-0528 sugere que a censura pode restringir o acesso do usuário a informações sobre tópicos sensíveis ao governo chinês.

Estratégias para Lidar com a Censura da Inteligência Artificial

Para lidar com a censura da inteligência artificial, as seguintes estratégias podem ser adotadas:

  • Meios técnicos: Desenvolver tecnologia que possa detectar e contornar filtros de censura.
  • Ações judiciais: Apresentar ações judiciais contra atos de censura que violem a liberdade de expressão.
  • Defesa pública: Aumentar a conscientização pública sobre a censura da inteligência artificial e pedir aos governos e empresas que tomem medidas.
  • Inteligência artificial descentralizada: Desenvolver plataformas de inteligência artificial descentralizadas para reduzir a possibilidade de censura.
  • Cooperação de código aberto: Incentivar a cooperação de código aberto para desenvolver conjuntamente modelos de inteligência artificial mais abertos e transparentes.

Resposta da DeepSeek

A DeepSeek ainda não respondeu publicamente às alegações de censura do R1-0528. Se a DeepSeek responder a isso, vale a pena prestar atenção aos seguintes aspectos:

  • A DeepSeek admite ter censurado o R1-0528?
  • Em caso afirmativo, quais são as razões e motivações da censura da DeepSeek?
  • A DeepSeek planeja mudar sua política de censura?
  • Como a DeepSeek equilibra o progresso tecnológico e a liberdade de informação?

A resposta da DeepSeek terá um impacto importante na indústria de inteligência artificial.

Discussão sobre Censura e Ética

A censura da inteligência artificial levanta uma série de questões éticas, incluindo:

  • Liberdade de expressão: Os modelos de inteligência artificial devem ter liberdade de expressão?
  • Acesso à informação: Os usuários têm o direito de acessar informações abrangentes e objetivas?
  • Transparência: As empresas de inteligência artificial têm a obrigação de tornar públicas suas políticas de censura?
  • Responsabilidade: Quem deve ser responsabilizado pela censura da inteligência artificial?
  • Confiança: Como construir confiança na era da inteligência artificial?

Essas questões éticas precisam ser profundamente exploradas.

Particularidades da Censura Chinesa

A censura chinesa tem suas particularidades, que se manifestam principalmente nos seguintes aspectos:

  • Amplo escopo: O escopo da censura chinesa abrange política, história, cultura, religião e muitos outros campos.
  • Estrita intensidade: A intensidade da censura chinesa é muito estrita e até envolve a censura da fala pessoal.
  • Tecnologia avançada: A China tem uma enorme equipe de censura e adota meios técnicos avançados para realizar a censura.
  • Apoio legal: A China formulou uma série de leis e regulamentos para fornecer apoio legal ao sistema de censura.

Essas particularidades apresentam desafios únicos para o desenvolvimento de modelos de inteligência artificial na China.

Comparação da Censura da Inteligência Artificial Global

Além da China, outros países também têm diferentes formas de censura da inteligência artificial, que se manifestam principalmente nos seguintes aspectos:

  • Europa: A União Europeia promulgou a “Lei de Inteligência Artificial”, que visa regular a aplicação da inteligência artificial e evitar que ela seja usada para discriminar ou violar os direitos humanos.
  • Estados Unidos: Os Estados Unidos regulam principalmente o desenvolvimento da inteligência artificial por meio de mecanismos de mercado e autorregulação da indústria, mas também existem algumas controvérsias sobre a censura de conteúdo.
  • Outros países: Outros países também formularam diferentes políticas regulatórias de inteligência artificial de acordo com suas próprias condições nacionais, algumas das quais podem envolver a censura de conteúdo.

Ao comparar a censura da inteligência artificial em diferentes países, pode-se entender melhor a complexidade e a diversidade da censura.

Tendências Futuras da Censura da Inteligência Artificial

As tendências futuras da censura da inteligência artificial podem incluir os seguintes aspectos:

  • Progresso tecnológico: A tecnologia de censura e a tecnologia anti-censura continuarão a se desenvolver, formando um jogo de gato e rato.
  • Fortalecimento regulatório: Os governos podem fortalecer a regulação da inteligência artificial, incluindo os aspectos da censura de conteúdo.
  • Cooperação internacional: Os países podem fortalecer a cooperação internacional na governança da inteligência artificial, incluindo os aspectos da censura de conteúdo.
  • Atenção social: Todos os setores da sociedade prestarão mais atenção ao impacto da censura da inteligência artificial e pedirão que sejam adotadas práticas mais responsáveis.

Impacto da Censura na DeepSeek

A DeepSeek, como uma empresa chinesa de inteligência artificial, é profundamente influenciada pelo sistema de censura chinês em seu desenvolvimento. A DeepSeek precisa encontrar um equilíbrio entre cumprir as leis e regulamentos chineses e atender às necessidades do usuário. O futuro desenvolvimento da DeepSeek dependerá de como ela lida com os desafios colocados pela censura.

Inteligência Artificial e Viés

A censura está intimamente relacionada à questão do viés na inteligência artificial. A censura pode levar a que os modelos aprendam apenas informações parciais, levando assim ao viés. A DeepSeek precisa tomar medidas para garantir que seus modelos possam aprender informações abrangentes e objetivas e evitar gerar viés.

Transparência e Explicabilidade

Para enfrentar os desafios colocados pela censura, a DeepSeek deve aumentar a transparência e a explicabilidade de seus modelos. A DeepSeek deve divulgar suas políticas de censura e explicar como seus modelos lidam com tópicos sensíveis. Isso ajudará a construir a confiança do usuário e a promover o desenvolvimento saudável da inteligência artificial.

Resumo

O caso do DeepSeek R1-0528 destaca a complexidade e a importância da censura da inteligência artificial. A censura tem um impacto importante no acesso à informação, na inovação tecnológica, nas divisões sociais e na confiança do usuário. Lidar com a censura requer uma variedade de estratégias, como meios técnicos, ações judiciais, defesa pública, inteligência artificial descentralizada e cooperação de código aberto. A DeepSeek, como uma empresa chinesa de inteligência artificial, precisa encontrar um equilíbrio entre cumprir as leis e regulamentos chineses e atender às necessidades do usuário. A DeepSeek deve aumentar a transparência e a explicabilidade de seus modelos para enfrentar os desafios colocados pela censura.