Um Festival Literário, uma Revelação da IA
Há algumas semanas, o vibrante Jaipur Literature Festival (JLF), na Índia, tornou-se um fórum inesperado para uma discussão crucial sobre o futuro da inteligência artificial. Durante um painel ostensivamente focado no legado do império, a conversa tomou um rumo inesperado. O público, cativado pelo livro ‘From the Ruins of Empire: The Revolt Against the West and the Remaking of Asia’, de Pankaj Mishra, fez uma série de perguntas incisivas, não sobre literatura, mas sobre DeepSeek, um novo modelo de IA generativa da China.
Estas perguntas – Como chegamos aqui? Como traçamos o melhor caminho possível para o futuro da IA? Por que o código aberto é fundamental no desenvolvimento da IA? – ressoaram muito além dos limites do festival. Elas tocaram numa rivalidade histórica profundamente enraizada, num anseio por autossuficiência e num crescente movimento global que defende uma abordagem mais aberta e colaborativa para o desenvolvimento da IA.
As Raízes Históricas da Recepção do DeepSeek
A emergência do DeepSeek num festival de literatura pode parecer peculiar. No entanto, a sua proeminência está profundamente interligada com eventos históricos e uma rivalidade de longa data, particularmente entre a Ásia e o Ocidente. Enquanto os laboratórios europeus de IA têm recebido elogios pelas suas descobertas de código aberto, a recepção do DeepSeek na Ásia carrega uma ressonância histórica muito mais profunda.
O lançamento do DeepSeek foi recebido com intensa cobertura da mídia. A sua recepção no JLF revelou um sentimento que transcendia meras discussões sobre o desempenho da IA. Escritores e jornalistas indianos, muitas vezes críticos da China, viram-se unidos por uma luta comum contra o domínio das Corporações Americanas de IA (AIC, na sigla em inglês). Este entusiasmo pelo DeepSeek em toda a Ásia está enraizado na história colonial e, mais recentemente, em pronunciamentos corporativos provocativos.
IA: Uma Luta Moderna pela Autossuficiência
Para Stephen Platt, autor de ‘Imperial Twilight: The Opium War and The End of China’s Last Golden Age’, as ambições tecnológicas da China são inseparáveis das suas cicatrizes históricas. As Guerras do Ópio (1839–1860) servem como um símbolo potente de como a superioridade tecnológica e militar da Grã-Bretanha humilhou a China. Este “Século de Humilhação” alimenta o atual impulso da China pela autossuficiência, os seus investimentos agressivos em IA, semicondutores e outras tecnologias críticas. É uma determinação para evitar a dependência da tecnologia ocidental, uma lição gravada na consciência nacional.
Os painelistas indianos no JLF encontraram um terreno comum nesta narrativa. Tal como a China, a Índia carrega a marca sombria da influência da Companhia Britânica das Índias Orientais. Além disso, a jornalista britânica Anita Anand destacou um vídeo controverso do CEO da OpenAI, Sam Altman, desconsiderando o potencial da Índia para competir com as AICs no treinamento de modelos de base, afirmando que era “totalmente inútil”. Tais comentários apenas fortaleceram a determinação pela autossuficiência na região.
IA de Código Aberto: Um Símbolo de Resistência
DeepSeek, e os laboratórios europeus que o precederam, ofereceram um farol de esperança na corrida da IA. A sua escolha de abraçar o código aberto tornou-se um poderoso símbolo de resistência contra o domínio dos modelos de IA proprietários.
O lançamento do DeepSeek R1 deve ser entendido no contexto de uma rivalidade profundamente enraizada, particularmente com os Estados Unidos. Esta rivalidade é tão profunda que a Europa é frequentemente negligenciada nas discussões sobre a competição com a tecnologia dos EUA.
O domínio das AICs chegou a desencadear comparações com o colonialismo no Ocidente. Num artigo de opinião de agosto de 2024 intitulado ‘The Rise of Techno-Colonialism’, Hermann Hauser, membro do Conselho Europeu de Inovação, e Hazem Danny Nakib, Investigador Sénior na University College London (UCL), escreveram: ‘Ao contrário do colonialismo de antigamente, o tecno-colonialismo não se trata de apreender território, mas de controlar as tecnologias que sustentam a economia mundial e as nossas vidas diárias. Para conseguir isso, os EUA e a China estão cada vez mais a internalizar os segmentos mais inovadores e complexos das cadeias de abastecimento globais, criando assim pontos de estrangulamento estratégicos.’
A abordagem pioneira de código aberto de laboratórios europeus de IA como Mistral, kyutai e a equipa FAIR Paris da Meta, e agora DeepSeek, apresentou uma alternativa convincente à estratégia de modelo de IA proprietário das AICs. Estas contribuições de código aberto estão a ressoar globalmente e solidificaram ainda mais a adoção da IA de código aberto como um símbolo de resistência contra o domínio da IA americana.
O Caso do Código Aberto: A História Rima
A colaboração tecnológica prospera com energia e velocidade, algo que é inerente à evolução do código de software.
O laureado francês com o Prémio Nobel de Economia, Jean Tirole, inicialmente perplexo com o surgimento do código aberto, questionou no seu artigo de 2000 com Josh Lerner, ‘The Simple Economics of Open Source’: ‘Por que milhares de programadores de primeira linha deveriam contribuir livremente para o fornecimento de um bem público? Qualquer explicação baseada no altruísmo só vai até certo ponto.’
Embora compreensível na época, qualquer pessoa que acompanhe o progresso da IA nos últimos anos, especialmente após o lançamento do DeepSeek R1, acharia a resposta evidente. O impacto da FAIR Paris na abertura do código do Llama pela Meta, a ascensão meteórica da Mistral e dos seus fundadores através da abertura do código de um modelo de aprendizagem de línguas (LLM) de 7B, e o DeepSeek R1 demonstram as razões convincentes por trás da dedicação destes programadores e cientistas ao código aberto.
Também esclarece por que Sam Altman e os seus co-fundadores escolheram o nome ‘OpenAI’ para atrair talentos. Será que algum destes laboratórios de fronteira teria alcançado uma publicidade tão retumbante e construído marcas pessoais tão fortes dentro da comunidade de IA se tivessem optado por uma abordagem proprietária? A resposta é um sonoro não.
Duas citações poderosas de 1999, do programador Richard Stallman e do desenvolvedor Eric Raymond, respetivamente, incluídas no início do artigo, iluminam a recepção do DeepSeek no JLF e sublinham as forças ideológicas mais profundas em jogo:
‘A ideia de que o sistema social de software proprietário – o sistema que diz que não é permitido partilhar ou alterar software – é antissocial, que é antiético, que é simplesmente errado, pode ser uma surpresa para algumas pessoas. Mas o que mais podemos dizer sobre um sistema baseado em dividir o público e manter os utilizadores indefesos?’ - Richard Stallman
‘A função de utilidade que os hackers do Linux estão a maximizar não é classicamente económica, mas a intangível da sua própria satisfação do ego e reputação entre outros hackers. … Culturas voluntárias que funcionam desta forma não são, na verdade, incomuns; outra em que participei por muito tempo é o fandom de ficção científica, que, ao contrário do hackerdom, reconhece explicitamente o egoboo (o aprimoramento da reputação de alguém entre outros fãs).’ - Eric Raymond
A trajetória do Unix nas décadas de 1970 e 1980 fornece uma analogia convincente para o estado atual da IA. A promoção inicial e a distribuição gratuita do Unix pela AT&T dentro da academia fomentaram a inovação e a adoção. No entanto, quando a AT&T impôs uma licença proprietária no final da década de 1970, isso inevitavelmente levou a Universidade de Berkeley a lançar o BSD Unix, uma alternativa aberta, e, finalmente, Linus Torvalds a criar o Linux. O desenvolvimento do Linux por Torvalds na Europa deslocou o epicentro do software de código aberto para longe dos EUA.
Os paralelos são impressionantes, mesmo geograficamente, com a evolução da IA. Desta vez, no entanto, novas geografias emergiram: o TII de Abu Dhabi com os seus modelos Falcon, o DeepSeek da China, o Qwen da Alibaba e, mais recentemente, o Krutrim AI Lab da Índia com os seus modelos de código aberto para línguas índicas.
A equipa Meta FAIR Paris, juntamente com os principais laboratórios europeus de IA e os mais recentes laboratórios de fronteira (DeepSeek, Falcon, Qwen, Krutrim), aceleraram significativamente a inovação da IA. Ao partilhar abertamente artigos de pesquisa e código, eles:
- Treinaram uma nova geração de engenheiros e pesquisadores de IA em técnicas de IA de ponta.
- Criaram um ecossistema de colaboração aberta, permitindo avanços rápidos fora dos laboratórios de IA proprietários.
- Forneceram modelos de IA alternativos, garantindo que a IA não seja monopolizada pelas Corporações Americanas de IA.
Estes quatro ecossistemas (Europa, Índia, Abu Dhabi e China) poderiam forjar uma poderosa aliança de IA de código aberto para desafiar as AICs dominantes que ainda operam sob uma mentalidade de IA proprietária.
Num questionário Ask Me Anything (AMA) em 31 de janeiro de 2025, após o lançamento do DeepSeek R1, Altman reconheceu que a abordagem do modelo de IA proprietário estava do lado errado da história.
Com o tempo, os laboratórios de IA em todo o mundo podem optar por se juntar a esta aliança para avançar coletivamente o campo. Esta não seria a primeira instância de um campo científico a transcender fronteiras e ideologias políticas através de uma iniciativa sem fins lucrativos. Oferece um modo de competição que evita desencadear as queixas anticoloniais frequentemente expressas pelo Sul Global.
Precedentes Históricos: O Projeto Genoma Humano como Modelo para a IA
Como biólogo, estou particularmente ciente das conquistas do Projeto Genoma Humano (PGH) e de como ele acabou por superar a iniciativa com fins lucrativos da Celera Genomics, beneficiando o campo e a humanidade como um todo.
O PGH foi uma iniciativa de pesquisa internacional inovadora que mapeou e sequenciou todo o genoma humano. Concluído em 2003 após 13 anos de colaboração, gerou quase US$ 800 bilhões em impacto económico a partir de um investimento de US$ 3 bilhões, de acordo com um relatório de 2011 atualizado em 2013 (um retorno sobre o investimento para a economia dos EUA de 141 para um – cada US$ 1 de investimento federal no PGH contribuiu para a geração de US$ 141 na economia). Revolucionou a medicina, a biotecnologia e a genética, permitindo avanços na medicina personalizada, prevenção de doenças e pesquisa genómica. O trabalho de sequenciamento e pesquisa foi conduzido por 20 laboratórios em seis países: EUA, Reino Unido, França, Alemanha, Japão e China.
Enquanto a Celera Genomics tentava sequenciar sequências genómicas com fins lucrativos, o PGH priorizou a partilha aberta de dados, consagrada nos seus Princípios de Bermuda. Estabelecidos durante a Reunião Internacional de Estratégia sobre Sequenciamento do Genoma Humano nas Bermudas em fevereiro de 1996, estes princípios foram cruciais para moldar as políticas de partilha de dados para o PGH e tiveram um impacto duradouro nas práticas de pesquisa genómica em todo o mundo. Os seus princípios fundamentais foram:
- Liberação Imediata de Dados: Todos os dados de sequência genómica humana gerados pelo PGH deveriam ser liberados em bancos de dados públicos, de preferência dentro de 24 horas após a geração. Esta disseminação rápida visava acelerar a descoberta científica e maximizar os benefícios sociais.
- Acesso Livre e Irrestrito: Os dados deveriam ser disponibilizados gratuitamente à comunidade científica global e ao público, sem restrições ao seu uso para fins de pesquisa ou desenvolvimento.
- Prevenção de Reivindicações de Propriedade Intelectual: Os participantes concordaram que nenhum direito de propriedade intelectual seria reivindicado sobre os dados primários da sequência genómica, promovendo um ethos de ciência aberta e prevenindo potenciais obstáculos à pesquisa devido ao patenteamento.
Em termos de governança, o PGH foi uma iniciativa científica colaborativa e coordenada, não uma organização ou corporação autónoma. Foi um esforço descentralizado financiado através de subsídios e contratos governamentais para várias instituições de pesquisa. Uma parte do seu orçamento (3–5%) foi dedicada ao estudo e abordagem de questões éticas, legais e sociais relacionadas com o sequenciamento do genoma humano.
Unindo a Segurança da IA e a IA de Código Aberto
Outra vantagem crucial da IA de código aberto é o seu papel na pesquisa de segurança da IA.
A Cúpula de IA de Seul em 2024 concentrou-se exclusivamente em riscos existenciais numa época em que as AICs detinham uma vantagem significativa sobre o resto do mundo. Ainda em maio de 2024, o ex-CEO do Google, Eric Schmidt, afirmou que os EUA estavam 2 a 3 anos à frente da China em IA, enquanto a Europa estava muito preocupada com a regulamentação para ser relevante. Se a Cúpula tivesse sido bem-sucedida, teria efetivamente cedido o controlo das decisões de segurança da IA a estas corporações. Felizmente, não foi.
Agora que a IA de código aberto está a preencher a lacuna tecnológica, as discussões sobre segurança não serão mais ditadas exclusivamente por um punhado de atores dominantes. Em vez disso, um grupo mais amplo e diversificado de partes interessadas – incluindo pesquisadores, formuladores de políticas e laboratórios de IA da Europa, Índia, China e Abu Dhabi – tem a oportunidade de moldar a discussão juntamente com as AICs.
Além disso, a IA de código aberto aumenta as capacidades globais de dissuasão, garantindo que nenhum ator individual possa monopolizar ou usar indevidamente sistemas avançados de IA sem responsabilidade. Esta abordagem descentralizada para a segurança da IA ajudará a mitigar potenciais ameaças existenciais, distribuindo tanto as capacidades quanto a supervisão de forma mais equitativa em todo o ecossistema global de IA.
Um Projeto de IA Humano com os Princípios de Paris
Que papel pode a Cúpula de Ação de IA em Paris na próxima semana desempenhar na formação do futuro da IA?
Esta apresenta uma oportunidade crucial para estabelecer um Projeto de IA Humano, modelado a partir do Projeto Genoma Humano, para avançar e apoiar o desenvolvimento de IA de código aberto em escala global. As atuais contribuições de código aberto, desde os pioneiros laboratórios europeus de IA até o DeepSeek, já estão a acelerar o campo e a ajudar a diminuir a diferença com as AICs.
As capacidades da IA são significativamente aprimoradas pela maturidade do ecossistema geral de código aberto, com milhares de projetos maduros, modelos de governança dedicados e profunda integração em empresas, universidades e governos.
O ecossistema de IA de código aberto também se beneficia de plataformas como Github e Gitlab. Mais recentemente, plataformas dedicadas para IA de código aberto, como a Hugging Face – uma corporação americana co-fundada por três empreendedores franceses – começaram a desempenhar um papel vital como plataformas de distribuição para a comunidade.
Dada a relativa maturidade do ecossistema de IA de código aberto em comparação com o sequenciamento do genoma humano no início dos anos 1990, como a IA de código aberto poderia se beneficiar de um Projeto de IA Humano?
Por um lado, a União Europeia é frequentemente criticada pelas AICs e pelos seus próprios laboratórios de IA de fronteira pela sua regulamentação do código aberto. Um Projeto de IA Humano poderia dedicar um esforço conjunto para desenvolver alinhamento regulatório e padrões entre os países e regiões participantes. Uma abordagem coordenada, com contribuições iniciais da Europa, Índia, Abu Dhabi e China, poderia facilitar a disseminação de modelos de código aberto em toda esta região regulatória partilhada (uma espécie de área de livre comércio para código aberto).
Embora não comprovado definitivamente, existem paralelos com a dinâmica impulsionada pela rivalidade que moldou a reação ao DeepSeek no JLF. Da mesma forma, a regulamentação da IA poderia ser elaborada com foco em promover a inovação e maximizar o benefício público – tanto para empresas quanto para consumidores – em vez de servir como um mecanismo potencial para impedir o progresso das AICs ou dificultar os campeões de IA locais que se esforçam para diminuir a diferença.
O projeto também poderia facilitar a troca de talentos e financiar uma infraestrutura de computação partilhada (ligada à infraestrutura de energia) para IA de código aberto. É evidente a partir do gráfico abaixo que graduados talentosos em STEM em algumas partes do mundo podem atualmente ter dificuldades para aceder à infraestrutura de IA de classe mundial que o seu país não possui.
Outra área de colaboração seria estabelecer as melhores práticas sobre padrões de acesso aberto para modelos e conjuntos de dados, abrangendo pesos, código e documentação.
O projeto também poderia promover a colaboração global em Pesquisa de Segurança de IA. Em vez de correr em segredo para corrigir problemas de alinhamento, pesquisadores de Paris a Pequim e Bangalore poderiam trabalhar juntos na avaliação de modelos e mitigação de riscos. Todas as descobertas de segurança (por exemplo, métodos para reduzir resultados prejudiciais ou ferramentas para interpretabilidade) poderiam ser partilhadas prontamente no domínio aberto.
Este princípio reconheceria que a segurança da IA é um bem público global – uma descoberta num laboratório (digamos, um novo algoritmo para tornar o raciocínio da IA transparente) deveria beneficiar a todos, não ser mantida proprietária. Benchmarks de segurança conjuntos e eventos de desafio poderiam ser organizados para incentivar uma cultura de responsabilidade coletiva. Ao reunir a pesquisa de segurança, o projeto teria como objetivo antecipar o potencial uso indevido ou acidentes de IA, garantindo ao público que os sistemas de IA poderosos estão a ser geridos com cuidado.
O foco no risco existencial na Cúpula de Segurança de IA do Reino Unido de 2023 em Bletchley Park, ao enfatizar demais a analogia da Proliferação Nuclear, perdeu a oportunidade de examinar outras áreas onde a segurança é considerada um bem público: cibersegurança, antibióticos e imunologia (com várias iniciativas interessantes pós-Covid-19) e segurança da aviação.
O projeto também poderia fazer parceria e promover o trabalho atualmente realizado pela Fundação privada ARC Prize para promover o desenvolvimento de sistemas de IA seguros e avançados. O ARC Prize, co-fundado por François Chollet, criador da biblioteca de código aberto Keras, e Mike Knoop, co-fundador da empresa de software Zapier, é uma organização sem fins lucrativos que organiza competições públicas para avançar na pesquisa de inteligência artificial geral (AGI). O seu evento principal, a competição ARC Prize, oferece mais de US$ 1 milhão aos participantes que conseguirem desenvolver e abrir o código de soluções para o benchmark ARC-AGI – um teste projetado para avaliar a capacidade de um sistema de IA de generalizar e adquirir novas habilidades de forma eficiente.
A ênfase da Fundação ARC Prize em soluções de código aberto e competições públicas alinha-se perfeitamente com os objetivos do Projeto de IA Humano de promover a colaboração internacional e a transparência no desenvolvimento da IA, conforme declarado no site da Fundação ARC Prize em ‘AGI’:
‘Os LLMs são treinados em quantidades inimaginavelmente vastas de dados, mas permanecem incapazes de se adaptar a problemas simples para os quais não foram treinados, ou fazer invenções novas, por mais básicas que sejam. Fortes incentivos de mercado levaram a pesquisa de IA de fronteira a fechar o código. A atenção e os recursos da pesquisa estão a ser direcionados para um beco sem saída. O ARC Prize foi projetado para inspirar os pesquisadores a descobrir novas abordagens técnicas que impulsionem o progresso da AGI aberta.’
Tal como o PGH, o Projeto de IA Humano dedicaria parte do seu financiamento à governança e supervisão ética. Isso incluiria discussões sobre direitos autorais. O Projeto poderia ajudar a sociedade a considerar a ética de aceder à melhor fonte de informação em treinamento gratuitamente enquanto desenvolve modelos proprietários em cima dela. No espaço da biologia, é bem sabido que o Protein Data Bank, que foi fundamental para o modelo AlphaFold do Google DeepMind prever a estrutura da proteína, provavelmente exigiu o equivalente a US$ 10 bilhões de financiamento durante um período de 50 anos. O Projeto poderia ajudar a pensar em como continuamos a financiar o desenvolvimento da IA ou como as AICs proprietárias deveriam partilhar a receita com os criadores originais do trabalho.
Juntos, estes Princípios de Paris e o Projeto de IA Humano ajudariam a avançar a IA globalmente de uma forma mais aberta, colaborativa e ética. Eles construiriam sobre as conquistas dos principais contribuidores de código aberto da Europa ao Oriente Médio, Índia e agora China, dentro das estruturas e plataformas existentes de software de código aberto e específicas de IA.
A História Rima com a IA
A oportunidade diante de nós é imensa. Mistral AI, kyutai, BFL, Stability e, mais recentemente, DeepSeek deram ao público a esperança de que um futuro onde a cooperação rivaliza ou até supera as AICs proprietárias é possível.
Ainda estamos nos estágios iniciais deste avanço tecnológico. Devemos ser gratos pelas contribuições que as AICs fizeram ao campo. A Cúpula de Ação de IA deve ser uma oportunidade para promover a inovação cooperativa em uma escala sem precedentes e trazer o maior número possível de atores para o lado certo da história.
É 1789 novamente. Estamos a testemunhar uma luta pela soberania tecnológica, uma descentralização do poder e um apelo por IA como um bem público. E, tal como em 1789, esta revolução não será contida.