Visões Divergentes: Titãs da IA nos EUA

Um ponto em comum nas submissões de diversas empresas importantes de IA é uma preocupação palpável com a crescente miscelânea de regulamentações de IA a nível estadual. A OpenAI, criadora do ChatGPT, apelou explicitamente por um resgate do que considera um dilúvio iminente de mais de 700 projetos de lei díspares atualmente em circulação a nível estadual. No entanto, a solução proposta pela OpenAI não é legislação federal, mas sim um quadro voluntário restrito. Este quadro iria, crucialmente, preemptar as regulamentações estaduais, oferecendo às empresas de IA uma espécie de porto seguro. Em troca desta proteção, as empresas ganhariam acesso a contratos governamentais lucrativos e receberiam avisos antecipados sobre potenciais ameaças à segurança. O governo, por sua vez, teria o poder de testar as capacidades de novos modelos e compará-las com as de congéneres estrangeiros.

O Google ecoa este sentimento, defendendo a preempção das leis estaduais com um “quadro nacional unificado para modelos de IA de fronteira”. Este quadro, de acordo com o Google, deve priorizar a segurança nacional e, simultaneamente, promover um ambiente propício à inovação americana em IA. No entanto, ao contrário da OpenAI, o Google não se opõe inerentemente à regulamentação federal da IA, desde que esta se concentre em aplicações específicas da tecnologia. Uma ressalva fundamental para o Google é que os desenvolvedores de IA não devem ser responsabilizados pelo uso indevido das suas ferramentas por terceiros. O Google também aproveitou a oportunidade para pressionar por uma nova política federal de privacidade, argumentando que ela afeta a indústria de IA.

Além da regulamentação doméstica, o Google insta a administração dos EUA a envolver-se ativamente com outros governos na legislação de IA. A empresa adverte especificamente contra leis que possam obrigar as empresas a divulgar segredos comerciais. Prevê uma norma internacional em que apenas o governo do país de origem de uma empresa teria autoridade para realizar avaliações profundas dos seus modelos de IA.

O Desafio da China: Controlos de Exportação e Competição Estratégica

O espectro dos rápidos avanços da China em IA paira sobre as submissões de todos os principais intervenientes. A regra de “difusão de IA”, introduzida pela administração Biden em janeiro de 2024 para restringir o acesso da China à tecnologia avançada dos EUA, tornou-se um ponto focal de debate. Embora todas as empresas tenham reconhecido a existência da regra, as suas modificações propostas revelam abordagens marcadamente diferentes.

A OpenAI propõe uma estratégia de “diplomacia comercial”. Sugere expandir o nível superior da regra, que atualmente permite importações ilimitadas de chips de IA dos EUA, para incluir mais países. A condição? Estes países devem comprometer-se com “princípios democráticos de IA”, implementando sistemas de IA de forma a “promover mais liberdades para os seus cidadãos”. Esta abordagem procura alavancar a liderança tecnológica dos EUA para incentivar a adoção de uma governação de IA alinhada com os valores a nível global.

A Microsoft partilha o desejo da OpenAI de expandir o nível superior da Regra de Difusão. No entanto, a Microsoft também enfatiza a necessidade de uma aplicação reforçada. Apela a um aumento dos recursos para o Departamento de Comércio para garantir que os chips de IA de ponta sejam exportados e implementados apenas em centros de dados certificados como confiáveis e seguros pelo governo dos EUA. Esta medida visa impedir que as empresas chinesas contornem as restrições, acedendo a chips de IA poderosos através de um crescente “mercado cinzento” de fornecedores de centros de dados menores e menos escrutinados na Ásia e no Médio Oriente.

A Anthropic, desenvolvedora do modelo de IA Claude, defende controlos ainda mais rigorosos sobre os países no segundo nível da regra de difusão de IA, limitando especificamente o seu acesso aos chips H100 da Nvidia. Além disso, a Anthropic insta os EUA a expandir os controlos de exportação para abranger os chips H20 da Nvidia, que foram especificamente projetados para o mercado chinês para cumprir as regulamentações existentes dos EUA. Isto demonstra a postura mais agressiva da Anthropic em impedir que a China adquira qualquer tecnologia que possa reforçar as suas capacidades de IA.

O Google, numa divergência acentuada dos seus concorrentes, expressa oposição direta à regra de difusão de IA. Embora reconheça a validade dos seus objetivos de segurança nacional, o Google argumenta que a regra impõe “encargos desproporcionais aos fornecedores de serviços de nuvem dos EUA”. Esta postura reflete as preocupações mais amplas do Google sobre o potencial das regulamentações para sufocar a inovação e prejudicar a sua competitividade global.

Além da regra de difusão, a OpenAI eleva ainda mais a fasquia ao sugerir uma proibição global dos chips da Huawei e dos “modelos chineses que violam a privacidade do utilizador e criam riscos de segurança, como o risco de roubo de PI”. Isto também está a ser amplamente interpretado como uma crítica ao DeepSeek.

Direitos de Autor e o Combustível da IA: Navegando na Propriedade Intelectual

A questão espinhosa dos direitos de autor, particularmente no contexto do treino de modelos de IA, também recebe atenção significativa. A OpenAI, numa clara repreensão ao AI Act da Europa, critica a disposição que concede aos detentores de direitos a capacidade de optar por não ter as suas obras usadas para treino de IA. A OpenAI insta a administração dos EUA a “impedir que países menos inovadores imponham os seus regimes jurídicos às empresas americanas de IA e abrandem o nosso ritmo de progresso”. Esta postura reflete a crença da OpenAI de que o acesso irrestrito a dados é crucial para manter a vantagem competitiva dos EUA em IA.

O Google, por outro lado, apela a “leis de direitos de autor equilibradas”, e também a leis de privacidade que concedam automaticamente uma isenção para informações publicamente disponíveis. Isto sugere uma abordagem mais matizada, reconhecendo os direitos dos criadores e, ao mesmo tempo, reconhecendo a importância dos dados para o desenvolvimento da IA. O Google também propõe uma revisão das “patentes de IA concedidas por erro”, destacando o número crescente de patentes de IA dos EUA a serem adquiridas por empresas chinesas.

Alimentando o Futuro: Infraestrutura e Demandas de Energia

O enorme poder computacional necessário para treinar e operar modelos avançados de IA exige uma expansão significativa da infraestrutura e dos recursos energéticos. A OpenAI, a Anthropic e o Google defendem a simplificação do processo de licenciamento para linhas de transmissão, com o objetivo de acelerar a construção de infraestrutura energética para suportar novos centros de dados de IA.

A Anthropic assume uma postura particularmente ousada, apelando a 50 gigawatts adicionais de energia nos EUA, exclusivamente para uso de IA, até 2027. Isto sublinha as imensas demandas de energia do cenário de IA em rápida evolução e o potencial da IA para se tornar um dos principais impulsionadores do consumo de energia.

Segurança, Adoção Governamental e o Estado Impulsionado pela IA

As submissões também abordam a interseção da IA, segurança nacional e operações governamentais. A OpenAI propõe acelerar as aprovações de cibersegurança para as principais ferramentas de IA, permitindo que as agências governamentais as testem e implementem mais facilmente. Também sugere parcerias público-privadas para desenvolver modelos de IA focados na segurança nacional que possam não ter um mercado comercial viável, como modelos projetados para tarefas nucleares classificadas.

A Anthropic ecoa o apelo a procedimentos de aquisição mais rápidos para integrar a IA nas funções governamentais. Notavelmente, a Anthropic também enfatiza a importância de funções robustas de avaliação de segurança para o National Institute of Standards and Technology (NIST) e o U.S. AI Safety Institute.

O Google argumenta que as agências de segurança nacional devem ser autorizadas a utilizar recursos comerciais de armazenamento e computação para as suas necessidades de IA. Também defende que o governo divulgue os seus conjuntos de dados para treino comercial de IA e que exija padrões de dados abertos e APIs em diferentes implementações de nuvem governamental para facilitar “insights orientados por IA”.

O Impacto Social: Mercados de Trabalho e a Transformação Impulsionada pela IA

Finalmente, as submissões abordam as implicações sociais mais amplas da IA, particularmente o seu potencial impacto nos mercados de trabalho. A Anthropic insta a administração a monitorizar de perto as tendências do mercado de trabalho e a preparar-se para disrupções significativas. O Google reconhece igualmente que estão a caminho mudanças, enfatizando a necessidade de um desenvolvimento mais amplo de competências em IA. O Google também solicita um aumento do financiamento para a investigação em IA e uma política para garantir que os investigadores dos EUA tenham acesso adequado a poder de computação, dados e modelos.

Em essência, as submissões ao “AI Action Plan” pintam um quadro de uma indústria num momento crucial. Embora unidas na sua ambição de avançar a tecnologia de IA, as principais empresas dos EUA têm visões fundamentalmente diferentes sobre como navegar nos complexos desafios da regulamentação, competição internacional e impacto social. Os próximos meses e anos revelarão como estas visões divergentes moldam o futuro da IA, não apenas nos Estados Unidos, mas a nível global.