Lei de Dados: Impacto no Direito Autoral

A era digital inaugurou oportunidades sem precedentes para a inovação, particularmente no domínio da inteligência artificial (AI). No entanto, este progresso também levantou questões críticas sobre os limites éticos e legais da utilização de dados, especialmente no que diz respeito a materiais protegidos por direitos de autor. O debate em torno da utilização de livros pirateados para treinar modelos de AI atingiu um ponto de ebulição, exigindo uma reavaliação das leis de direitos de autor existentes e uma posição mais firme contra a violação da propriedade intelectual.

A Questão Central: Utilização Não Autorizada de Material Protegido por Direitos de Autor

O cerne da questão reside na utilização não autorizada de livros protegidos por direitos de autor para treinar modelos de AI. Esta prática, alegadamente empregada por gigantes da tecnologia como a Meta, despertou indignação entre autores e editores que sentem que os seus direitos estão a ser violados para ganho comercial. Mark Price, um antigo Diretor-Geral da Waitrose, tem sido um crítico vocal desta prática, dirigindo-se diretamente ao CEO da Meta, Mark Zuckerberg, e questionando a justificação da empresa para explorar as obras de autores britânicos sem permissão.

A equipa jurídica de Price está a explorar múltiplas vias para intentar uma ação legal contra a Meta no Reino Unido. Uma abordagem envolve determinar se os livros provenientes da base de dados pirata LibGen foram "ingeridos e processados" no Reino Unido. Se comprovado, isso poderia estabelecer um caso claro contra a Meta ao abrigo da lei de direitos de autor do Reino Unido.

Examinando a Produção: Uma Chave para Provar a Infração

Outra abordagem, talvez mais intrigante, centra-se na análise do conteúdo gerado pelo modelo de AI da Meta, Llama. Price argumenta que se o Llama produzir conteúdo que se assemelhe muito a passagens dos livros utilizados para o treinar, isso poderá servir como prova convincente de violação de direitos de autor. Esta linha de investigação traça paralelos com o caso Getty Images em curso contra a Stability AI, que se centra na alegada reprodução de imagens protegidas por direitos de autor pelo modelo Stable Diffusion da Stability AI.

O caso Getty Images, agendado para julgamento em junho de 2025, poderá estabelecer um precedente significativo para futuras disputas de direitos de autor envolvendo conteúdo gerado por AI. Os reclamantes no caso Getty Images alegam que o Stable Diffusion reproduziu porções substanciais de imagens protegidas por direitos de autor utilizadas durante o seu treino. Se a Getty Images prevalecer, poderá encorajar autores e editores a intentar ações legais semelhantes contra empresas como a Meta.

A Meta defendeu as suas práticas argumentando que o seu modelo de AI não reproduz obras protegidas por direitos de autor, mas apenas as utiliza para fins de treino. A empresa alega ainda que os autores não sofrem quaisquer danos económicos como resultado. No entanto, se a Getty Images conseguir demonstrar que os modelos de AI podem, de facto, reproduzir conteúdo protegido por direitos de autor, isso minaria a defesa da Meta e exporia a empresa a responsabilidades legais significativas.

Acordos de Licenciamento: Uma Solução Potencial?

As complexidades dos direitos de autor na era da AI são ainda mais destacadas pelos acordos de licenciamento entre editores e empresas de AI. Por exemplo, a HarperCollins terá celebrado um acordo de licenciamento com a Microsoft que inclui restrições à quantidade de um livro que pode ser acedido como parte do acordo. Tais acordos, embora ofereçam um caminho potencial para compensar os detentores de direitos de autor, também levantam questões sobre o âmbito e as limitações da utilização razoável no treino de AI.

A ausência de acordos semelhantes entre a Meta e os detentores de direitos deixa a empresa vulnerável a desafios legais. Um antigo advogado da Meta chegou mesmo a reconhecer que as consequências não intencionais dos sistemas de AI que potencialmente infringem os direitos de autor poderiam representar uma ameaça significativa para a empresa no tribunal.

A Lei de Dados (Utilização e Acesso): Uma Oportunidade Legislativa

A Lei de Dados (Utilização e Acesso) do Reino Unido apresenta uma oportunidade crucial para reforçar a lei de direitos de autor e abordar os desafios colocados pela AI. As emendas à lei, a serem debatidas na Câmara dos Comuns, visam garantir o cumprimento, a transparência e a aplicação dos regulamentos de direitos de autor. Se aprovadas, estas emendas poderão travar as tentativas do governo do Reino Unido de conceder às empresas de tecnologia isenções relativamente à utilização de materiais publicados para o treino de AI. Esta é uma posição que muitos acreditam que o governo deveria ter adotado desde o início.

Tom West, CEO dos Publishers’ Licensing Services, argumenta que a Lei de Dados (Utilização e Acesso) poderia "turbo carregar" o licenciamento de conteúdo. Ele enfatiza que o apelo à responsabilização não é anti-tecnologia ou anti-inovação. Em vez disso, reflete o reconhecimento de que a precisão e a qualidade da informação são fundamentais à medida que a AI generativa desempenha um papel cada vez mais importante nas nossas vidas.

Um Ponto de Inflexão: Regular o Impacto da AI

A situação atual representa um ponto de inflexão. À medida que o poder e a influência da AI continuam a crescer, é imperativo estabelecer limites e regulamentos claros para evitar danos, caos ou ações que possam levar ao arrependimento. Este princípio, emprestado do ChatGPT, sublinha a necessidade de um desenvolvimento e implementação responsáveis das tecnologias de AI.

O debate em torno da utilização de materiais protegidos por direitos de autor no treino de AI não é simplesmente uma questão legal; também toca em considerações éticas fundamentais. A questão de saber se as empresas de AI devem ser autorizadas a lucrar com a utilização não autorizada de obras criativas é uma questão de justiça e respeito pelos direitos de propriedade intelectual.

Um dos argumentos legais centrais neste debate gira em torno da doutrina do uso justo. O uso justo é um princípio legal que permite a utilização limitada de material protegido por direitos de autor sem permissão do detentor dos direitos de autor. A doutrina destina-se a promover a liberdade de expressão e a incentivar a criatividade, permitindo certas utilizações transformadoras de obras protegidas por direitos de autor.

No entanto, a aplicação da doutrina do uso justo no contexto do treino de AI é complexa e contestada. As empresas de AI argumentam frequentemente que a sua utilização de materiais protegidos por direitos de autor se enquadra no uso justo porque estão a utilizar os materiais para criar tecnologias novas e transformadoras. Argumentam que os modelos de AI não estão simplesmente a reproduzir as obras protegidas por direitos de autor, mas estão, em vez disso, a aprender com elas para gerar resultados totalmente novos.

Os detentores de direitos de autor, por outro lado, argumentam que a utilização das suas obras para treinar modelos de AI é uma utilização comercial que os priva de receitas potenciais. Argumentam que as empresas de AI devem ser obrigadas a obter licenças para os materiais protegidos por direitos de autor que utilizam para o treino, tal como fariam para qualquer outra utilização comercial.

O Impacto Económico nos Autores e Editores

O impacto económico do treino de AI não autorizado nos autores e editores é uma preocupação significativa. Se as empresas de AI forem autorizadas a utilizar livremente obras protegidas por direitos de autor sem compensação, isso poderá minar o incentivo para os autores e editores criarem novos conteúdos. Isto poderá levar a um declínio na qualidade e disponibilidade de obras criativas, prejudicando, em última análise, a sociedade como um todo.

Além disso, a utilização não autorizada de materiais protegidos por direitos de autor poderá criar um campo de jogo desigual no mercado. As empresas de AI que utilizam obras protegidas por direitos de autor sem permissão teriam uma vantagem competitiva sobre aquelas que obtêm licenças ou criam os seus próprios dados de treino. Isto poderá sufocar a inovação e levar a uma concentração de poder nas mãos de algumas empresas de AI dominantes.

A Necessidade de Transparência e Responsabilização

A transparência e a responsabilização são essenciais para garantir que as empresas de AI utilizam os materiais protegidos por direitos de autor de forma responsável. As empresas de AI devem ser obrigadas a divulgar as fontes dos dados que utilizam para treinar os seus modelos. Isto permitiria aos detentores de direitos de autor monitorizar a utilização das suas obras e garantir que estão a ser devidamente compensados.

Além disso, as empresas de AI devem ser responsabilizadas por qualquer violação de direitos de autor que ocorra como resultado dos seus modelos de AI. Isto poderá incluir a responsabilidade por infração direta, bem como por infração contributiva se o modelo de AI for utilizado para criar obras infratoras.

Explorando Soluções Alternativas

Além de reforçar a lei de direitos de autor e promover a transparência, é importante explorar soluções alternativas que possam ajudar a equilibrar os interesses das empresas de AI e dos detentores de direitos de autor.

Licenciamento Coletivo

O licenciamento coletivo é uma solução potencial. No âmbito de um esquema de licenciamento coletivo, uma organização de gestão coletiva (CMO) negociaria licenças com empresas de AI em nome dos detentores de direitos de autor. A CMO distribuiria então os royalties cobrados das licenças aos detentores de direitos de autor.

O licenciamento coletivo poderia fornecer uma forma mais eficiente e simplificada para as empresas de AI obterem licenças para os materiais protegidos por direitos de autor de que necessitam. Também poderia garantir que os detentores de direitos de autor são devidamente compensados pela utilização das suas obras.

Dados de Código Aberto

Outra solução potencial é promover o desenvolvimento de conjuntos de dados de código aberto para o treino de AI. Os conjuntos de dados de código aberto são conjuntos de dados que estão livremente disponíveis para qualquer pessoa utilizar, modificar e distribuir.

O desenvolvimento de conjuntos de dados de código aberto poderia reduzir a dependência das empresas de AI em materiais protegidos por direitos de autor. Também poderia promover a inovação e a concorrência na indústria de AI.

Soluções Tecnológicas

As soluções tecnológicas também poderiam desempenhar um papel na abordagem dos desafios de direitos de autor colocados pela AI. Por exemplo, as tecnologias de marca d’água poderiam ser utilizadas para rastrear a utilização de materiais protegidos por direitos de autor no treino de AI. Isto permitiria aos detentores de direitos de autor monitorizar a utilização das suas obras e identificar instâncias de utilização não autorizada.

Além disso, as tecnologias de AI poderiam ser utilizadas para detetar e prevenir a criação de obras infratoras. Por exemplo, ferramentas alimentadas por AI poderiam ser utilizadas para identificar conteúdo que seja substancialmente semelhante a obras protegidas por direitos de autor.

O Caminho a Seguir

O debate em torno da utilização de materiais protegidos por direitos de autor no treino de AI é complexo e multifacetado. Não há respostas fáceis. No entanto, ao reforçar a lei de direitos de autor, promover a transparência e a responsabilização, explorar soluções alternativas e promover o diálogo aberto entre empresas de AI e detentores de direitos de autor, podemos criar um quadro que equilibre os interesses de todas as partes interessadas e promova a inovação, protegendo, ao mesmo tempo, os direitos de propriedade intelectual. A Lei de Dados (Utilização e Acesso) representa um passo crítico nesta direção, oferecendo uma via legislativa para abordar estas questões prementes e moldar o futuro da lei de direitos de autor na era digital. As decisões tomadas agora terão consequências duradouras para as indústrias criativas e para o desenvolvimento da AI nos próximos anos.