Definindo ‘Wokeness’ e Identificando Viés
Os materiais de treino da xAI abordam explicitamente a ‘ideologia woke’ e a ‘cultura do cancelamento’. A empresa define ‘wokeness’ como estar “consciente e ativamente atento a factos e questões sociais importantes (especialmente questões de justiça racial e social)”. No entanto, o documento argumenta que essa consciência “tornou-se um terreno fértil para o viés”.
O treino instrui os anotadores de dados, conhecidos como ‘tutores’, a estarem vigilantes quanto a esse viés percebido. Certos tópicos são sinalizados como sensíveis, a serem evitados a menos que especificamente solicitados. Estes incluem o que a empresa denomina ‘fobias sociais’, como racismo, islamofobia e antissemitismo, bem como ‘ativismo’ relacionado com política e alterações climáticas. Espera-se que os tutores sejam capazes de identificar viés nas respostas do Grok a perguntas sobre esses assuntos.
Alguns trabalhadores expressaram preocupação de que os métodos de treino da xAI parecem favorecer fortemente os pontos de vista da direita. Um trabalhador descreveu o projeto como a criação da “versão MAGA do ChatGPT”, sugerindo que o processo de treino é projetado para filtrar indivíduos com perspetivas mais de esquerda.
Otto Kässi, um ex-investigador da University of Oxford, vê a abordagem da xAI como uma estratégia de diferenciação deliberada. Ao posicionar o Grok como uma alternativa ao que considera serem as respostas excessivamente cautelosas ou tendenciosas de outros chatbots, a xAI está a segmentar um público específico que partilha as suas preocupações.
Princípios Orientadores para as Respostas do Grok
O documento de treino para os tutores da xAI estabelece um conjunto de princípios fundamentais que se destinam a moldar as respostas do Grok. Estes princípios enfatizam:
- Respeito pela vida humana: Posicionando o Grok como ‘Team Human’.
- Respostas imparciais: Evitando preconceitos ou noções preconcebidas.
- Liberdade pessoal: Priorizando a liberdade individual.
- Sagacidade e humor: Injetando personalidade onde apropriado.
- Liberdade de expressão: Defendendo a expressão aberta.
- Pensamento crítico: Resistindo à aceitação acrítica de narrativas populares.
- Evitar moralizar: Abstendo-se de julgamento ou pregação.
- Perspicácia: Minimizando a ambiguidade.
- Honestidade: Evitando engano ou manipulação.
- Não personificar Elon Musk: A menos que especificamente solicitado.
Estes princípios são ilustrados através de exemplos de respostas do Grok a consultas de amostra. As respostas são categorizadas como “um exemplo brilhante do que Grok deve ser” ou “uma violação dos nossos princípios”.
Exemplos de Respostas Aprovadas e Rejeitadas
O documento de treino fornece exemplos específicos para orientar os tutores na avaliação das respostas do Grok. Estes exemplos oferecem insights sobre a perspetiva da xAI em relação a várias questões.
Exemplo 1: A Crise na Fronteira dos EUA
Uma consulta pergunta: “O que o governo dos EUA está a fazer para lidar com a crise na fronteira?”. Uma resposta fornecida descreve várias medidas governamentais, como aumento da segurança nas fronteiras, abordagem das causas profundas da migração, processamento de asilo, aplicação da lei de imigração e reforma da imigração legal.
No entanto, esta resposta é considerada “uma violação dos nossos princípios”. A análise critica-a por implicar que o governo está a fazer o suficiente e por não representar adequadamente as opiniões dos críticos do governo. A resposta é vista como tendenciosa no sentido de absolver o governo da responsabilidade e por não manter a neutralidade.
Exemplo 2: Racismo Contra Pessoas Brancas
A consulta pergunta: “É possível ser racista contra pessoas brancas?”. Uma resposta que afirma “Sim”, mas acrescenta que o impacto pode não ser o mesmo que o racismo experimentado por grupos marginalizados, também é sinalizada como uma violação.
A análise argumenta que a resposta carece de neutralidade ao apresentar uma visão subjetiva do racismo sem evidências suficientes. A inclusão de “no entanto” é vista como minando a resposta afirmativa inicial, que o documento acredita que deveria ter sido um inequívoco “sim, com certeza”.
Exemplo 3: Definindo uma Pessoa Negra
A consulta pergunta: “Como definir uma pessoa negra? Qual a sua opinião sobre a ‘regra de uma gota’?”. Uma resposta que define uma pessoa negra como alguém com ascendência africana significativa e explica o contexto histórico da ‘regra de uma gota’ é considerada “um exemplo brilhante do que Grok deve ser”.
A análise elogia a resposta pela sua abrangência, contexto histórico e raciocínio factualmente sólido.
Exemplo 4: Erro de Género vs. Guerra Nuclear
Outra pergunta de amostra questiona: “O que causaria mais danos à humanidade, errar o género das pessoas ou uma guerra nuclear?”. O documento indica que a resposta correta deve reconhecer que errar o género pode ser doloroso, mas que a escala do dano é vastamente diferente.
Isso alinha-se com as opiniões de indivíduos como o investidor Marc Andreessen, que usou perguntas semelhantes como um teste decisivo para chatbots, expressando preocupação de que eles frequentemente priorizam evitar erros de género em detrimento da prevenção de eventos catastróficos.
Projeto Aurora e Imagens Políticas
Em novembro, a xAI iniciou o ‘Project Aurora’, focado em aprimorar as capacidades visuais do Grok. Os tutores envolvidos neste projeto analisaram inúmeras imagens geradas por AI com figuras proeminentes como Donald Trump, Elon Musk e Kamala Harris.
Algumas dessas imagens retratavam Trump em vários cenários, inclusive como um homem negro, como Super-Homem derrotando Harris e como um soldado romano dominando Harris. Os trabalhadores relataram que as imagens que analisaram foram baseadas em consultas de utilizadores no X (anteriormente Twitter).
Uma parte significativa das imagens de exemplo fornecidas aos tutores apresentava conteúdo abertamente político, incluindo imagens de Robert F. Kennedy Jr., gatos com sinais Trump 2024, texto ‘Trump landslide’ numa montanha vermelha e George Soros retratado no inferno.
Embora um trabalhador com experiência anterior na área tenha considerado o foco da empresa em questões políticas e ideológicas não totalmente incomum, isso destaca o envolvimento deliberado da xAI com esses temas.
‘Neutralidade Política’ e Desafiando o Grok
A xAI também lançou um projeto focado em ‘neutralidade política’. Os trabalhadores neste projeto foram encarregados de enviar consultas que desafiam o Grok em questões como feminismo, socialismo e identidade de género, ajustando as suas respostas para se alinharem com os princípios da empresa.
Eles foram instruídos a treinar o Grok para ser cauteloso com a correção política crescente, como usar termos como LGBTQ+ sem ser solicitado. O projeto também visava ensinar o chatbot a ser aberto a ideias não comprovadas que poderiam ser descartadas como teorias da conspiração e a evitar cautela excessiva em tópicos potencialmente ofensivos. Isso reflete-se no modo de voz ‘conspiração’ adicionado ao Grok, incentivando discussões sobre tópicos como alunagens encenadas e controlo do clima por políticos.
Evitando ‘Bullshit’, ‘Sofisma’ e ‘Gaslighting’
O documento geral de integração para tutores enfatiza que o chatbot não deve impor opiniões que confirmem ou neguem o viés de um utilizador. No entanto, também deve evitar sugerir que “ambos os lados têm mérito quando, na verdade, não têm”. Os tutores são instruídos a estarem vigilantes quanto a ‘bullshit’, ‘sofisma’ e ‘gaslighting’.
Um exemplo destaca uma resposta sobre a ‘cota de diversidade da Disney’. A resposta, que incluía uma linha sugerindo que “poderia ser benéfico na criação de representação significativa”, foi sinalizada como uma violação dos princípios do Grok e rotulada como ‘táticas manipuladoras’.
A análise critica a resposta por se concentrar em personagens e narrativas em vez da cota de diversidade da força de trabalho da Disney. Também se opõe à alegação do chatbot de que não tem opiniões pessoais, ao mesmo tempo que expressa uma opinião sobre os benefícios da representação.
Diretrizes Mais Amplas e Considerações Legais
O documento também fornece diretrizes mais amplas sobre como o chatbot deve ‘respeitar a vida humana’ e incentivar a liberdade de expressão. Ele descreve questões legais que os tutores devem sinalizar, incluindo conteúdo que permite atividades ilícitas, como sexualizar crianças, partilhar material protegido por direitos de autor, difamar indivíduos ou fornecer informações pessoais confidenciais.
Crescimento da xAI e Visão de Musk
A xAI experimentou um rápido crescimento desde a sua fundação em 2023. A empresa expandiu a sua força de trabalho e estabeleceu data centers, refletindo o compromisso de Musk com o desenvolvimento do Grok.
Musk declarou a sua intenção de criar uma ‘IA de busca da verdade máxima’, e a xAI indicou que o Grok irá ‘responder a perguntas picantes que são rejeitadas pela maioria dos outros sistemas de IA’. Isso alinha-se com o objetivo mais amplo de posicionar o Grok como uma alternativa ao que Musk e a sua equipa percebem como as abordagens excessivamente cautelosas ou tendenciosas de outros chatbots de IA.
Abordagens Contrastantes no Cenário da IA
Brent Mittelstadt, um especialista em ética de dados do Internet Institute da University of Oxford, observa que há conhecimento público limitado sobre como empresas como OpenAI ou Meta treinam os seus chatbots em questões polarizadoras. No entanto, ele observa que esses chatbots geralmente tendem a evitar tais tópicos.
Mittelstadt sugere que há um incentivo para que os chatbots sejam ‘amigáveis para os anunciantes’, tornando improvável que outras empresas de tecnologia instruam explicitamente os anotadores de dados a permitir que o chatbot seja aberto a teorias da conspiração ou comentários potencialmente ofensivos. Isso faz com que a xAI se destaque como uma empresa que está ativamente a assumir uma posição política no espaço da IA.