Em 7 de agosto de 2019, pisei pela primeira vez nos escritórios da OpenAI. Greg Brockman, o CTO da empresa na época, cumprimentou-me com um sorriso hesitante, reconhecendo que conceder tal acesso extensivo era inédito para eles.
Embora a OpenAI pudesse ser relativamente desconhecida para o público em geral, eu, como jornalista cobrindo o cenário em constante evolução da inteligência artificial, vinha acompanhando de perto seus desenvolvimentos.
Os Primeiros Dias da OpenAI e as Mudanças
Antes de 2019, a OpenAI era considerada uma espécie de outlier na comunidade de pesquisa em IA. Sua ousada afirmação de alcançar a Inteligência Artificial Geral (AGI) dentro de uma década foi recebida com ceticismo por muitos. Apesar do financiamento significativo, a empresa carecia de uma direção clara, e seus esforços de marketing eram frequentemente percebidos como exagerando pesquisas consideradas não originais por outros especialistas. No entanto, a OpenAI também atraiu inveja. Como uma organização sem fins lucrativos, declarou não ter interesse na comercialização, criando um ambiente único para exploração intelectual livre das restrições das pressões financeiras.
No entanto, nos seis meses que antecederam minha visita, uma série de mudanças rápidas indicou uma mudança significativa na direção da OpenAI. O primeiro sinal foi a decisão controversa de reter o GPT-2, apesar de divulgar suas capacidades. Em seguida, veio o anúncio da nomeação de Sam Altman como CEO, após sua saída da Y Combinator (YC), juntamente com a criação de uma estrutura de "lucro limitado". Em meio a esses desenvolvimentos, a OpenAI revelou uma parceria com a Microsoft, concedendo à gigante da tecnologia prioridade na comercialização das tecnologias da OpenAI e uso exclusivo dos serviços de nuvem Microsoft Azure.
Cada um desses anúncios gerou controvérsia, especulação e crescente atenção, alcançando além dos limites da indústria de tecnologia. À medida que as mudanças se desenrolavam, era difícil compreender totalmente seu significado. Era evidente, no entanto, que a OpenAI estava começando a exercer considerável influência sobre a pesquisa em IA e a maneira como os formuladores de políticas entendiam a tecnologia. A decisão de fazer a transição para um negócio parcialmente com fins lucrativos certamente teria amplas repercussões em toda a indústria e governo.
Uma noite, encorajado pelo meu editor, entrei em contato com Jack Clark, diretor de políticas da OpenAI, com quem já havia conversado antes. Propus um perfil sobre a OpenAI, sentindo que era um momento crucial na história da empresa. Clark conectou-me com o chefe de comunicações, que estendeu um convite para entrevistar a liderança e me integrar na empresa por três dias.
Dentro da OpenAI: Missão e Ambição
Brockman e eu fomos acompanhados pelo cientista-chefe Ilya Sutskever em uma sala de reuniões de vidro. Sentados lado a lado, eles complementavam os papéis um do outro. Brockman, o codificador e implementador, parecia ansioso para causar uma impressão positiva, enquanto Sutskever, o pesquisador e filósofo, parecia mais relaxado e distante.
Comecei perguntando sobre a missão da OpenAI: garantir uma AGI benéfica. Por que investir bilhões neste problema em vez de outros?
Brockman, bem versado na defesa da posição da OpenAI, afirmou que a AGI era crucial para resolver problemas complexos além das capacidades humanas. Ele citou as mudanças climáticas e a medicina como exemplos, ilustrando o potencial da AGI para analisar vastas quantidades de dados e acelerar os avanços nessas áreas críticas.
Ele relatou a experiência de um amigo com uma doença rara, destacando como a AGI poderia agilizar o diagnóstico e o tratamento, conectando especialistas de forma eficiente.
Em seguida, perguntei sobre a distinção entre AGI e IA.
A AGI, antes um conceito de nicho, ganhou força, em grande parte devido à influência da OpenAI. A AGI refere-se a uma IA hipotética que corresponde ou excede a inteligência humana na maioria das tarefas economicamente valiosas. Embora os pesquisadores tenham feito progressos, os debates persistiram sobre a possibilidade de simular a consciência humana.
A IA, por outro lado, referia-se tanto à tecnologia atual quanto às capacidades de futuro próximo, demonstrando aplicações na mitigação das mudanças climáticas e na saúde.
Sutskever acrescentou que a AGI poderia resolver desafios globais, permitindo que computadores inteligentes se comunicassem e trabalhassem juntos de forma mais eficiente do que os humanos, ignorando problemas de incentivo.
Essa declaração me levou a questionar se a AGI pretendia substituir os humanos. Brockman respondeu que a tecnologia deveria servir às pessoas e garantir a "liberdade econômica", mantendo sua qualidade de vida.
Brockman argumentou que o papel da OpenAI não era determinar se a AGI seria construída, mas sim influenciar as circunstâncias sob as quais ela seria criada. Ele enfatizou que sua missão era garantir que a AGI beneficie toda a humanidade, construindo-a e distribuindo seus benefícios econômicos.
Nossa conversa continuou em círculos, com limitado sucesso na obtenção de detalhes concretos. Tentei uma abordagem diferente, perguntando sobre as possíveis desvantagens da tecnologia.
Brockman citou deepfakes como uma possível aplicação negativa.
Eu levantei o impacto ambiental da própria IA.
Sutskever reconheceu o problema, mas argumentou que a AGI poderia neutralizar o custo ambiental. Ele enfatizou a necessidade de data centers verdes.
"Data centers são os maiores consumidores de energia, de eletricidade", continuou Sutskever.
"São 2 por cento globalmente", eu ofereci.
"Bitcoin não é como 1 por cento?", disse Brockman.
Sutskever diria mais tarde: "Eu acho que é bastante provável que não demorará muito para que toda a superfície da Terra fique coberta de data centers e usinas de energia". Haveria "um tsunami de computação… quase como um fenômeno natural".
Eu os desafiei que a OpenAI estava apostando que conseguiria alcançar com sucesso uma AGI benéfica para neutralizar o aquecimento global antes que o ato de fazê-lo possa exacerbá-lo.
Brockman disse apressadamente: "A maneira como pensamos sobre isso é a seguinte: Estamos em uma rampa de progresso da IA. Isso é maior do que a OpenAI, certo? É o campo. E eu acho que a sociedade está realmente obtendo benefício disso".
"No dia em que anunciamos o acordo", disse ele, referindo-se ao novo investimento de US$ 1 bilhão da Microsoft, "o valor de mercado da Microsoft aumentou em US$ 10 bilhões. As pessoas acreditam que há um ROI positivo mesmo apenas na tecnologia de curto prazo".
A estratégia da OpenAI era, portanto, bastante simples, explicou ele: acompanhar esse progresso.
Mais tarde naquele dia, Brockman reiterou que ninguém realmente sabia como seria a AGI, acrescentando que sua tarefa era continuar avançando, para descobrir a forma da tecnologia passo a passo.
Por Trás das Cortinas: Transparência e Controle
Eu estava originalmente programado para almoçar com os funcionários no refeitório, mas me disseram que eu precisava estar fora do escritório. Brockman seria meu acompanhante.
Esse padrão se repetiu ao longo da minha visita: acesso restrito a certas áreas, reuniões que eu não podia participar e pesquisadores olhando para o chefe de comunicações para garantir que não estivessem violando nenhuma política de divulgação. Após minha visita, Jack Clark enviou um aviso severo aos funcionários no Slack para não conversarem comigo além das conversas sancionadas. O segurança também recebeu minha fotografia, para que eles pudessem me procurar se eu aparecesse sem aprovação nas instalações. Esses comportamentos contrastavam com o compromisso da OpenAI com a transparência, levantando questões sobre o que estava sendo ocultado.
No almoço e nos dias que se seguiram, questionei Brockman sobre seus motivos para cofundar a OpenAI. Ele afirmou que havia se tornado obcecado com a ideia de replicar a inteligência humana após um artigo de Alan Turing. Isso o inspirou. Ele codificou um jogo de teste de Turing e o colocou online, arrecadando cerca de 1.500 acessos. Isso o fez se sentir incrível. "Eu apenas percebi que esse era o tipo de coisa que eu queria perseguir", disse ele.
Ele ingressou na OpenAI como cofundador em 2015, observando que faria qualquer coisa para levar a AGI à fruição, mesmo que isso significasse ser um faxineiro. Quando ele se casou quatro anos depois, ele realizou uma cerimônia civil no escritório da OpenAI em frente a uma parede de flores personalizada estampada com a forma do logotipo hexagonal do laboratório. Sutskever oficiou.
"Fundamentalmente, eu quero trabalhar na AGI pelo resto da minha vida", Brockman me disse.
Eu perguntei sobre o que o motivava.
Brockman mencionou as chances de trabalhar em uma tecnologia transformadora durante sua vida. Ele acreditava estar em uma posição única para provocar essa transformação. "O que realmente me atrai são problemas que não se desenrolarão da mesma forma se eu não participar", disse ele.
Ele queria liderar a AGI e ansiava por reconhecimento por suas realizações. Em 2022, ele se tornou presidente da OpenAI.
Lucro, Missão e Competição
Durante nossas conversas, Brockman afirmou que as mudanças estruturais da OpenAI não alteraram sua missão principal. A estrutura de lucro limitado e os novos investidores aprimoraram-na. "Conseguimos obter esses investidores alinhados com a missão que estão dispostos a priorizar a missão sobre os retornos. Essa é uma coisa maluca", disse ele.
A OpenAI agora tinha os recursos para dimensionar seus modelos e ficar à frente da concorrência. Não fazer isso poderia prejudicar sua missão. Foi essa suposição que colocou em movimento todas as ações da OpenAI e suas consequências de longo alcance. Isso colocou um relógio correndo em cada um dos avanços de pesquisa da OpenAI, baseado não na escala de tempo da deliberação cuidadosa, mas no ritmo implacável necessário para cruzar a linha de chegada antes de qualquer outra pessoa. Isso justificou o consumo da OpenAI de uma quantidade insondável de recursos.
Brockman enfatizou a importância de redistribuir os benefícios da AGI.
Eu perguntei sobre exemplos históricos de tecnologias que distribuíram com sucesso os benefícios ao público.
"Bem, eu realmente acho que - é realmente interessante olhar até mesmo para a internet como um exemplo", disse ele. "Há problemas também, certo?", ele disse como uma ressalva. "Sempre que você tem algo super transformador, não será fácil descobrir como maximizar o positivo, minimizar o negativo.
"O fogo é outro exemplo", acrescentou ele. "Também tem algumas desvantagens reais. Então, temos que descobrir como mantê-lo sob controle e ter padrões compartilhados.
"Carros são um bom exemplo", continuou ele. "Muitas pessoas têm carros, beneficiam muitas pessoas. Eles também têm algumas desvantagens. Eles têm algumas externalidades que não são necessariamente boas para o mundo", ele terminou hesitantemente.
"Eu acho que a coisa que queremos para a AGI não é tão diferente dos lados positivos da internet, dos lados positivos dos carros, dos lados positivos do fogo. A implementação é muito diferente, no entanto, porque é um tipo de tecnologia muito diferente".
Seus olhos brilharam com uma nova ideia. "Basta olhar para os serviços públicos. As empresas de energia, as empresas de eletricidade são entidades muito centralizadas que fornecem coisas de baixo custo e alta qualidade que melhoram significativamente a vida das pessoas".
Brockman parecia mais uma vez incerto sobre como a OpenAI se transformaria em um serviço público.
Ele voltou para a única coisa que sabia com certeza. A OpenAI estava comprometida em redistribuir os benefícios da AGI e dar a todos a liberdade econômica. "Nós realmente queremos dizer isso", disse ele.
"A maneira como pensamos sobre isso é: A tecnologia até agora tem sido algo que realmente eleva todos os barcos, mas tem esse efeito de concentração real", disse ele. "A AGI poderia ser mais extrema. E se todo o valor ficar trancado em um lugar? Essa é a trajetória em que estamos como sociedade. E nunca vimos esse extremo disso. Eu não acho que esse seja um bom mundo. Esse não é um mundo que eu quero ajudar a construir".
Consequências e Reação
Em fevereiro de 2020, publiquei meu perfil para a MIT Technology Review, revelando um desalinhamento entre a imagem pública da OpenAI e suas práticas internas. Eu disse que "Com o tempo, permitiu que uma competitividade feroz e uma crescente pressão por mais financiamento corroessem seus ideais fundadores de transparência, abertura e colaboração".
Elon Musk respondeu com três tweets:
"OpenAI deveria ser mais aberta imo"
"Eu não tenho controle e apenas uma visão muito limitada da OpenAI. A confiança em Dario para segurança não é alta", disse ele, referindo-se a Dario Amodei, o diretor de pesquisa.
"Todas as organizações que desenvolvem IA avançada devem ser regulamentadas, incluindo a Tesla"
Altman enviou um e-mail para os funcionários da OpenAI.
"Embora definitivamente não seja catastrófico, foi claramente ruim", escreveu ele, sobre o artigo da MIT Technology Review.
Ele escreveu que era "uma crítica justa", que a peça havia identificado uma desconexão entre a percepção da OpenAI e sua realidade. Ele sugeriria que Amodei e Musk se encontrassem para resolver a crítica de Musk. Para evitar qualquer dúvida, o trabalho de Amodei e a segurança da IA eram críticos para a missão, escreveu ele. "Eu acho que em algum momento no futuro devemos encontrar uma maneira de defender publicamente nossa equipe (mas não dar à imprensa a luta pública que eles adorariam agora)".
Após o artigo, a OpenAI não falou comigo novamente por três anos.