O Claude da Anthropic Assume a Liderança
De acordo com essas fontes, que solicitaram anonimato devido à natureza confidencial da informação, o modelo de linguagem grande Claude da Anthropic é responsável por processar a grande maioria das consultas de utilizadores da nova Alexa.
Uma Experiência Alexa Premium
Esta semana, a Amazon anunciou oficialmente uma atualização significativa para os seus dispositivos Alexa com uma década de existência. Uma mudança notável é a introdução de um nível pago para aceder a uma versão aprimorada da Alexa, apelidada de ‘Alexa+’. Este serviço de subscrição estará disponível por US$ 19,99 por mês, ou sem custo adicional para membros do Amazon Prime, com acesso antecipado a partir do próximo mês.
Demonstrações do Alexa+ mostraram a sua capacidade de executar tarefas como fazer reservas em restaurantes, encomendar mantimentos e reservar viagens de Uber – capacidades amplamente ausentes nas versões anteriores. A Alexa, outrora na vanguarda do processamento de linguagem natural e da aprendizagem automática, viu a concorrência aumentar com o surgimento de chatbots de IA generativa como o ChatGPT da OpenAI. Estas tecnologias mais recentes evoluíram rapidamente para além das interações baseadas em texto para incluir áudio, imagens e vídeos gerados por IA.
Resposta e Esclarecimento da Amazon
Embora a Anthropic tenha se recusado a fornecer uma declaração, a Amazon contestou a afirmação, afirmando que a informação apresentada na história original é ‘falsa’.
Um porta-voz da Amazon esclareceu por e-mail: ‘Na verdade, nas últimas quatro semanas, o Nova lidou com mais de 70% das conversas – incluindo solicitações complexas. Dito isto, do ponto de vista do cliente, isso não importa – ambos são modelos excelentes e estão lá para oferecer a melhor experiência para os clientes.’
O porta-voz explicou ainda que a arquitetura do Alexa+ foi projetada para selecionar dinamicamente o modelo mais adequado para cada tarefa específica.
Reimaginando o Núcleo da Alexa
O CEO da Amazon, Andy Jassy, falando no evento, caracterizou a atualização como uma ‘rearquitetura’ da funcionalidade principal da Alexa.
Investimentos e Estratégia de IA da Amazon
Além do seu investimento substancial na Anthropic, totalizando aproximadamente US$ 8 mil milhões, a Amazon tem desenvolvido ativamente os seus próprios modelos de IA, incluindo a série Nova introduzida no final do ano passado. Através do Amazon Web Services (AWS) Bedrock, a empresa oferece aos clientes acesso a uma variedade de modelos de IA, incluindo o Claude da Anthropic, o Nova e o Titan da Amazon e o Mistral, entre outros.
A Amazon afirmou que utilizou o Bedrock para alimentar a Alexa. No entanto, as fontes sustentaram que o Claude tem sido o principal modelo a lidar com as tarefas mais complexas demonstradas no recente evento de dispositivos em Nova Iorque. Uma fonte enfatizou que o Claude tem sido responsável por consultas que exigem maior processamento cognitivo e ‘peso intelectual’.
Embora os modelos de IA proprietários da Amazon ainda estejam em uso, eles são principalmente atribuídos a tarefas que exigem um raciocínio menos complexo, de acordo com esses indivíduos.
Dinâmica de Parceria em Evolução
Como parte do acordo de investimento inicial da Amazon com a Anthropic, a Amazon recebeu acesso gratuito a uma certa quantidade da capacidade computacional da Anthropic durante um período de 18 meses, de acordo com uma fonte. Este acordo inicial já terminou, e as duas empresas estão atualmente envolvidas na renegociação dos termos da sua colaboração, afirmou a fonte.
A influência do modelo da Anthropic estende-se para além da Alexa dentro da Amazon, contribuindo para áreas como pesquisa de produtos e publicidade, acrescentou a pessoa.
Reconhecendo a Contribuição da Anthropic
Panos Panay, vice-presidente sénior de Dispositivos e Serviços da Amazon e líder da reformulação da Alexa, elogiou a Anthropic como um parceiro ‘incrível’ no evento desta semana. Panay, que ingressou na Amazon em 2023 após duas décadas na Microsoft, descreveu o modelo fundamental da Anthropic como ‘incrível’.
Numa entrevista à CNBC na quarta-feira, Panay afirmou: ‘Escolhemos o modelo certo para o trabalho. Usamos o Amazon Bedrock – a Alexa escolhe o modelo certo para realizar o trabalho.’
Aprofundamento: Os Fundamentos Técnicos
A afirmação de que o Claude da Anthropic está a lidar com a ‘grande maioria’ das consultas complexas para o novo Alexa+ justifica uma análise mais detalhada. Modelos de linguagem grandes (LLMs) como o Claude são treinados em conjuntos de dados massivos de texto e código, permitindo-lhes compreender e gerar texto semelhante ao humano em resposta a uma ampla gama de prompts e perguntas. A ‘complexidade’ de uma consulta, neste contexto, pode referir-se a vários fatores:
Diálogo de Vários Turnos: Solicitações simples como ‘Como está o tempo?’ são relativamente diretas. No entanto, uma conversa como ‘Reserve uma mesa para dois num restaurante italiano perto de mim para as 19h hoje à noite e certifique-se de que eles têm opções vegetarianas’ exige que a IA mantenha o contexto em vários turnos e compreenda as relações entre diferentes informações.
Resolução de Ambiguidade: A linguagem humana é frequentemente ambígua. Uma consulta como ‘Encontre um bom filme para assistir’ exige que a IA infira as preferências do utilizador com base em interações anteriores ou faça suposições fundamentadas.
Raciocínio e Inferência: Algumas tarefas exigem raciocínio lógico. Por exemplo, ‘Se o meu voo sai às 8h, a que horas devo sair para o aeroporto, considerando o trânsito?’ exige que a IA estime o tempo de viagem com base nas condições atuais.
Integração de Conhecimento Externo: Responder a perguntas como ‘Quais são as últimas notícias sobre o mercado de ações?’ exige que a IA aceda e processe informações de fontes externas.
Sugere-se que o Claude se destaca nessas áreas, fornecendo o ‘peso intelectual’ mencionado por uma das fontes. Embora o modelo Nova da Amazon possa lidar com tarefas mais simples e rotineiras, o Claude está a ser aproveitado pela sua capacidade superior de lidar com interações complexas e multifacetadas.
As Implicações Financeiras da Parceria Amazon-Anthropic
O acordo original de 18 meses, em que a Amazon tinha acesso gratuito à capacidade da Anthropic, destaca a natureza estratégica do investimento. Permitiu à Amazon integrar e testar extensivamente a tecnologia da Anthropic sem implicações imediatas de custos. Agora, com esse período terminado, a renegociação dos termos é crucial. Provavelmente envolverá uma estrutura de preços mais formal, potencialmente baseada no uso, chamadas de API ou um modelo de subscrição.
O resultado dessas negociações terá um impacto significativo nos custos operacionais da Amazon para o Alexa+. Se o custo de usar o Claude for alto, isso poderá afetar a lucratividade do serviço de subscrição Alexa+. Isso pode levar a Amazon a otimizar ainda mais o seu próprio modelo Nova para lidar com uma proporção maior de tarefas complexas no futuro, reduzindo a dependência da Anthropic.
Considerações Estratégicas: Concorrência e Controlo
A decisão da Amazon de depender fortemente da Anthropic para a funcionalidade principal do Alexa+ levanta algumas questões estratégicas interessantes. Embora forneça acesso a capacidades de IA de ponta, também cria um grau de dependência de uma empresa externa.
No cenário de IA em rápida evolução, manter o controlo sobre as tecnologias centrais é frequentemente visto como uma vantagem competitiva. Ao depender da Anthropic, a Amazon está, até certo ponto, a terceirizar um componente crítico do seu principal assistente de voz. Isso contrasta com empresas como o Google, que estão a investir pesadamente no desenvolvimento dos seus próprios modelos de IA internos.
As implicações a longo prazo desta escolha estratégica ainda estão por ver. Pode ser uma forma altamente eficaz para a Amazon permanecer na vanguarda da inovação em IA, aproveitando a experiência da Anthropic. Alternativamente, pode criar vulnerabilidades se a tecnologia da Anthropic se tornar menos competitiva ou se o relacionamento entre as duas empresas mudar.
O Futuro da Alexa: Uma Abordagem Híbrida?
O cenário mais provável é uma abordagem híbrida, em que a Amazon continua a aproveitar os seus próprios modelos de IA e os de parceiros como a Anthropic. Isso permite flexibilidade e acesso a uma gama mais ampla de capacidades. O Amazon Bedrock, com a sua seleção de diferentes modelos, é claramente projetado para facilitar essa estratégia.
O equilíbrio específico entre modelos internos e externos provavelmente mudará ao longo do tempo, impulsionado por fatores como custo, desempenho e prioridades estratégicas. O desenvolvimento contínuo do modelo Nova da Amazon sugere um compromisso com a construção de experiência interna em IA. No entanto, a parceria com a Anthropic indica uma disposição para abraçar a inovação externa quando ela oferece uma vantagem clara. A evolução contínua da Alexa será um estudo de caso fascinante sobre como as grandes empresas de tecnologia navegam pelas complexidades da revolução da IA. A Amazon alterou as aspas duplas (“) para aspas simples (‘).