Nouvelle Alexa : l'IA d'Anthropic

Anthropic’s Claude aux Commandes

Selon ces sources, qui ont requis l’anonymat en raison du caractère confidentiel de l’information, le grand modèle de langage Claude d’Anthropic est responsable du traitement de la grande majorité des requêtes des utilisateurs de la nouvelle Alexa.

Une Expérience Alexa Premium

Cette semaine, Amazon a officiellement annoncé une mise à jour significative de ses appareils Alexa, vieux de dix ans. Un changement notable est l’introduction d’un niveau payant pour accéder à une version améliorée d’Alexa, baptisée ‘Alexa+’. Ce service d’abonnement sera disponible pour 19,99 $ par mois, ou sans frais supplémentaires pour les membres Amazon Prime, avec un accès anticipé à partir du mois prochain.

Des démonstrations d’Alexa+ ont montré sa capacité à effectuer des tâches telles que faire des réservations de dîner, commander des courses et réserver des courses Uber, des capacités largement absentes des versions précédentes. Alexa, autrefois à l’avant-garde du traitement du langage naturel et de l’apprentissage automatique, a vu la concurrence s’intensifier avec l’essor des chatbots d’IA générative comme ChatGPT d’OpenAI. Ces technologies plus récentes ont rapidement évolué au-delà des interactions textuelles pour inclure l’audio, les images et les vidéos générés par l’IA.

Réponse et Clarification d’Amazon

Alors qu’Anthropic a refusé de faire une déclaration, Amazon a contesté l’affirmation, affirmant que les informations présentées dans l’article original sont ‘fausses’.

Un porte-parole d’Amazon a clarifié par e-mail : ‘En fait, au cours des quatre dernières semaines, Nova a géré plus de 70 % des conversations, y compris les demandes complexes. Cela dit, du point de vue du client, cela n’a pas d’importance : les deux sont d’excellents modèles et sont là pour offrir la meilleure expérience aux clients.’

Le porte-parole a en outre expliqué que l’architecture d’Alexa+ est conçue pour sélectionner dynamiquement le modèle le plus approprié pour chaque tâche spécifique.

Réimaginer le Cœur d’Alexa

Le PDG d’Amazon, Andy Jassy, s’exprimant lors de l’événement, a qualifié la mise à jour de ‘réarchitecture’ des fonctionnalités de base d’Alexa.

Investissements et Stratégie d’Amazon en Matière d’IA

En plus de son investissement substantiel dans Anthropic, totalisant environ 8 milliards de dollars, Amazon a activement développé ses propres modèles d’IA, y compris la série Nova introduite à la fin de l’année dernière. Grâce à Amazon Web Services (AWS) Bedrock, la société offre à ses clients l’accès à une gamme de modèles d’IA, y compris Claude d’Anthropic, Nova et Titan d’Amazon, et Mistral, entre autres.

Amazon a déclaré avoir utilisé Bedrock pour alimenter Alexa. Cependant, les sources ont maintenu que Claude était le principal modèle gérant les tâches les plus complexes démontrées lors du récent événement sur les appareils à New York. Une source a souligné que Claude était responsable des requêtes nécessitant un traitement cognitif plus important et un ‘poids intellectuel’ supérieur.

Bien que les modèles d’IA propriétaires d’Amazon soient toujours utilisés, ils sont principalement affectés à des tâches qui exigent un raisonnement moins complexe, selon ces personnes.

Évolution de la Dynamique du Partenariat

Dans le cadre de l’accord d’investissement initial d’Amazon avec Anthropic, Amazon a obtenu un accès gratuit à une certaine quantité de la capacité de calcul d’Anthropic sur une période de 18 mois, selon une source. Cet accord initial est maintenant terminé et les deux sociétés sont actuellement en train de renégocier les termes de leur collaboration, a déclaré la source.

L’influence du modèle d’Anthropic s’étend au-delà d’Alexa au sein d’Amazon, contribuant à des domaines tels que la recherche de produits et la publicité, a ajouté la personne.

Reconnaître la Contribution d’Anthropic

Panos Panay, vice-président principal des appareils et services d’Amazon et responsable de la refonte d’Alexa, a salué Anthropic comme un partenaire ‘génial’ lors de l’événement de cette semaine. Panay, qui a rejoint Amazon en 2023 après deux décennies chez Microsoft, a décrit le modèle fondamental d’Anthropic comme ‘incroyable’.

Dans une interview accordée à CNBC mercredi, Panay a déclaré : ‘Nous choisissons le modèle qui convient au travail. Nous utilisons Amazon Bedrock - Alexa choisit le bon modèle pour faire le travail.’

Approfondissement : Les Fondements Techniques

L’affirmation selon laquelle Claude d’Anthropic gère la ‘grande majorité’ des requêtes complexes pour la nouvelle Alexa+ mérite un examen plus approfondi. Les grands modèles de langage (LLM) comme Claude sont entraînés sur des ensembles de données massifs de texte et de code, ce qui leur permet de comprendre et de générer du texte de type humain en réponse à un large éventail d’invites et de questions. La ‘complexité’ d’une requête, dans ce contexte, peut faire référence à plusieurs facteurs :

  • Dialogue à Plusieurs Tours: Les requêtes simples comme ‘Quel temps fait-il ?’ sont relativement simples. Cependant, une conversation comme ‘Réservez-moi une table pour deux dans un restaurant italien près de chez moi pour 19 heures ce soir, et assurez-vous qu’ils ont des options végétariennes’ exige que l’IA maintienne le contexte sur plusieurs tours et comprenne les relations entre les différentes informations.

  • Résolution de l’Ambigüité: Le langage humain est souvent ambigu. Une requête comme ‘Trouvez-moi un bon film à regarder’ exige que l’IA déduise les préférences de l’utilisateur en fonction des interactions passées ou fasse des suppositions éclairées.

  • Raisonnement et Inférence: Certaines tâches nécessitent un raisonnement logique. Par exemple, ‘Si mon vol part à 8 heures du matin, à quelle heure dois-je partir pour l’aéroport, compte tenu du trafic ?’ exige que l’IA estime le temps de trajet en fonction des conditions actuelles.

  • Intégration des Connaissances Externes: Répondre à des questions comme ‘Quelles sont les dernières nouvelles sur le marché boursier ?’ exige que l’IA accède et traite les informations provenant de sources externes.

Il est suggéré que Claude excelle dans ces domaines, fournissant le ‘poids intellectuel’ mentionné par l’une des sources. Alors que le modèle Nova d’Amazon peut gérer des tâches plus simples et plus routinières, Claude est mis à profit pour sa capacité supérieure à gérer des interactions nuancées et multiformes.

Les Implications Financières du Partenariat Amazon-Anthropic

L’accord initial de 18 mois, où Amazon avait un accès gratuit à la capacité d’Anthropic, souligne la nature stratégique de l’investissement. Il a permis à Amazon d’intégrer et de tester la technologie d’Anthropic de manière extensive sans implications financières immédiates. Maintenant, avec cette période terminée, la renégociation des termes est cruciale. Elle impliquera probablement une structure de prix plus formelle, potentiellement basée sur l’utilisation, les appels d’API ou un modèle d’abonnement.

L’issue de ces négociations aura un impact significatif sur les coûts opérationnels d’Amazon pour Alexa+. Si le coût d’utilisation de Claude est élevé, cela pourrait affecter la rentabilité du service d’abonnement Alexa+. Cela pourrait conduire Amazon à optimiser davantage son propre modèle Nova pour gérer une plus grande proportion de tâches complexes à l’avenir, réduisant ainsi sa dépendance à Anthropic.

Considérations Stratégiques : Concurrence et Contrôle

La décision d’Amazon de s’appuyer fortement sur Anthropic pour les fonctionnalités de base d’Alexa+ soulève des questions stratégiques intéressantes. Bien qu’elle donne accès à des capacités d’IA de pointe, elle crée également un certain degré de dépendance à l’égard d’une entreprise externe.

Dans le paysage de l’IA en évolution rapide, le maintien du contrôle sur les technologies de base est souvent considéré comme un avantage concurrentiel. En s’appuyant sur Anthropic, Amazon externalise, dans une certaine mesure, un composant essentiel de son assistant vocal phare. Cela contraste avec des entreprises comme Google, qui investissent massivement dans le développement de leurs propres modèles d’IA internes.

Les implications à long terme de ce choix stratégique restent à voir. Il pourrait s’agir d’un moyen très efficace pour Amazon de rester à l’avant-garde de l’innovation en matière d’IA, en tirant parti de l’expertise d’Anthropic. Alternativement, cela pourrait créer des vulnérabilités si la technologie d’Anthropic devenait moins compétitive ou si la relation entre les deux entreprises changeait.

L’Avenir d’Alexa : Une Approche Hybride ?

Le scénario le plus probable est une approche hybride, où Amazon continue de tirer parti à la fois de ses propres modèles d’IA et de ceux de partenaires comme Anthropic. Cela permet une flexibilité et un accès à un plus large éventail de capacités. Amazon Bedrock, avec sa sélection de différents modèles, est clairement conçu pour faciliter cette stratégie.

L’équilibre spécifique entre les modèles internes et externes évoluera probablement au fil du temps, en fonction de facteurs tels que le coût, les performances et les priorités stratégiques. Le développement en cours du modèle Nova d’Amazon suggère un engagement à renforcer l’expertise interne en matière d’IA. Cependant, le partenariat avec Anthropic indique une volonté d’embrasser l’innovation externe lorsqu’elle offre un avantage clair. L’évolution continue d’Alexa sera une étude de cas fascinante sur la façon dont les grandes entreprises technologiques naviguent dans les complexités de la révolution de l’IA.