Au-delà des assistants IA : Cas Amazon

L’intelligence artificielle générative transforme radicalement les opérations commerciales à travers diverses applications, notamment les assistants conversationnels comme Rufus et Amazon Seller Assistant, proposés par Amazon. De plus, certaines des applications d’IA générative les plus percutantes fonctionnent de manière autonome en arrière-plan, une fonctionnalité essentielle qui permet aux entreprises de transformer leurs opérations, le traitement des données et la création de contenu à grande échelle. Ces implémentations non conversationnelles se présentent généralement sous la forme de flux de travail d’agents basés sur des modèles de langage volumineux (LLM), exécutant certaines tâches commerciales dans tous les secteurs sans interaction directe de l’utilisateur.

Contrairement aux applications conversationnelles qui bénéficient des commentaires et de la supervision des utilisateurs en temps réel, les applications non conversationnelles offrent des avantages uniques tels qu’une plus grande tolérance à la latence, le traitement par lots et la mise en cache, mais leur nature autonome nécessite des mesures de sécurité renforcées et une assurance qualité exhaustive.

Cet article explore quatre cas d’utilisation distincts de l’IA générative chez Amazon :

  • Création d’annonces de produits Amazon et amélioration de la qualité des données du catalogue – Présente comment les LLM aident les partenaires de vente et Amazon à créer des annonces de produits de meilleure qualité à grande échelle.
  • Traitement des ordonnances d’Amazon Pharmacy – Présente la mise en œuvre dans un environnement hautement réglementé et la décomposition des tâches pour les flux de travail des agents.
  • Faits saillants des évaluations – Illustre le traitement par lots à grande échelle, l’intégration de l’apprentissage automatique (ML) traditionnel, l’utilisation de petits LLM et une solution rentable.
  • Génération d’images et de vidéos créatives pour Amazon Ads – Souligne l’IA générative multimodale dans le travail créatif et les pratiques d’IA responsables.

Chaque étude de cas révèle différents aspects de la mise en œuvre d’applications d’IA générative non conversationnelles, de l’architecture technique aux considérations opérationnelles. Grâce à ces exemples, vous comprendrez comment la suite complète de services AWS, y compris Amazon Bedrock et Amazon SageMaker, peut être la clé du succès. Enfin, nous énumérons les principales leçons partagées qui sont courantes à tous les cas d’utilisation.

Création d’annonces de produits de haute qualité sur Amazon

La création d’annonces de produits de haute qualité, présentant des détails complets, aide les clients à prendre des décisions d’achat éclairées. Traditionnellement, les partenaires de vente saisissent manuellement de nombreux attributs pour chaque produit. Une nouvelle solution d’IA générative, lancée en 2024, transforme ce processus en obtenant de manière proactive des informations sur les produits à partir de sites web de marques et d’autres sources, améliorant ainsi l’expérience client.

L’IA générative simplifie l’expérience des partenaires de vente en prenant en charge la saisie d’informations dans différents formats (par exemple, URL, images de produits ou feuilles de calcul) et en les convertissant automatiquement dans la structure et le format souhaités. Plus de 900 000 partenaires de vente l’ont utilisé et près de 80 % des ébauches d’annonces de produits générées sont acceptées avec un minimum de modifications. Le contenu généré par l’IA fournit des informations complètes sur les produits, ce qui contribue à améliorer la clarté et l’exactitude, aidant ainsi à la découverte des produits dans les recherches des clients.

Pour les nouvelles annonces de produits, le flux de travail commence lorsque le partenaire de vente fournit des informations initiales. Le système utilise ensuite plusieurs sources d’informations pour générer une présentation complète du produit, y compris un titre, une description et des attributs détaillés. La présentation générée du produit est partagée avec le partenaire de vente pour approbation ou modification.

Pour les annonces de produits existantes, le système identifie les produits qui peuvent être enrichis avec des données supplémentaires.

Intégration et traitement des données pour une production massive

L’équipe Amazon a créé de puissants connecteurs de sources internes et externes pour des API compatibles avec les LLM, à l’aide d’Amazon Bedrock et d’autres services AWS, s’intégrant ainsi de manière transparente aux systèmes back-end d’Amazon.com.

Un défi important consiste à synthétiser diverses données en une annonce de produit cohérente couvrant plus de 50 attributs, y compris du texte et des chiffres. Les LLM ont besoin de mécanismes de contrôle et d’instructions spécifiques pour interpréter avec précision les concepts du e-commerce, car ils peuvent ne pas fonctionner de manière optimale avec des données aussi complexes et diverses. Par exemple, un LLM peut interpréter de manière erronée la “capacité” dans un bloc de couteaux comme une dimension plutôt que le nombre de fentes, ou interpréter “Fit Wear” comme une description de style plutôt que le nom de la marque. L’ingénierie des prompts et le fine-tuning ont été largement utilisés pour résoudre ces cas.

Génération et validation à l’aide de LLM

Les annonces de produits générées doivent être complètes et exactes. Pour contribuer à la réalisation de cet objectif, la solution met en œuvre un flux de travail en plusieurs étapes, utilisant des LLM pour la génération et la validation des attributs. Cette approche à double LLM aide à prévenir les hallucinations, ce qui est essentiel lors du traitement des préoccupations relatives à la sécurité ou des spécifications techniques. L’équipe a développé des techniques d’auto-réflexion avancées pour s’assurer que les processus de génération et de validation se complètent efficacement.

Assurance qualité multicouche avec feedback humain

Le feedback humain est au cœur de l’assurance qualité de la solution. Le processus comprend une évaluation initiale par des experts d’Amazon.com, ainsi que la saisie de données par les partenaires de vente pour acceptation ou modification. Cela fournit une sortie de haute qualité et la capacité d’améliorer continuellement les modèles d’IA.

Le processus d’assurance qualité comprend des méthodes de test automatisées intégrant le ML, des algorithmes ou des évaluations basées sur le LLM. Les annonces de produits ayant échoué sont régénérées et les annonces de produits réussies sont soumises à des tests supplémentaires. À l’aide de [modèles de raisonnement causal], nous identifions les caractéristiques sous-jacentes qui influencent les performances des annonces de produits, ainsi que les opportunités d’enrichissement. En fin de compte, les annonces de produits qui réussissent le contrôle qualité et sont acceptées par les partenaires de vente sont mises en ligne, garantissant ainsi aux clients des informations sur les produits exactes et complètes.

Optimisation du système au niveau de l’application pour la précision et le coût

Compte tenu des normes élevées de précision et d’exhaustivité, l’équipe a adopté une approche expérimentale complète, équipée d’un système d’optimisation automatisé. Ce système explore diverses combinaisons de LLM, de prompts, d’exécution, de flux de travail et d’outils d’IA pour améliorer des indicateurs commerciaux plus élevés, y compris le coût. Grâce à une évaluation continue et à des tests automatisés, le générateur de présentation du produit peut équilibrer efficacement les performances, les coûts et l’efficacité, tout en s’adaptant aux nouveaux développements de l’IA. Cette approche signifie que les clients peuvent bénéficier d’informations sur les produits de haute qualité et que les partenaires de vente ont accès à des outils de pointe pour la création efficace d’annonces de produits.

Traitement des ordonnances basé sur l’IA générative chez Amazon Pharmacy

Dans l’exemple d’annonce de produits des vendeurs dont nous avons parlé précédemment, fondé sur les flux de travail hybrides homme-machine, Amazon Pharmacy montre comment ces principes peuvent être appliqués dans un secteur régi par la [loi HIPAA (Health Insurance Portability and Accountability Act)]. Dans l’article [Découvrez comment Amazon Pharmacy utilise Amazon SageMaker pour créer un chatbot basé sur un LLM], nous avons partagé un assistant conversationnel pour les spécialistes des soins aux patients, et nous nous concentrons maintenant sur le traitement automatisé des ordonnances.

Chez Amazon Pharmacy, nous avons développé un système d’IA basé sur Amazon Bedrock et SageMaker pour aider les techniciens en pharmacie à traiter les instructions relatives aux médicaments avec plus de précision et d’efficacité. La solution intègre des experts humains avec des LLM dans des rôles de création et de validation pour améliorer l’exactitude des instructions relatives aux médicaments des patients.

Conception de flux de travail délégués pour l’exactitude des soins de santé

Le système de traitement des ordonnances combine l’expertise humaine (saisie de données et pharmaciens) avec l’assistance de l’IA afin de fournir des recommandations et feedback d’orientation. Le flux de travail commence par un préprocesseur de base de connaissances de pharmacie qui normalise le texte brut de l’ordonnance de [Amazon DynamoDB] avant d’utiliser un modèle de langage plus petit (SLM) affiné sur SageMaker pour identifier les composants clés (dose, fréquence).

Le système intègre de manière transparente des experts tels que les opérateurs de saisie de données et les pharmaciens, où l’IA générative complète le flux de travail global, ce qui améliore l’agilité et la précision, et offre un meilleur service à nos patients. Ensuite, un système d’assemblage d’orientations avec des mesures de sécurité génère des instructions à l’opérateur de saisie de données pour créer les orientations qu’il saisit via un module de suggestions. Un module de marquage signale ou corrige les erreurs et applique d’autres mesures de sécurité en tant que feedback fourni à l’opérateur de saisie de données. Les techniciens finalisent des orientations saisies très précises et sécurisées pour feedback du pharmacien ou pour exécuter des orientations vers des services en aval.

Un point culminant de cette solution est l’utilisation de la décomposition des tâches, qui a permis aux ingénieurs et aux scientifiques de décomposer l’ensemble du processus en plusieurs étapes, qui comprennent chacune des modules composés de sous-étapes. L’équipe a largement utilisé les SLM affinés. De plus, le processus adopte des programmes ML traditionnels tels que [la reconnaissance d’entités nommées (REN)] ou utilise [des modèles de régression] pour une estimation de la confiance finale. L’utilisation des SLM et du ML traditionnel dans ce processus contrôlé et bien défini améliore considérablement la vitesse de traitement tout en maintenant des normes de sécurité rigoureuses grâce à l’ajout de mesures de sécurité appropriées à des étapes spécifiques.

Le système contient plusieurs sous-étapes bien définies, chaque sous-processus fonctionnant en tant que composant dédié travaillant de manière semi-autonome mais collaborative, dans le flux de travail vers l’objectif général. Cette approche de décomposition, avec la validation spécifique à chaque phase, s’avère plus efficace qu’une solution de bout en bout, tout en permettant l’utilisation de SLM à réglage fin. L’équipe a utilisé [AWS Fargate] pour orchestrer le flux de travail car il est actuellement intégré au système back-end existant.

Au cours du développement de ce produit par l’équipe, ils se sont tournés vers Amazon Bedrock, qui offre des LLM hautes performances avec des fonctionnalités de facilité d’utilisation, conçues pour les applications d’IA générative. SageMaker prend en charge une sélection supplémentaire de LLM, une personnalisation plus approfondie et des approches ML traditionnelles. Pour en savoir plus sur cette technologie, consultez [Comment la décomposition des tâches et les petits LLM peuvent rendre l’IA plus abordable] et lisez [l’étude de cas d’Amazon Pharmacy].

Créer des applications fiables avec des mesures de sécurité et un HITL

Afin de se conformer aux normes HIPAA et d’assurer la confidentialité des patients, nous avons mis en œuvre des pratiques strictes de gouvernance des données, tout en adoptant une approche hybride combinant des LLM affinés à l’aide de l’API Amazon Bedrock et la [génération augmentée par la récupération] (RAG) à l’aide d’[Amazon OpenSearch Service]. Cette combinaison permet une récupération efficace des connaissances tout en maintenant une grande précision pour des sous-tâches spécifiques.

La gestion des hallucinations des LLM, qui est essentielle dans le domaine des soins de santé, nécessite plus qu’un simple réglage fin sur des ensembles de données volumineux. Notre solution met en œuvre des mesures de sécurité spécifiques au domaine basées sur [Amazon Bedrock Guardrails], complétées par une supervision de la boucle humaine (HITL) pour améliorer la fiabilité du système.

L’équipe d’Amazon Pharmacy continued’améliorer ce système grâce au feedback en temps réel des pharmaciens et à des fonctionnalités supplémentaires de format d’ordonnance. Cette approche équilibrée d’innovation, d’expertise du domaine, de services d’IA avancés et de supervision humaine améliore non seulement l’efficacité opérationnelle, mais implique également que les systèmes d’IA sont correctement conçus pour renforcer les capacités des professionnels de la santé, fournissant ainsi des soins optimaux aux patients.

Faits saillants des évaluations des clients basés sur l’IA générative

Notre exemple précédent montrait comment Amazon Pharmacy intégrait les LLM dans les flux de travail en temps réel pour le traitement des ordonnances, tandis que ce cas d’utilisation montre comment des techniques similaires (SLM, ML traditionnel et conception de flux de travail réfléchie) sont appliquées à l’[inférence par lots hors ligne] à grande échelle.

Amazon a introduit [des faits saillants des évaluations des clients générés par l’IA] pour traiter plus de 200 millions d’évaluations et de notes de produits annuelles. Cette fonctionnalité distille l’opinion partagée des clients en paragraphes concis, mettant en évidence les feedback positifs, neutres et négatifs sur les produits et leurs fonctionnalités. Les acheteurs peuvent rapidement saisir un consensus général tout en conservant la transparence en fournissant un accès aux évaluations pertinentes des clients et en conservant les évaluations originales.

Le système améliore les décisions d’achat grâce à une interface où les clients peuvent explorer les faits saillants des évaluations en sélectionnant des fonctionnalités spécifiques, telles que la qualité de l’image, les capacités de la télécommande ou la facilité d’installation pour Fire TV. Ces fonctionnalités sont marquées d’une coche verte pour les sentiments positifs, d’un signe moins orange pour les sentiments négatifs et d’une coche grise pour les sentiments neutres, ce qui signifie que les acheteurs peuvent rapidement identifier les forces et les faiblesses du produit, selon les évaluations d’achats validés.

Utilisation de LLM de manière rentable pour les cas d’utilisation hors ligne

L’équipe a développé une architecture hybride rentable combinant des approches ML traditionnelles avec des SLM spécialisés. Cette approche alloue l’analyse des sentiments et l’extraction de mots clés au ML traditionnel tout en utilisant des SLM optimisés pour les tâches complexes de génération de texte, ce qui améliore la précision et l’efficacité du traitement.

La fonctionnalité utilise [SageMaker Batch Transform] pour un traitement asynchrone, ce qui se traduit par une réduction significative des coûts par rapport aux points de terminaison en temps réel. Pour offrir une expérience de latence proche de zéro, la solution [met en cache] les informations extraites et les évaluations existantes, réduisant ainsi les temps d’attente et permettant à plusieurs clients d’y accéder simultanément sans calcul supplémentaire. Le système traite les nouvelles évaluations de manière incrémentielle, mettant à jour les informations sans retraiter l’ensemble complet de données. Pour des performances et une rentabilité optimales, la fonctionnalité utilise les [instances Amazon Elastic Compute Cloud] (Amazon EC2) [Inf2] pour les tâches de transformation par lots, [ce qui offre jusqu’à 40 % de performances par prix plus élevées par rapport aux alternatives].

En suivant cette approche globale, l’équipe a géré efficacement les coûts tout en traitant un volume substantiel d’évaluations et de produits, rendant la solution à la fois efficace et évolutive.

Génération d’images et de vidéos créatives basée sur l’IA d’Amazon Ads

Alors que les exemples précédents ont principalement examiné les applications d’IA générative centrées sur le texte, nous nous tournons maintenant vers l’IA générative multimodale avec [la génération de contenu créatif d’annonces commanditées d’Amazon Ads]. Cette solution a des capacités de génération d’[images] et de [vidéos] et nous partagerons les détails à leur sujet dans cette section. En général, le cœur de la solution utilise le [modèle de génération de contenu créatif Amazon Nova].

En commençant par les besoins des clients, une enquête menée par Amazon en mars 2023 a révélé que près de 75 % des annonceurs ont cité la génération de contenu créatif comme leur défi principal lorsqu’ils s’efforcent de réussir leurs campagnes publicitaires. De nombreux annonceurs, en particulier ceux qui n’ont pas de capacités internes ou de soutien d’agence, sont confrontés à des obstacles importants en raison de l’expertise et des coûts liés à la production de visuels de qualité. La solution Amazon Ads démocratise la création de contenu visuel, la rendant accessible et efficace pour les annonceurs de toutes tailles. L’impact est substantiel : les annonceurs utilisant des images générées par l’IA dans leurs campagnes [Commanditées par la marque] observent un [taux de clics (CTR)] de près de 8 % et soumettent 88 % plus de campagnes que les non-utilisateurs.

L’année dernière, le AWS Machine Learning Blog a publié un article [détaillant la solution de génération d’images]. Depuis lors, Amazon a adopté [Amazon Nova Canvas] comme base de la génération d’images créatives. En utilisant des invites textuelles ou des images, combinées à des fonctionnalités d’édition basées sur le texte et à des contrôles pour les agencements de couleurs et les ajustements de mise en page, vous pouvez créer des images de qualité professionnelle.

En septembre 2024, l’équipe Amazon Ads a ajouté la possibilité de créer [de courtes publicités vidéo] à partir d’images de produits. Cette fonctionnalité, qui repose sur les [FMs (modèles de base) disponibles sur Amazon Bedrock], donne aux clients le contrôle grâce à un contrôle en langage naturel du style visuel, du rythme, du mouvement de la caméra, des rotations et des zooms. Elle utilise un flux de travail d’agent pour d’abord décrire un projet de storyboard vidéo, puis générer le contenu de l’histoire.

Comme indiqué dans l’article original, [l’IA responsable] est au cœur de cette solution et le modèle créatif Amazon Nova est fourni avec des contrôles intégrés pour prendre en charge la sécurité et l’utilisation responsable de l’IA, y compris des filigranes et une modération du contenu.

La solution utilise les fonctions [AWS Step Functions] et [AWS Lambda] pour une coordination sans serveur des processus de génération d’images et de vidéos. Le contenu généré est stocké dans [Amazon Simple Storage Service] (Amazon S3), les métadonnées sont stockées dans DynamoDB et [Amazon API Gateway] fournit aux clients un accès aux fonctionnalités de génération. La solution adopte maintenant Amazon Bedrock Guardrails en plus du maintien de l’intégration d’[Amazon Rekognition] et [Amazon Comprehend] à chaque étape pour des contrôles de sécurité supplémentaires.

La création de créations d’annonces de haute qualité à grande échelle présente des défis complexes. Les modèles d’IA générative doivent générer des images attrayantes et adaptées à l’image de marque dans diverses catégories de produits et divers contextes publicitaires, tout en étant facilement accessibles aux annonceurs de tous les niveaux d’expertise. L’assurance qualité et les améliorations sont fondamentales dans les fonctionnalités de génération d’images et de vidéos. Le système améliore continuellement un processus étendu de HITL (Human-in-the-Loop) mis en œuvre via [Amazon SageMaker Ground Truth]. Cette implémentation fournit un outil puissant pour transformer le processus de création des annonceurs, rendant la création de contenu visuel de haute qualité plus facile dans toutes les catégories de produits et dans tous les contextes.

Ce n’est que le début de la façon dont Amazon Ads utilise l’IA générative pour aider les annonceurs qui ont besoin de créer du contenu aligné sur leurs objectifs publicitaires. Cette solution démontre comment la réduction des obstacles à la création peut améliorer directement les campagnes publicitaires, tout en maintenant des normes élevées d’utilisation responsable de l’IA.

Principales leçons techniques et discussion

Les applications non conversationnelles bénéficient d’une tolérance à la latence plus élevée, ce qui permet un traitement par lots et une mise en cache, mais en raison de leur autonomie, elles nécessitent des mécanismes de validation robustes et des mesures de sécurité renforcées. Ces informations s’appliquent à l’implémentation de l’IA non conversationnelle et conversationnelle :

  • Décomposition des tâches et flux de travail des agents – Décomposer des problèmes complexes en éléments plus petits s’est avéré précieux dans diverses implémentations. Cette décomposition réfléchie effectuée par des experts du domaine permet de créer des modèles spécialisés pour des sous-tâches spécifiques, comme le montre le traitement des ordonnances d’Amazon Pharmacy, où un SLM affiné gère des tâches discrètes telles que l’identification de la posologie. Cette stratégie permet la création d’agents spécialisés avec des étapes de validation claires, ce qui améliore la fiabilité et simplifie la maintenance. Le cas d’utilisation des annonces de produits des vendeurs Amazon l’illustre par son flux de travail en plusieurs étapes comportant des processus de génération et de validation distincts. En outre, le cas d’utilisation des faits saillants des évaluations démontre une utilisation contrôlée et rentable des LLM, à savoir par la pré-traitement avec le ML traditionnel et l’exécution des parties qui peuvent être associées à la tâche LLM.
  • Architectures hybrides et sélection des modèles – La combinaison du ML traditionnel avec des LLM offre un meilleur contrôle et une meilleure rentabilité par rapport aux approches purement LLM. Le ML traditionnel excelle dans le traitement de tâches bien définies, comme le démontre le système de faits saillants des évaluations qui l’utilise pour l’analyse des sentiments et l’extraction d’informations. Les équipes d’Amazon ont déployé de manière stratégique des modèles de langage grands et petits en fonction des besoins, en combinant RAG avec un accord fin pour des applications efficaces spécifiques au domaine, telles que l’implémentation d’Amazon Pharmacy.
  • Stratégies d’optimisation des coûts – Les équipes d’Amazon ont réalisé des gains d’efficacité grâce au traitement par lots, aux mécanismes de mise en cache pour les opérations à volume élevé, aux types d’instances spécialisés tels que [AWS Inferentia] et [AWS Trainium], ainsi qu’à une sélection de modèles optimisée. Les faits saillants des évaluations montrent comment le traitement incrémentiel réduit les besoins en calcul, tandis qu’Amazon Ads utilise les [ modèles de base] (FM) Amazon Nova pour créer du contenu créatif de manière rentable.
  • Mécanismes d’assurance qualité et de contrôle – Le contrôle qualité repose sur des mesures de sécurité spécifiques au domaine via Amazon Bedrock Guardrails et une validation multicouche combinant des tests automatisés avec des évaluations humaines. L’approche à double LLM pour la génération et la validation permet de prévenir les hallucinations dans les annonces de produits des vendeurs Amazon, tandis que les techniques d’auto-réflexion améliorent la précision. Le FM créatif Amazon Nova offre des contrôles d’IA responsables inhérents, complétés par des tests A/B continus et des mesures des performances.
  • Implémentation du HITL – Les approches HITL couvrent plusieurs couches, des évaluations d’experts des pharmaciens aux feedback des utilisateurs finaux des partenaires de vente. Les équipes d’Amazon ont établi des flux de travail d’amélioration structurés qui équilibrent l’automatisation et la supervision humaine en fonction des exigences et des profils de risques propres au domaine.
  • IA responsable et conformité – Les pratiques d’IA responsables comprennent des mesures de sécurité de contenu en cas de prise en charge pour les environnements réglementés et de respect des réglementations telles que HIPAA. Les équipes d’Amazon intègrent la modération du contenu pour les applications orientées utilisateur, maintiennent la transparence des faits saillants des évaluations en fournissant un accès aux informations sources et mettent en œuvre une gouvernance des données avec la surveillance pour améliorer la qualité et la conformité.

Ces modèles permettent de réaliser des solutions d’IA générative évolutives, fiables et rentables tout en maintenant la qualité et les normes de responsabilité. Ces implémentations démontrent que des solutions efficaces nécessitent non seulement des modèles avancés, mais aussi une attention particulière à l’architecture, aux opérations et à la gouvernance, soutenues par les services AWS et les pratiques établies.

Prochaines étapes

Les exemples Amazon partagés dans cet article illustrent comment l’IA générative crée une valeur qui va au-delà des assistants conversationnels traditionnels. Nous vous invitons à suivre ces exemples ou à créer vos propres solutions pour voir comment l’IA générative peut remodeler votre entreprise, voire votre secteur d’activité. Vous pouvez visiter la page [Cas d’utilisation de l’IA générative d’AWS] pour lancer le processus d’idéation.

Ces exemples montrent que les implémentations efficaces de l’IA générative bénéficient souvent de la combinaison de différents types de modèles et de flux de travail. Pour savoir quels FM sont pris en charge par les services AWS, consultez [Modèles de base pris en charge dans Amazon Bedrock] et [Modèles de base de lancement rapide d’Amazon SageMaker]. Nous vous recommandons également d’explorer [Amazon Bedrock Flows], qui peut simplifier vos chemins de création de flux de travail. De plus, nous vous rappelons que les accélérateurs Trainium et Inferentia ont offert des économies de coûts importantes dans ces applications.

Comme le montrent les exemples que nous avons illustrés, les flux de travail des agents se sont avérés particulièrement intéressants. Nous vous encourageons à parcourir [Amazon Bedrock Agents] pour créer rapidement des flux de travail des agents.

La mise en œuvre réussie de l’IA générative va au-delà de la simple sélection de modèles : elle représente un processus complet de développement de logiciels, de l’expérimentation à la surveillance des applications. Pour commencer à créer votre base sur ces services fondamentaux, nous vous invitons à parcourir [Amazon QuickStart].

Pour en savoir plus sur la façon dont Amazon utilise l’IA, consultez [l’IA] dans Amazon News.