La inteligencia artificial generativa está revolucionando las operaciones empresariales a través de diversas aplicaciones, incluidos asistentes conversacionales como Rufus de Amazon y Amazon Seller Assistant. Además, algunas de las aplicaciones de IA generativa más impactantes operan de forma autónoma en segundo plano, una característica esencial que permite a las empresas transformar sus operaciones, el procesamiento de datos y la creación de contenido a escala. Estas implementaciones no conversacionales suelen adoptar la forma de flujos de trabajo basados en agentes impulsados por modelos de lenguaje grandes (LLM, Large Language Model), que ejecutan objetivos empresariales específicos en todos los sectores sin interacción directa del usuario.
A diferencia de las aplicaciones conversacionales, que se benefician de la retroalimentación y la supervisión del usuario en tiempo real, las aplicaciones no conversacionales ofrecen ventajas únicas, como una mayor tolerancia a la latencia, el procesamiento por lotes y el almacenamiento en caché, pero su naturaleza autónoma exige medidas de seguridad más estrictas y una garantía de calidad exhaustiva.
Este artículo explora cuatro estudios de caso distintos de aplicaciones de IA generativa de Amazon:
- Creación de listados de productos de Amazon y mejora de la calidad de los datos del catálogo – Demuestra cómo los LLM pueden ayudar a los socios de ventas y a Amazon a crear listados de productos de mayor calidad a escala.
- Procesamiento de recetas en Amazon Pharmacy – Muestra la implementación en un entorno altamente regulado y la descomposición de tareas para los flujos de trabajo de los agentes.
- Aspectos destacados de las reseñas – Ilustra el procesamiento por lotes a gran escala, la integración del aprendizaje automático (ML, Machine Learning) tradicional, el uso de LLM más pequeños y una solución rentable.
- Generación de imágenes y vídeos creativos de Amazon Ads – Destaca la IA generativa multimodal en el trabajo creativo y las prácticas de IA responsable.
Cada estudio de caso revela diferentes aspectos de la implementación de aplicaciones de IA generativa no conversacionales, desde las arquitecturas técnicas hasta las consideraciones operativas. A través de estos ejemplos, comprenderá cómo un conjunto completo de servicios de AWS, incluidos Amazon Bedrock y Amazon SageMaker, son fundamentales para el éxito. Por último, enumeramos las lecciones clave que se comparten universalmente en varios casos de uso.
Creación de listados de productos de alta calidad en Amazon
La creación de listados de productos de alta calidad con detalles completos ayuda a los clientes a tomar decisiones de compra informadas. Tradicionalmente, los socios de ventas introducen manualmente numerosos atributos para cada producto. Una nueva solución de IA generativa lanzada en 2024 transforma este proceso al obtener de forma proactiva información sobre productos de sitios web de marcas y otras fuentes, mejorando así la experiencia del cliente.
La IA generativa simplifica la experiencia de los socios de ventas al admitir la introducción de información en varios formatos (como URL, imágenes de productos u hojas de cálculo) y convertirla automáticamente en la estructura y el formato deseados. Más de 900.000 socios de ventas la han utilizado, y casi el 80% de los borradores de listados generados se han aceptado con mínimas ediciones. El contenido generado por IA proporciona detalles completos del producto, lo que ayuda a mejorar la claridad y la precisión, lo que contribuye a la capacidad de descubrimiento del producto en las búsquedas de los clientes.
Para los nuevos listados de productos, el flujo de trabajo comienza cuando un socio de ventas proporciona información inicial. A continuación, el sistema utiliza varias fuentes de información para generar un listado de productos completo, que incluye el título, la descripción y los atributos detallados. El listado de productos generado se comparte con el socio de ventas para su aprobación o edición.
Para los listados de productos existentes, el sistema identifica los productos que se pueden enriquecer con datos adicionales.
Integración y procesamiento de datos para una gran cantidad de resultados
El equipo de Amazon utilizó Amazon Bedrock y otros servicios de AWS para crear conectores robustos de fuentes internas y externas compatibles con LLM para una integración perfecta con los sistemas backend de Amazon.com.
Un desafío importante es la integración de diversos datos en listados de productos coherentes en más de 50 atributos, incluido texto y números. Los LLM requieren mecanismos de control e instrucciones específicos para interpretar con precisión los conceptos de comercio electrónico, ya que es posible que no obtengan el mejor rendimiento con datos tan complejos y diversos. Por ejemplo, un LLM puede confundir la "capacidad" en una base de cuchillos con el tamaño en lugar del número de ranuras, o "Fit Wear" con una descripción de estilo en lugar de un nombre de marca. La ingeniería de avisos y el ajuste fino se utilizan ampliamente para abordar estos casos.
Generación y validación con LLM
Los listados de productos generados deben ser completos y correctos. Para ayudar a lograr este objetivo, la solución implementa un flujo de trabajo de varios pasos que utiliza LLM para la generación y validación de atributos. Este enfoque de LLM doble ayuda a prevenir las alucinaciones, lo cual es fundamental cuando se trata de preocupaciones de seguridad o especificaciones técnicas. El equipo desarrolló técnicas avanzadas de autorreflexión para garantizar que los procesos de generación y validación se complementen mutuamente de forma eficaz.
Garantía de calidad de múltiples capas con retroalimentación humana
La retroalimentación humana es fundamental para la garantía de calidad de la solución. El proceso incluye una evaluación inicial por parte de expertos de Amazon.com, junto con la aportación de los socios de ventas para su aceptación o edición. Esto proporciona resultados de alta calidad y permite mejorar continuamente los modelos de IA.
El proceso de garantía de calidad incluye métodos de prueba automatizados que incorporan ML, algoritmos o evaluaciones basadas en LLM. Los listados de productos fallidos se regeneran y los listados de productos exitosos se someten a pruebas adicionales. Utilizando [modelos de inferencia causal], identificamos las características subyacentes que influyen en el rendimiento de los listados de productos, así como las oportunidades de enriquecimiento. Finalmente, los listados de productos que superan las comprobaciones de calidad y son aceptados por los socios de ventas se publican, lo que garantiza que los clientes reciban información precisa y completa sobre el producto.
Optimización del sistema a nivel de aplicación para la precisión y el costo
Dadas las altas normas de precisión e integridad, el equipo adoptó un enfoque experimental integral equipado con un sistema de optimización automatizado. El sistema explora varias combinaciones de LLM, indicaciones, libros de jugadas, flujos de trabajo y herramientas de IA para mejorar las métricas comerciales superiores, incluido el costo. A través de la evaluación continua y las pruebas automatizadas, el generador de listados de productos puede equilibrar eficazmente el rendimiento, el costo y la eficiencia mientras se adapta a los nuevos desarrollos de IA. Este enfoque significa que los clientes pueden beneficiarse de información de productos de alta calidad y que los socios de ventas pueden acceder a herramientas de vanguardia para la creación eficiente de listados de productos.
Procesamiento de recetas basado en IA generativa en Amazon Pharmacy
En el ejemplo anterior de listados de vendedores, que se basaba en un flujo de trabajo híbrido humano-máquina, Amazon Pharmacy muestra cómo estos principios se pueden aplicar a una industria regulada por la [Ley de Portabilidad y Responsabilidad de Seguros Médicos] (HIPAA). En [Aprenda cómo Amazon Pharmacy utiliza Amazon SageMaker para crear un chatbot basado en LLM], compartimos un asistente conversacional para especialistas en atención al paciente, ahora nos centramos en el procesamiento automatizado de recetas.
En Amazon Pharmacy, hemos desarrollado un sistema de IA construido sobre Amazon Bedrock y SageMaker para ayudar a los técnicos de farmacia a procesar las instrucciones de medicamentos con mayor precisión y eficiencia. La solución integra expertos humanos con LLM en roles de creación y validación para mejorar la precisión de las instrucciones de medicamentos para los pacientes.
Diseño de un flujo de trabajo delegado para la precisión de la atención médica
El sistema de procesamiento de recetas combina la experiencia humana (registradores de datos y farmacéuticos) con el soporte de IA para proporcionar recomendaciones e información sobre la dirección. El flujo de trabajo comienza con un preprocesador de la base de conocimientos de la farmacia, que estandariza el texto original de la receta de [Amazon DynamoDB] y, a continuación, utiliza un modelo de lenguaje pequeño (SLM, Small Language Model) ajustado en SageMaker para identificar los componentes clave (dosis, frecuencia).
El sistema integra a la perfección a expertos como los registradores de datos y los farmacéuticos, donde la IA generativa complementa el flujo de trabajo general, aumentando la agilidad y la precisión, y sirviendo mejor a nuestros pacientes. A continuación, un sistema de ensamblaje de instrucciones con medidas de seguridad genera instrucciones para que los registradores de datos creen instrucciones mecanografiadas a través de módulos de sugerencias. Los módulos de etiquetado marcan o corrigen errores y aplican medidas de seguridad adicionales como retroalimentación proporcionada a los registradores de datos. Los técnicos finalizan instrucciones mecanografiadas altamente precisas y seguras para que los farmacéuticos proporcionen retroalimentación o los servicios descendentes ejecuten las instrucciones.
Un punto culminante importante de la solución es el uso de la descomposición de tareas, que permite a los ingenieros y científicos dividir todo el proceso en varios pasos, que incluyen módulos individuales que constan de subpasos. El equipo utilizó ampliamente SLM ajustados. Además, el proceso emplea programas tradicionales de ML, como el [reconocimiento de entidades con nombre (NER, Named Entity Recognition)] o la estimación de la confianza final mediante [modelos de regresión]. El uso de SLM y ML tradicionales en este proceso controlado y bien definido aumenta significativamente la velocidad de procesamiento al tiempo que mantiene rigurosos estándares de seguridad mediante la incorporación de las medidas de seguridad adecuadas en pasos específicos.
El sistema incluye varios subpasos bien definidos, cada subproceso opera como un componente especializado que trabaja de forma semiautónoma pero colaborativa hacia un objetivo general dentro del flujo de trabajo. Este enfoque de descomposición, que tiene validaciones específicas en cada etapa, demostró ser más eficiente que una solución de extremo a extremo al tiempo que permite el uso de SLM ajustados. El equipo utiliza [AWS Fargate] para coordinar el flujo de trabajo, ya que actualmente está integrado en los sistemas backend existentes.
En el proceso de desarrollo de productos del equipo, recurrieron a Amazon Bedrock, que ofrece LLM de alto rendimiento con funciones fáciles de usar diseñadas para aplicaciones de IA generativa. SageMaker admite una mayor selección de LLM, una personalización más profunda y enfoques de ML tradicionales. Para obtener más información sobre esta tecnología, consulte [Cómo la descomposición de tareas y los LLM más pequeños pueden hacer que la IA sea más rentable] y lea el [estudio de caso de negocio de Amazon Pharmacy].
Construcción de una aplicación fiable con medidas de seguridad y HITL
Para cumplir con los estándares de HIPAA y proporcionar privacidad al paciente, implementamos prácticas estrictas de gobernanza de datos mientras adoptamos un enfoque híbrido que combina LLM ajustados que utilizan la API de Amazon Bedrock con la [generación aumentada por recuperación] (RAG, Retrieval Augmented Generation) que utiliza [Amazon OpenSearch Service]. Esta combinación permite una recuperación de conocimientos eficiente mientras se mantiene una alta precisión para subtareas específicas.
La gestión de las alucinaciones de LLM, que es esencial en el sector de la atención médica, requería más que un simple ajuste fino en conjuntos de datos grandes. Nuestra solución implementó medidas de seguridad específicas del dominio construidas sobre la base de [Amazon Bedrock Guardrails] y complementadas por la supervisión del bucle humano en el bucle (HITL, Human-in-the-Loop) para mejorar la confiabilidad del sistema.
El equipo de Amazon Pharmacy continúa mejorando el sistema con la retroalimentación en tiempo real de los farmacéuticos y las capacidades ampliadas del formato de las recetas. Este enfoque equilibrado de innovación, experiencia en el dominio, servicios avanzados de IA y supervisión humana no solo aumenta la eficiencia operativa, sino que también significa que los sistemas de IA pueden capacitar correctamente a los profesionales de la atención médica para brindar una atención óptima al paciente.
Aspectos destacados de las reseñas de clientes basados en IA generativa
Nuestro ejemplo anterior demostró cómo Amazon Pharmacy integra los LLM en un flujo de trabajo en tiempo real para el procesamiento de recetas, mientras que este caso de uso muestra cómo se pueden aplicar técnicas similares (SLM, ML tradicional y diseño de flujo de trabajo reflexivo) para la [inferencia por lotes fuera de línea] a gran escala.
Amazon lanzó [Aspectos destacados de las reseñas de clientes generados por IA] para procesar más de 200 millones de reseñas y calificaciones de productos anuales. Esta función destila el sentimiento compartido del cliente en párrafos concisos, resaltando los comentarios positivos, neutros y negativos sobre los productos y sus características. Los compradores pueden captar rápidamente el consenso mientras mantienen la transparencia al proporcionar acceso a reseñas de clientes relevantes y al preservar las reseñas originales.
El sistema mejora las decisiones de compra con una interfaz donde los clientes pueden explorar los aspectos destacados de las reseñas seleccionando características específicas como la calidad de la imagen, la funcionalidad del mando a distancia o la facilidad de instalación de Fire TV. Estas características se indican mediante marcas de verificación verdes para el sentimiento positivo, signos menos naranjas para el sentimiento negativo y gris para el neutro, lo que significa que los compradores pueden identificar rápidamente los pros y los contras de un producto basándose en reseñas de compras verificadas.
Uso de LLM de forma rentable para casos de uso fuera de línea
El equipo desarrolló una arquitectura híbrida rentable que combina enfoques de ML tradicionales con SLM especializados. Este enfoque asigna el análisis de sentimiento y la extracción de palabras clave al ML tradicional, mientras que emplea SLM optimizados para tareas complejas de generación de texto, mejorando así la precisión y la eficiencia del procesamiento.
La función utiliza [Transformación por lotes de SageMaker] para el procesamiento asíncrono, que ofrece una reducción significativa de los costos en comparación con los puntos finales en tiempo real. Para proporcionar una experiencia casi de latencia cero, la solución [almacena en caché] los conocimientos extraídos y las reseñas existentes, lo que reduce los tiempos de espera y permite el acceso simultáneo para varios clientes sin la necesidad de computación adicional. El sistema procesa incrementalmente las nuevas reseñas, actualizando los conocimientos sin necesidad de reprocesar el conjunto de datos completo. Para obtener el máximo rendimiento y rentabilidad, la función utiliza instancias [Inf2 de Amazon Elastic Compute Cloud] (Amazon EC2) para trabajos de transformación por lotes, [lo que proporciona hasta un 40% más de rendimiento-precio en comparación con las alternativas].
Siguiendo este enfoque integral, el equipo gestionó eficazmente los costos mientras procesaba grandes volúmenes de reseñas y productos, lo que hizo que la solución fuera eficiente y escalable.
Generación de imágenes y vídeos creativos impulsada por la IA de Amazon Ads
En los ejemplos anteriores, exploramos principalmente aplicaciones de IA generativa centradas en texto, ahora pasamos a la IA generativa multimodal con [Generación de contenido creativo para anuncios patrocinados de Amazon Ads]. Esta solución cuenta con capacidades de generación de [imágenes] y [vídeos], y compartiremos detalles sobre las funciones en esta sección. En general, la solución central utilizó [Amazon Nova], un modelo de generación de contenido creativo.
Retrocediendo desde las necesidades de los clientes, una encuesta realizada por Amazon en marzo de 2023 reveló que casi el 75% de los anunciantes enumeran la generación de contenido creativo como su principal desafío cuando luchan por el éxito de la campaña. Muchos anunciantes, especialmente aquellos que no tienen capacidades internas o soporte de agencias, se enfrentan a importantes barreras debido a la experiencia y los costos necesarios para producir imágenes visuales de alta calidad. La solución de Amazon Ads democratiza la creación de contenido visual, haciéndola accesible y eficiente para los anunciantes de todos los tamaños. El impacto es significativo: los anunciantes que utilizan imágenes generadas por IA en campañas de [Marca patrocinada] observan un [tasa de clics (CTR)] cercana al 8% y envían campañas un 88% más que los que no lo hacen.
El año pasado, el blog de AWS ML publicó un artículo que [detalla la solución de generación de imágenes]. Desde entonces, Amazon ha adoptado [Amazon Nova Canvas] como base para la generación de imágenes creativas. Utilizando avisos de texto o imagen junto con capacidades de edición basadas en texto y controles para esquemas de color y ajustes de diseño, se crean imágenes de nivel profesional.
En septiembre de 2024, el equipo de Amazon Ads agregó la capacidad de crear [anuncios de vídeo cortos] a partir de imágenes de productos. Esta función utiliza [modelos base disponibles en Amazon Bedrock] con controles de lenguaje natural sobre el estilo visual, el ritmo, el movimiento de la cámara, las rotaciones y los zooms que brindan a los clientes el control. Utiliza un flujo de trabajo de agente para describir primero los guiones gráficos de los vídeos y, a continuación, generar el contenido de la historia.
Como se analiza en la entrada del blog original, la [IA responsable] es fundamental para la solución, y el modelo creativo de Amazon Nova viene con controles integrados para apoyar el uso seguro y responsable de la IA, incluidas las marcas de agua y la moderación del contenido.
La solución utiliza las funciones [AWS Step Functions] y [AWS Lambda] para la orquestación sin servidor de los flujos de trabajo de generación de imágenes y vídeos. El contenido generado se almacena en [Amazon Simple Storage Service] (