Amazon: KI jenseits von Assistenten

Generative künstliche Intelligenz (KI) revolutioniert mit vielfältigen Anwendungen Geschäftsabläufe grundlegend, darunter konversationelle Assistenten wie Rufus und Amazon Seller Assistant von Amazon. Darüber hinaus laufen einige der einflussreichsten Anwendungen generativer KI im Hintergrund autonom ab – eine unerlässliche Funktion, die es Unternehmen ermöglicht, ihre Abläufe, Datenverarbeitung und Inhaltserstellung in großem Umfang zu transformieren. Diese nicht-konversationellen Implementierungen erfolgen oft in Form von Agenten-Workflows, die von großen Sprachmodellen (LLMs) angetrieben werden und branchenübergreifend spezifische Geschäftsziele ohne direkte Benutzerinteraktion verfolgen.

Im Vergleich zu konversationellen Anwendungen, die von Echtzeit-Benutzerfeedback und -Aufsicht profitieren, bieten nicht-konversationelle Anwendungen einzigartige Vorteile wie höhere Latenztoleranz, Batch-Verarbeitung und Caching. Ihre Autonomie erfordert jedoch stärkere Sicherheitsmaßnahmen und eine detaillierte Qualitätssicherung.

Dieser Artikel untersucht vier verschiedene Anwendungsfälle generativer KI bei Amazon:

  • Erstellung von Amazon-Produktangeboten und Verbesserung der Qualität von Katalogdaten – zeigt, wie LLMs Verkaufspartner und Amazon in großem Umfang bei der Erstellung hochwertigerer Produktangebote unterstützen können.
  • Rezeptbearbeitung bei Amazon Pharmacy – demonstriert die Implementierung in einer stark regulierten Umgebung und die Aufgabenzerlegung für Agenten-Workflows.
  • Review Highlights – veranschaulicht die Batch-Verarbeitung in großem Umfang, die Integration traditionellen maschinellen Lernens (ML), die Verwendung kleiner LLMs und kosteneffiziente Lösungen.
  • Generierung kreativer Bilder und Videos für Amazon Ads – hebt die multimodale generative KI und verantwortungsvolle KI-Praktiken bei kreativen Arbeiten hervor.

Jede Fallstudie beleuchtet unterschiedliche Aspekte der Implementierung nicht-konversationeller Anwendungen generativer KI, von der technischen Architektur bis hin zu betrieblichen Überlegungen. Anhand dieser Beispiele erfahren Sie, wie die umfassende Palette an AWS-Services, darunter Amazon Bedrock und Amazon SageMaker, ein entscheidender Erfolgsfaktor sein kann. Abschließend listen wir wichtige Erkenntnisse auf, die in den verschiedenen Anwendungsfällen übereinstimmend gewonnen wurden.

Schaffung hochwertiger Produktangebote auf Amazon

Die Erstellung hochwertiger Produktangebote mit umfassenden Details hilft Kunden, fundierte Kaufentscheidungen zu treffen. Traditionell geben Verkaufspartner viele Attribute für jedes Produkt manuell ein. Die 2024 eingeführte neue generative KI-Lösung verändert diesen Prozess, indem sie Produktinformationen proaktiv von Markenwebsites und anderen Quellen abruft und so das Kundenerlebnis verbessert.

Generative KI vereinfacht die Erfahrung für Verkaufspartner, indem sie die Eingabe von Informationen in verschiedenen Formaten (z. B. URL, Produktbilder oder Tabellenkalkulationen) unterstützt und diese automatisch in die gewünschte Struktur und das gewünschte Format umwandelt. Über 900.000 Verkaufspartner haben sie bereits genutzt, und fast 80 % der generierten Angebotsentwürfe werden mit minimalen Änderungen akzeptiert. Die KI-generierten Inhalte bieten umfassende Produktdetails, was die Klarheit und Genauigkeit verbessert und so dazu beiträgt, dass Produkte bei Kundensuchen gefunden werden.

Bei neuen Produktangeboten beginnt der Workflow damit, dass Verkaufspartner erste Informationen bereitstellen. Anschließend generiert das System umfassende Produktangebote mit Titeln, Beschreibungen und detaillierten Attributen aus mehreren Informationsquellen. Die generierten Produktangebote werden mit den Verkaufspartnern zur Genehmigung oder Bearbeitung geteilt.

Bei bestehenden Produktangeboten identifiziert das System Produkte, die mit zusätzlichen Daten angereichert werden können.

Datenintegration und -verarbeitung für hohe Ausgabemengen

Das Amazon-Team verwendet Amazon Bedrock und andere AWS-Services, um robuste interne und externe Quellen-Konnektoren für LLM-freundliche APIs zu erstellen, was eine nahtlose Integration in die Amazon.com-Backend-Systeme ermöglicht.

Eine große Herausforderung ist die Zusammenführung verschiedener Daten zu einem kohärenten Produktangebot über mehr als 50 Attribute, darunter Text und Zahlen. LLMs benötigen spezifische Kontrollmechanismen und Anweisungen, um E-Commerce-Konzepte genau zu interpretieren, da sie möglicherweise nicht optimal mit solch komplexen, vielfältigen Daten umgehen können. Beispielsweise kann ein LLM die „Kapazität“ in einem Messerblock fälschlicherweise als Größe anstelle der Anzahl der Schlitze interpretieren oder „Fit Wear“ als Stilbeschreibung anstelle des Markennamens. In der Praxis werden diese Fälle durch Prompt Engineering und Feintuning gelöst.

Generierung und Validierung mit LLMs

Die generierten Produktangebote sollen vollständig und richtig sein. Um dies zu erreichen, implementiert die Lösung einen mehrstufigen Workflow, der LLMs sowohl für die Generierung als auch für die Validierung von Attributen nutzt. Dieser Dual-LLM-Ansatz hilft, Halluzinationen zu verhindern, was besonders wichtig ist, wenn es um Sicherheitsbedenken oder technische Spezifikationen geht. Das Team hat fortschrittliche Selbstreferenzierungstechniken entwickelt, um sicherzustellen, dass sich die Generierungs- und Validierungsprozesse effektiv ergänzen.

Mehrschichtige Qualitätssicherung mit menschlichem Feedback

Menschliches Feedback ist der Kern der Qualitätssicherung der Lösung. Der Prozess umfasst eine erste Bewertung durch Amazon.com-Experten sowie die Eingabe von Verkaufspartnern zur Annahme oder Bearbeitung. Dies liefert qualitativ hochwertige Ergebnisse und ermöglicht die kontinuierliche Verbesserung der KI-Modelle.

Der Qualitätssicherungsprozess umfasst automatisierte Testmethoden, die ML-, Algorithmus- oder LLM-basierte Bewertungen kombinieren. Fehlerhafte Produktangebote werden erneut generiert, erfolgreiche Produktangebote werden weiteren Tests unterzogen. Mithilfe von [Kausalschlussmodellen] identifizieren wir die zugrunde liegenden Merkmale, die die Performance von Produktangeboten beeinflussen, sowie Möglichkeiten zur Anreicherung. Schließlich werden Produktangebote, die die Qualitätsprüfung bestehen und von den Verkaufspartnern akzeptiert werden, veröffentlicht, um sicherzustellen, dass Kunden korrekte und umfassende Produktinformationen erhalten.

Systemoptimierung auf Anwendungsebene für Genauigkeit und Kosten

Angesichts der hohen Standards für Genauigkeit und Vollständigkeit verfolgt das Team einen umfassenden experimentellen Ansatz mit einem automatisierten Optimierungssystem. Dieses System untersucht verschiedene Kombinationen aus LLMs, Prompts, Playbooks, Workflows und KI-Tools, um höhere Geschäftskennzahlen, einschließlich Kosten, zu verbessern. Durch kontinuierliche Bewertung und automatisierte Tests kann der Produktangebot-Generator die Leistung, Kosten und Effizienz effektiv ausgleichen und sich gleichzeitig an neue KI-Entwicklungen anpassen. Dieser Ansatz bedeutet, dass Kunden von hochwertigen Produktinformationen profitieren und Verkaufspartner auf modernste Tools zur effizienten Erstellung von Produktangeboten zugreifen können.

Generative KI-basierte Rezeptbearbeitung bei Amazon Pharmacy

Aufbauend auf dem zuvor diskutierten Beispiel für Verkäufer-Produktangebote, das auf einem Mensch-Maschine-Hybrid-Workflow basiert, zeigt Amazon Pharmacy, wie diese Prinzipien in einer durch den [Health Insurance Portability and Accountability Act] (HIPAA) regulierten Branche angewendet werden können. In dem Artikel [Understanding how Amazon Pharmacy uses Amazon SageMaker to create an LLM-based chatbot] haben wir einen konversationellen Assistenten für Patientenbetreuer vorgestellt. Hier konzentrieren wir uns auf die automatisierte Rezeptbearbeitung.

Bei Amazon Pharmacy haben wir ein KI-System entwickelt, das auf Amazon Bedrock und SageMaker basiert, um Apothekentechniker bei der genaueren und effizienteren Bearbeitung von Medikamentenanweisungen zu unterstützen. Die Lösung integriert menschliche Experten mit LLMs in Rollen der Erstellung und Validierung, um die Genauigkeit der Medikamentenanweisungen für Patienten zu verbessern.

Design eines delegierten Workflows für Genauigkeit im Gesundheitswesen

Das Rezeptbearbeitungssystem kombiniert menschliche Expertise (Datenerfasser und Apotheker) mit KI-Unterstützung, um Richtungsvorschläge und Feedback zu liefern. Der Workflow beginnt mit einem Pharmazie-Knowledge-Base-Preprozessor, der den rohen Rezepttext in [Amazon DynamoDB] standardisiert und dann ein feinabgestimmtes Small Language Model (SLM) auf SageMaker verwendet, um Schlüsselkomponenten (Dosis, Frequenz) zu identifizieren.

Das System integriert nahtlos Experten wie Datenerfasser und Apotheker, wobei Generative KI den gesamten Workflow ergänzt und Agilität und Genauigkeit verbessert, um unseren Patienten besser zu dienen. Anschließend generiert ein Richtungsmontagesystem mit Sicherheitsvorkehrungen Anweisungen für Datenerfasser zur Erstellung von Anweisungen, die sie eingeben können, indem es ein Vorschlagsmodul verwendet. Ein Tagging-Modul markiert oder korrigiert Fehler und erzwingt zusätzliche Sicherheitsmaßnahmen als Feedback für Datenerfasser. Techniker finalisieren äußerst genaue, sicher eingegebene Anweisungen, damit Apotheker Feedback geben oder Downstream-Dienste Anweisungen ausführen können.

Ein Highlight der Lösung ist die Verwendung der Aufgabenzerlegung, die es Ingenieuren und Wissenschaftlern ermöglicht, den Gesamtprozess in mehrere Schritte zu unterteilen, darunter einzelne Module, die aus Unterschritten bestehen. Das Team hat SLMs mit Feintuning ausgiebig verwendet. Darüber hinaus verwendet der Prozess traditionelle ML-Routinen, wie z. B. [Named Entity Recognition (NER)] oder die Verwendung von [Regressionsmodellen] zur Schätzung des endgültigen Konfidenzwerts. Die Verwendung von SLMs und traditionellem ML in diesem kontrollierten, klar definierten Prozess kann die Verarbeitungsgeschwindigkeit erheblich verbessern und gleichzeitig strenge Sicherheitsstandards einhalten, da in bestimmten Schritten angemessene Sicherheitsvorkehrungen getroffen werden.

Das System enthält mehrere klar definierte Unterschritte, wobei jeder Unterprozess als spezialisierte Komponente fungiert, die in einem halbautonomen, aber kollaborativen Modus innerhalb des Workflows auf ein Gesamtziel hinarbeitet. Dieser Ansatz der Dekomposition mit spezifischer Validierung in jeder Phase erweist sich als effektiver als eine End-to-End-Lösung, während gleichzeitig feinabgestimmte SLMs verwendet werden können. Das Team verwendet [AWS Fargate], um den Workflow zu orchestrieren, da er derzeit in die bestehenden Backend-Systeme integriert ist.

Während des Produktentwicklungsprozesses des Teams wechselte es zu Amazon Bedrock, das leistungsstarke LLMs mit benutzerfreundlichen Funktionen bietet, die auf generative KI-Anwendungen zugeschnitten sind. SageMaker unterstützt eine größere Auswahl an LLMs, eine tiefere Anpassung und traditionelle ML-Methoden. Weitere Informationen zu dieser Technologie finden Sie unter [How task decomposition and smaller LLMs can make AI more affordable] und lesen Sie die [Amazon Pharmacy business case study].

Erstellung einer zuverlässigen Anwendung mit Sicherheitsvorkehrungen und HITL

Um die HIPAA-Standards einzuhalten und die Privatsphäre der Patienten zu gewährleisten, haben wir strenge Datenverwaltungsrichtlinien implementiert und gleichzeitig einen Hybridansatz verfolgt, der feinabgestimmte LLMs mit der Amazon Bedrock API und [Retrieval Augmented Generation] (RAG) mit [Amazon OpenSearch Service] kombiniert. Diese Kombination ermöglicht einen effizienten Wissensabruf bei gleichzeitiger Aufrechterhaltung einer hohen Genauigkeit für bestimmte Unteraufgaben.

Die Bewältigung von LLM-Halluzinationen, die im Gesundheitswesen von entscheidender Bedeutung ist, erfordert mehr als nur die Durchführung eines Feintunings auf großen Datensätzen. Unsere Lösung implementiert domänenspezifische Sicherheitsvorkehrungen, die auf [Amazon Bedrock Guardrails] basieren und durch Human-in-the-Loop (HITL)-Überwachung ergänzt werden, um die Zuverlässigkeit des Systems zu erhöhen.

Das Amazon Pharmacy-Team verbessert das System kontinuierlich durch Echtzeit-Feedback von Apothekern und erweiterte Funktionen für Rezeptformate. Dieser ausgewogene Ansatz aus Innovation, Domänenexpertise, fortschrittlichen KI-Services und menschlicher Aufsicht verbessert nicht nur die betriebliche Effizienz, sondern stellt auch sicher, dass das KI-System das medizinische Fachpersonal auf die richtige Weise unterstützt und so eine optimale Patientenversorgung gewährleistet.

Von generativer KI unterstützte Highlights von Kundenrezensionen

Während unser vorheriges Beispiel gezeigt hat, wie Amazon Pharmacy LLMs in Echtzeit-Workflows zur Rezeptbearbeitung integriert, zeigt dieser Anwendungsfall, wie ähnliche Technologien (SLMs, traditionelles ML und durchdachtes Workflow-Design) auf groß angelegte [Offline-Batch-Inferenz] angewendet werden können.

Amazon hat [KI-generierte Kunderezensions-Highlights] eingeführt, um über 200 Millionen jährliche Produktrezensionen und -bewertungen zu verarbeiten. Diese Funktion destilliert gemeinsame Kundenmeinungen in prägnante Absätze, die positives, neutrales und negatives Feedback zu Produkten und ihren Funktionen hervorheben. Käufer können schnell einen Konsens erzielen und gleichzeitig die Transparenz wahren, indem sie Zugriff auf relevante Kundenrezensionen bieten und die ursprünglichen Rezensionen beibehalten.

Das System verbessert die Kaufentscheidung durch eine Schnittstelle, über die Kunden Rezensions-Highlights erkunden können, indem sie bestimmte Funktionen auswählen (z. B. Bildqualität, Fernbedienungsfunktionen oder einfache Installation von Fire TV). Diese Funktionen werden durch grüne Häkchen für positive Stimmungen, orangefarbene Minuspunkte für negative Stimmungen und Grauwerte für neutrale Stimmungen angezeigt, was bedeutet, dass Käufer schnell die Vor- und Nachteile von Produkten anhand verifizierter Kaufrezensionen erkennen können.

Wirtschaftlicher Einsatz von LLMs für Offline-Anwendungsfälle

Das Team hat eine kostengünstige hybride Architektur entwickelt, die traditionelle ML-Methoden mit spezialisierten SLMs kombiniert. Dieser Ansatz weist traditionellem ML Stimmungsanalysen und Schlüsselwortextraktionen zu, während er optimierte SLMs für anspruchsvolle Textgenerierungsaufgaben einsetzt, was die Genauigkeit und Verarbeitungseffizienz erhöht.

Die Funktion verwendet [SageMaker Batch Transform] für die asynchrone Verarbeitung, was die Kosten im Vergleich zu Echtzeit-Endpunkten erheblich senkt. Um eine nahezu latenzfreie Erfahrung zu bieten, [zwischenspeichert] die Lösung extrahierte Erkenntnisse und bestehende Rezensionen, was die Wartezeiten reduziert und mehreren Kunden gleichzeitig den Zugriff ermöglicht, ohne zusätzliche Berechnungen durchführen zu müssen. Das System verarbeitet neue Rezensionen inkrementell und aktualisiert Erkenntnisse, ohne den vollständigen Datensatz erneut verarbeiten zu müssen. Um eine optimale Leistung und Kosteneffizienz zu erzielen, verwendet die Funktion [Amazon Elastic Compute Cloud] (Amazon EC2) [Inf2 instances] für Batch-Transformationsaufträge, [die im Vergleich zu Alternativen ein bis zu 40 % besseres Preis-Leistungs-Verhältnis bieten].

Durch diesen umfassenden Ansatz verwaltete das Team die Kosten effektiv und verarbeitete gleichzeitig riesige Mengen an Rezensionen und Produkten, was die Lösung sowohl effizient als auch skalierbar machte.

KI-gestützte kreative Bild- und Videogenerierung von Amazon Ads

In den vorherigen Beispielen haben wir hauptsächlich textzentrierte generative KI-Anwendungen untersucht. Jetzt wenden wir uns der multimodalen generativen KI mit der [Generierung kreativer Inhalte für gesponserte Anzeigen von Amazon Ads] zu. Diese Lösung verfügt über Funktionen zur [Bild-] und [Videogenerierung]. In diesem Abschnitt werden wir Details zu diesen Funktionen austauschen. Im Allgemeinen verwendet der Kern der Lösung das [Amazon Nova]-Modell zur Erstellung kreativer Inhalte.

Ausgehend von den Kundenbedürfnissen ergab eine im März 2023 von Amazon durchgeführte Umfrage, dass fast 75 % der Werbetreibenden die Erstellung kreativer Inhalte als größte Herausforderung für den Erfolg von Werbekampagnen nannten. Viele Werbetreibende, insbesondere diejenigen ohne interne Kapazitäten oder Agenturunterstützung, sehen sich aufgrund des Fachwissens und der Kosten für die Produktion hochwertiger visueller Elemente vor große Hindernisse gestellt. Die Lösung von Amazon Ads demokratisiert die Erstellung visueller Inhalte und macht sie für Werbetreibende jeder Größe zugänglich und effizient nutzbar. Die Auswirkungen sind beträchtlich: Werbetreibende, die KI-generierte Bilder in [Sponsored Brands]-Kampagnen verwenden, haben eine [Click-Through-Rate (CTR)] von fast 8 %, und eingereichte Kampagnen sind 88 % höher als bei Nichtnutzern.

Letztes Jahr veröffentlichte der AWS Machine Learning Blog einen [Artikel, der die Lösung zur Bildgenerierung im Detail beschreibt]. Seitdem verwendet Amazon [Amazon Nova Canvas] als Grundlage für die Erstellung kreativer Bilder. Mithilfe von Text- oder Bildaufforderungen in Kombination mit textbasierten Bearbeitungsfunktionen und Steuerelementen zur Anpassung von Farbschemata und Layouts können Bilder in professioneller Qualität erstellt werden.

Im September 2024 fügte das Amazon Ads-Team die Möglichkeit hinzu, [kurze Videoanzeigen] aus Produktbildern zu erstellen. Diese Funktion verwendet [Foundation Models, die auf Amazon Bedrock verfügbar sind], und gibt Kunden, indem sie visuelle Stile, Rhythmus, Kamerabewegungen, Drehungen und Zoom mit natürlicher Sprache steuern. Sie verwendet einen Agenten-Workflow, um zunächst ein Video-Storyboard zu beschreiben und dann den Story-Inhalt zu generieren.

Wie im Originalartikel beschrieben, ist [Responsible AI] der Kern der Lösung, und das kreative Modell von Amazon Nova verfügt über integrierte Steuerelemente, die die sichere und verantwortungsvolle Nutzung von KI unterstützen, einschließlich Wasserzeichen und Inhaltsmoderation.

Die Lösung verwendet [AWS Step Functions] und [AWS Lambda]-Funktionen, um die serverlose Orchestrierung von Bild- und Videogenerierungsprozessen zu koordinieren. Die generierten Inhalte werden in [Amazon Simple Storage Service] (Amazon S3) gespeichert, Metadaten in DynamoDB, während [Amazon API Gateway] Kunden Zugriff auf die Generierungsfunktionen bietet. Die Lösung verwendet jetzt Amazon Bedrock Guardrails zusätzlich zur Aufrechterhaltung der Integration von [Amazon Rekognition] und [Amazon Comprehend] in jeden Schritt für zusätzliche Sicherheitsprüfungen.

Die Erstellung hochwertiger Werbemittel in großem Maßstab stellt komplexe Herausforderungen dar. Generative KI-Modelle müssen ansprechende und markenkonforme Bilder in einer Vielzahl von Produktkategorien und Werbeumgebungen erstellen und gleichzeitig für Werbetreibende aller technischen Kenntnisse leicht zugänglich sein. Qualitätssicherung und -verbesserung sind die Grundlage für die Funktionen zur Bild- und Videogenerierung. Das System wird durch einen umfangreichen HITL-Prozess verbessert, der durch [Amazon SageMaker Ground Truth] ermöglicht wird. Diese Implementierung bietet ein leistungsstarkes Tool, das den Erstellungsprozess von Werbetreibenden verändern kann und so die Erstellung hochwertiger visueller Inhalte in allen Produktkategorien und Umgebungen einfacher macht.

Dies ist nur der Anfang von dem