Sztuczna inteligencja generatywna (Generative AI) rewolucjonizuje operacje biznesowe poprzez różnorodne zastosowania, w tym asystentów konwersacyjnych, takich jak Rufus i Amazon Seller Assistant firmy Amazon. Ponadto, niektóre z najbardziej wpływowych zastosowań Generative AI działają autonomicznie w tle, co jest niezbędną funkcją umożliwiającą przedsiębiorstwom transformację ich operacji, przetwarzania danych i tworzenia treści na dużą skalę. Te implementacje niedialogowe często przyjmują formę przepływów pracy agentów opartych na Large Language Models (LLM), które realizują określone cele biznesowe w różnych branżach bez bezpośredniej interakcji z użytkownikiem.
W przeciwieństwie do aplikacji konwersacyjnych, które korzystają z informacji zwrotnych i nadzoru użytkowników w czasie rzeczywistym, aplikacje niedialogowe mają unikalne zalety, takie jak wyższa tolerancja opóźnień, przetwarzanie wsadowe i buforowanie, ale ich autonomiczny charakter wymaga silniejszych środków bezpieczeństwa i szczegółowej kontroli jakości.
Ten artykuł analizuje cztery różne przypadki użycia Generative AI w Amazon:
- Tworzenie ofert produktów Amazon i poprawa jakości danych katalogowych – pokazanie, jak LLM pomagają partnerom handlowym i Amazon w tworzeniu ofert produktów o wyższej jakości na dużą skalę
- Przetwarzanie recept w Amazon Pharmacy – zademonstrowanie implementacji w wysoce regulowanym środowisku i dekompozycji zadań dla przepływów pracy agentów
- Podkreślenia recenzji – ilustracja przetwarzania wsadowego na dużą skalę, integracji tradycyjnego uczenia maszynowego (ML), wykorzystania małych LLM i efektywnych kosztowo rozwiązań
- Generowanie obrazów i filmów reklamowych Amazon Ads – podkreślenie multimodalnej Generative AI i odpowiedzialnych praktyk AI w twórczej pracy
Każde studium przypadku ujawnia różne aspekty wdrażania niedialogowych aplikacji Generative AI, od architektur technicznych po względy operacyjne. Dzięki tym przykładom dowiesz się, jak kompleksowy zestaw usług AWS, w tym Amazon Bedrock i Amazon SageMaker, staje się kluczem do sukcesu. Na koniec wymieniamy kluczowe doświadczenia powszechnie udostępniane w różnych przypadkach użycia.
Tworzenie wysokiej jakości ofert produktów w Amazon
Tworzenie wysokiej jakości ofert produktów z kompleksowymi szczegółami pomaga klientom podejmować świadome decyzje zakupowe. Tradycyjnie partnerzy handlowi ręcznie wprowadzają wiele atrybutów każdego produktu. Nowe rozwiązanie Generative AI, wprowadzone w 2024 roku, zmienia ten proces, aktywnie pozyskując informacje o produkcie ze stron internetowych marek i innych źródeł, poprawiając w ten sposób komfort użytkowania klienta.
Generative AI upraszcza doświadczenie partnera handlowego, obsługując wprowadzanie informacji w różnych formatach (takich jak adresy URL, obrazy produktów lub arkusze kalkulacyjne) i automatycznie przekształcając je w żądaną strukturę i format. Użyło go ponad 900 000 partnerów handlowych, a prawie 80% wygenerowanych wersji roboczych ofert produktów zostało zaakceptowanych z minimalną edycją. Treści generowane przez sztuczną inteligencję dostarczają kompleksowych szczegółów produktu, co pomaga zwiększyć przejrzystość i dokładność, przyczyniając się w ten sposób do odkrywania produktów w wyszukiwaniach klientów.
W przypadku nowych ofert produktów przepływ pracy rozpoczyna się od dostarczenia przez partnera handlowego wstępnych informacji. Następnie system generuje kompleksową ofertę produktu, w tym tytuł, opis i szczegółowe atrybuty, korzystając z wielu źródeł informacji. Wygenerowana oferta produktu jest udostępniana partnerowi handlowemu do zatwierdzenia lub edycji.
W przypadku istniejących ofert produktów system identyfikuje produkty, które można wzbogacić o dodatkowe dane.
Integracja danych i przetwarzanie dla dużej wydajności
Zespół Amazon wykorzystał Amazon Bedrock i inne usługi AWS do zbudowania solidnych konektorów źródeł wewnętrznych i zewnętrznych do interfejsów API przyjaznych dla LLM, płynnie integrując je z systemami zaplecza Amazon.com.
Głównym wyzwaniem jest synteza różnych danych w spójną ofertę produktu obejmującą ponad 50 atrybutów, w tym tekstowe i liczbowe. LLM wymagają określonych mechanizmów kontroli i instrukcji, aby dokładnie interpretować koncepcje e-commerce, ponieważ mogą nie działać optymalnie z tak złożonymi, różnorodnymi danymi. Na przykład LLM może błędnie zinterpretować „pojemność” w stojaku na noże jako wymiar zamiast liczby gniazd lub „Fit Wear” jako opis stylu zamiast nazwy marki. Inżynieria promptów i dostrajanie były szeroko stosowane w celu rozwiązania tych przypadków.
Generowanie i walidacja za pomocą LLM
Wygenerowane oferty produktów powinny być kompletne i poprawne. Aby pomóc w osiągnięciu tego celu, rozwiązanie to wdraża wieloetapowy przepływ pracy, wykorzystujący LLM do generowania i walidacji atrybutów. To podwójne podejście LLM pomaga zapobiegać halucynacjom, co jest szczególnie ważne w przypadku obchodzenia się z obawami dotyczącymi bezpieczeństwa lub specyfikacjami technicznymi. Zespół opracował zaawansowane techniki samorefleksji, aby zapewnić skuteczne wzajemne uzupełnianie się procesów generowania i walidacji.
Wielopoziomowe zapewnienie jakości z informacją zwrotną od człowieka
Informacja zwrotna od człowieka jest podstawą zapewnienia jakości rozwiązania. Proces obejmuje wstępną ocenę przeprowadzaną przez ekspertów Amazon.com oraz informacje od partnerów handlowych do akceptacji lub edycji. Zapewnia to wysoką jakość wyjściową i możliwość ciągłego ulepszania modeli AI.
Proces zapewnienia jakości obejmuje zautomatyzowane metody testowania, łączące w sobie ML, algorytmy lub oceny oparte na LLM. Nieudane oferty produktów są generowane ponownie, a udane oferty produktów są poddawane dalszym testom. Korzystając z [modeli wnioskowania przyczynowego], identyfikujemy podstawowe cechy, które wpływają na wydajność ofert produktów, oraz możliwości ich wzbogacenia. Ostatecznie oferty produktów, które przeszły kontrolę jakości i zostały zaakceptowane przez partnerów handlowych, są publikowane, zapewniając tym samym klientom otrzymywanie dokładnych i kompleksowych informacji o produktach.
Optymalizacja systemu na poziomie aplikacji pod kątem dokładności i kosztów
Biorąc pod uwagę wysokie standardy dokładności i kompletności, zespół zastosował kompleksowe podejście eksperymentalne i był wyposażony w zautomatyzowany system optymalizacji. System ten bada różne kombinacje LLM, podpowiedzi, skryptów, przepływów pracy i narzędzi AI w celu poprawy wyższych wskaźników biznesowych, w tym kosztów. Dzięki ciągłej ocenie i automatycznemu testowaniu, generator ofert produktów może skutecznie równoważyć wydajność, koszty i wydajność, jednocześnie dostosowując się do nowych osiągnięć AI. Podejście to oznacza, że klienci mogą korzystać z wysokiej jakości informacji o produktach, a partnerzy handlowi mają dostęp do najnowocześniejszych narzędzi do wydajnego tworzenia ofert produktów.
Przetwarzanie recept oparte na sztucznej inteligencji generatywnej w Amazon Pharmacy
W poprzednio omówionym przykładzie dotyczącym ofert produktów sprzedawcy, opartym na hybrydowym przepływie pracy człowiek-maszyna, Amazon Pharmacy pokazuje, jak zasady te można zastosować w branży regulowanej przez Health Insurance Portability and Accountability Act . W artykule [Jak Amazon Pharmacy wykorzystuje Amazon SageMaker do tworzenia chatbota opartego na LLM], podzieliliśmy się asystentem konwersacyjnym dla specjalistów ds. opieki nad pacjentem, a teraz skupimy się na zautomatyzowanym przetwarzaniu recept.
W Amazon Pharmacy opracowaliśmy system AI oparty na Amazon Bedrock i SageMaker, aby pomóc technikom farmaceutycznym w dokładniejszym i wydajniejszym przetwarzaniu instrukcji dotyczących leków. Rozwiązanie integruje ludzkich ekspertów z LLM w rolach tworzenia i walidacji, aby zwiększyć dokładność instrukcji dotyczących leków pacjentów.
Projekt delegowanego przepływu pracy dla dokładności w opiece zdrowotnej
System przetwarzania recept łączy w sobie wiedzę ludzką (osoby wprowadzające dane i farmaceuci) ze wsparciem AI, aby dostarczać rekomendacje i informacje zwrotne dotyczące instrukcji. Przepływ pracy rozpoczyna się od preprocesora bazy wiedzy farmaceutycznej, który normalizuje surowy tekst recepty w [Amazon DynamoDB], a następnie wykorzystuje dostrojony Small Language Model (SLM) na SageMaker do identyfikacji kluczowych komponentów (dawkowanie, częstotliwość).
System płynnie integruje ekspertów, takich jak osoby wprowadzające dane i farmaceuci, przy czym Generative AI komplementuje całościowy przepływ pracy, zwiększając zwinność i dokładność, aby lepiej służyć naszym pacjentom. Następnie system składania wskazówek z zabezpieczeniami generuje instrukcje dla osób wprowadzających dane, które mają być tworzone za pośrednictwem modułu sugestii do wpisywanych przez nich wskazówek. Moduł oznaczania flagami oznacza lub poprawia błędy i wymusza dodatkowe środki bezpieczeństwa jako informacje zwrotne dostarczane osobom wprowadzającym dane. Technicy finalizują wpisane wskazówki, które są bardzo dokładne i bezpieczne, w celu uzyskania informacji zwrotnych od farmaceuty lub wykonania wskazówek w usługach niższego szczebla.
Szczególną cechą tego rozwiązania jest wykorzystanie dekompozycji zadań, co umożliwia inżynierom i naukowcom podzielenie całego procesu na wiele kroków, w tym poszczególne moduły składające się z podetapów. Zespół intensywnie korzystał z dostrojonych SLM. Ponadto w procesie wykorzystywane są tradycyjne procedury ML, takie jak [Named Entity Recognition (NER)] lub szacowanie końcowej wiarygodności za pomocą [modeli regresji]. Wykorzystanie SLM i tradycyjnego ML w tym kontrolowanym, jasno zdefiniowanym procesie może znacznie zwiększyć szybkość przetwarzania, zachowując jednocześnie surowe standardy bezpieczeństwa dzięki włączeniu odpowiednich środków bezpieczeństwa w określonych krokach.
System zawiera wiele jasno zdefiniowanych podetapów, z których każdy podproces działa jako wyspecjalizowany komponent, działający w półautonomiczny, ale współpracujący sposób w przepływie pracy w kierunku ogólnego celu. Takie zdekomponowane podejście, z określonymi walidacjami na każdym etapie, okazało się bardziej efektywne niż rozwiązanie end-to-end, przy jednoczesnym użyciu dostrojonych SLM. Zespół wykorzystał [AWS Fargate] do koordynowania przepływu pracy, ponieważ jest on obecnie zintegrowany z istniejącymi systemami zaplecza.
Podczas procesu rozwoju produktu tego zespołu przeszli oni na Amazon Bedrock, który oferuje wysokowydajne LLM z łatwymi w użyciu funkcjami dostosowanymi do aplikacji Generative AI. SageMaker obsługuje dalszy wybór LLM, głębszą personalizację i tradycyjne metody ML. Aby dowiedzieć się więcej o tej technologii, przeczytaj [Jak dekompozycja zadań i mniejsze LLM mogą uczynić sztuczną inteligencję bardziej przystępną cenowo] i zapoznaj się z [Studium przypadku Amazon Pharmacy].
Budowanie niezawodnej aplikacji z zabezpieczeniami i HITL
Aby zachować zgodność ze standardami HIPAA i zapewnić prywatność pacjentów, wdrożyliśmy rygorystyczne praktyki zarządzania danymi, przyjmując jednocześnie hybrydowe podejście, które łączy dostrojone LLM przy użyciu interfejsów API Amazon Bedrock i [Retrieval Augmented Generation] (RAG) przy użyciu [Amazon OpenSearch Service]. Takie połączenie pozwala na wydajne odzyskiwanie wiedzy przy jednoczesnym zachowaniu wysokiej dokładności w określonych podzadaniach.
Zarządzanie halucynacjami LLM, które jest kluczowe w dziedzinie opieki zdrowotnej, wymaga czegoś więcej niż tylko dostrajania na dużych zbiorach danych. Nasze rozwiązanie wdraża specyficzne dla domeny zabezpieczenia zbudowane na [Amazon Bedrock Guardrails] i uzupełnione o nadzór Human-in-the-Loop (HITL), aby zwiększyć niezawodność systemu.
Zespół Amazon Pharmacy kontynuuje ulepszanie systemu poprzez informacje zwrotne w czasie rzeczywistym od farmaceutów i rozszerzone możliwości formatowania recept. Takie zrównoważone podejście oparte na innowacjach, wiedzy domenowej, zaawansowanych usługach AI i nadzorze ludzkim nie tylko poprawia efektywność operacyjną, ale również oznacza, że systemy AI są odpowiednio dostosowane do wzmacniania pozycji pracowników służby zdrowia w celu zapewnienia optymalnej opieki nad pacjentem.
Najważniejsze informacje z recenzji klientów oparte na generatywnej sztucznej inteligencji
Nasz poprzedni przykład pokazywał, w jaki sposób Amazon Pharmacy może integrować LLM z przepływami pracy w czasie rzeczywistym w celu przetwarzania recept, podczas gdy ten przypadek użycia pokazuje, wjaki sposób podobne techniki (SLM, tradycyjne ML i przemyślane projektowanie przepływu pracy) można zastosować dla [wnioskowania wsadowego offline] na dużą skalę.
Amazon uruchomił [Najważniejsze informacje z recenzji klientów generowane przez AI], aby przetwarzać ponad 200 milionów rocznych recenzji i ocen produktów. Ta funkcja destyluje wspólne opinie klientów w zwięzłe akapity, podkreślając pozytywne, neutralne i negatywne informacje zwrotne dotyczące produktu i jego cech. Kupujący mogą szybko zrozumieć konsensus, zachowując jednocześnie przejrzystość, zapewniając dostęp do odpowiednich recenzji klientów i zachowując oryginalne recenzje.
System ten poprawia decyzje zakupowe dzięki interfejsowi, za pomocą którego klienci mogą przeglądać najważniejsze recenzje, wybierając określone funkcje — takie jak jakość obrazu, możliwości pilota zdalnego sterowania lub łatwość konfiguracji Fire TV. Funkcje te są oznaczone zielonymi znacznikami wyboru dla pozytywnych sentymentów, pomarańczowymi znakami minus dla negatywnych sentymentów i szarymi dla neutralnych — co oznacza, że kupujący mogą szybko zidentyfikować zalety i wady produktu na podstawie zweryfikowanych recenzji zakupu.
Ekonomiczne wykorzystanie LLM w przypadkach użycia offline
Zespół opracował ekonomiczną architekturę hybrydową, która łączy tradycyjne metody ML ze specjalistycznym SLM. Takie podejście poprawia dokładność i wydajność przetwarzania, delegując analizę sentymentów i ekstrakcję słów kluczowych do tradycyjnego ML, podczas gdy zoptymalizowany SLM obsługuje skomplikowane zadania generowania tekstu.
Funkcja wykorzystuje [SageMaker Batch Transform] do przetwarzania asynchronicznego, co może znacząco obniżyć koszty w porównaniu z endpointami w czasie rzeczywistym. Aby zapewnić niemal zerowe opóźnienia, rozwiązanie [buforuje] wyodrębnione informacje i istniejące recenzje, co zmniejsza czas oczekiwania i umożliwia jednoczesny dostęp wielu klientom bez dodatkowych obliczeń. System przetwarza nowe recenzje przyrostowo, aktualizując informacje bez ponownego przetwarzania pełnego zbioru danych. W celu uzyskania optymalnej wydajności i efektywności kosztowej, funkcja wykorzystuje [Amazon Elastic Compute Cloud] (Amazon EC2) [instancje Inf2] do zadań transformacji wsadowej, [oferując do 40% lepszy stosunek ceny do wydajności w porównaniu z alternatywami].
Stosując takie kompleksowe podejście, zespół skutecznie zarządza kosztami, przetwarzając jednocześnie ogromną liczbę recenzji i produktów, dzięki czemu rozwiązanie jest zarówno wydajne, jak i skalowalne.
Generowanie kreatywnych obrazów i filmów opartych na sztucznej inteligencji w Amazon Ads
W poprzednich przykładach badaliśmy głównie zastosowania generatywnej sztucznej inteligencji skoncentrowane na tekście, a teraz przejdziemy do multimodalnej generatywnej sztucznej inteligencji z [Generowaniem kreatywnych treści sponsorowanych reklam w Amazon Ads]. Rozwiązanie ma możliwości generowania [obrazów] i [filmów], a szczegółowe informacje na temat tych możliwości udostępnimy w tej sekcji. Ogólnie rzecz biorąc, rdzeniem rozwiązania jest wykorzystanie [Amazon Nova] kreatywnego modelu generowania treści.
Wychodząc od potrzeb klientów, ankieta przeprowadzona przez Amazon w marcu 2023 roku wykazała, że prawie 75% reklamodawców wymienia generowanie kreatywnych treści jako główne wyzwanie podczas dążenia do sukcesu kampanii reklamowych. Wielu reklamodawców — zwłaszcza tych, którzy nie mają wewnętrznych możliwości ani wsparcia agencji — stoi przed poważnymi przeszkodami ze względu na wiedzę specjalistyczną i koszty związane z produkcją wysokiej jakości elementów wizualnych. Rozwiązanie Amazon Ads demokratyzuje tworzenie treści wizualnych, czyniąc je dostępnymi i wydajnymi dla reklamodawców każdej wielkości. Wpływ jest ogromny: reklamodawcy korzystający z obrazów generowanych przez sztuczną inteligencję w kampaniach [Sponsored Brands] mają [współczynnik klikalności (CTR)] bliski 8%, a przesłane kampanie przewyższają użytkowników niebędących użytkownikami o 88%.
W ubiegłym roku na blogu AWS Machine Learning opublikowano [artykuł szczegółowo opisujący rozwiązanie do generowania obrazów]. Od tego czasu Amazon przyjął [Amazon Nova Canvas] jako podstawę do generowania kreatywnych obrazów. Wykorzystując podpowiedzi tekstowe lub graficzne w połączeniu z funkcjami edycji opartymi na tekście i kontrolą nad schematami kolorów i dostosowywaniem układu, tworzone są obrazy na poziomie profesjonalnym.
We wrześniu 2024 roku zespół Amazon Ads dodał możliwość tworzenia [krótkich reklam wideo] z obrazów produktów. Funkcja ta wykorzystuje [modele podstawowe dostępne w Amazon Bedrock], aby dać klientom kontrolę poprzez sterowanie językiem naturalnym nad stylem wizualnym, tempem, ruchem kamery, obrotem i powiększeniem. Wykorzystuje przepływ pracy agenta, aby najpierw opisać scenorys wideo, a następnie wygenerować zawartość scen.
Jak omówiono w oryginalnym artykule, [odpowiedzialna sztuczna inteligencja] jest podstawą tego rozwiązania, a Amazon Nova kreatywny model jest wyposażony we wbudowane mechanizmy kontroli, które wspierają bezpieczne i odpowiedzialne korzystanie z AI, w tym znaki wodne i moderowanie treści.
Rozwiązanie wykorzystuje funkcje [AWS Step Functions] i [AWS Lambda] do koordynowania bezserwerowej koordynacji procesu generowania obrazów i filmów. Wygenerowane treści są przechowywane w [Amazon Simple Storage Service] (Amazon S3), metadane są przechowywane w DynamoDB, a [Amazon API Gateway] zapewnia klientom dostęp do funkcji generowania. Rozwiązanie to wykorzystuje teraz filtry bezpieczeństwa Amazon Bedrock Gardrails, oprócz utrzymywania integracji [Amazon Rekognition] i [Amazon Comprehend] na każdym etapie w celu przeprowadzenia dodatkowych kontroli bezpieczeństwa.
Tworzenie wysokiej jakości kreacji reklamowych na dużą skalę wiąże się ze złożonymi wyzwaniami. Modele generatywnej sztucznej inteligencji muszą generować atrakcyjne obrazy, odpowiednie dla marki w różnych kategoriach produktów i środowiskach reklamowych, przy jednoczesnym zapewnieniu łatwego dostępu reklamodawcom o wszystkich poziomach umiejętności technicznych. Zapewnienie jakości i doskonalenie leżą u podstaw funkcji generowania obrazów i filmów. System jest stale ulepszany poprzez rozbudowane procesy HITL realizowane za pomocą [Amazon SageMaker Ground Truth]. Ta implementacja zapewnia potężne narzędzie, które może przekształcić proces twórczy reklamodawców, ułatwiając tworzenie wysokiej jakości treści wizualnych w różnych kategoriach produktów i środowiskach.
To dopiero początek wykorzystywania przez Amazon Ads generatywnej sztucznej inteligencji, aby pomóc reklamodawcom, którzy potrzebują tworzyć treści dostosowane do celów reklamowych. Rozwiązanie to pokazuje, w jaki sposób zmniejszenie barier w tworzeniu może bezpośrednio poprawić wyniki kampanii reklamowych przy jednoczesnym zachowaniu wysokich standardów odpowiedzialnego korzystania z AI.
Kluczowe doświadczenia techniczne i dyskusja
Aplikacje niedialogowe korzystają z wyższej tolerancji opóźnień, co umożliwia przetwarzanie wsadowe i buforowanie, ale ze względu na swoją autonomię wymagają solidnych mechanizmów walidacji i silniejszych zabezpieczeń. Poniższe spostrzeżenia mają zastosowanie zarówno do wdrożeń AI niedialogowych, jak i dialogowych:
- Dekompozycja zadań i przepływ pracy agenta – Podział złożonych problemów na mniejsze komponenty okazał się cenny w różnych wdrożeniach. Takie przemyślane dekomponowanie przez ekspertów domenowych umożliwiło tworzenie wyspecjalizowanych modeli dla określonych podzadań, jak pokazano w Amazon Pharmacy w przetwarzaniu recept, gdzie dostrojone SLM obsługują dyskretne zadania, takie jak rozpoznawanie dawkowania. Taka strategia pozwala na tworzenie wyspecjalizowanych agentów z jasnymi krokami walidacji, zwiększając niezawodność i upraszczając konserwację. Przypadek użycia ofert produktów sprzedawcy Amazon zilustrował to poprzez wieloetapowy przepływ pracy z oddzielnymi procesami generowania i walidacji. Ponadto przypadek użycia najważniejszych informacji z recenzji pokazał ekonomiczne i kontrolowane użycie LLM — a mianowicie poprzez użycie tradycyjnego uczenia maszynowego do wstępnego przetwarzania i wykonywania części, które można powiązać z zadaniami LLM.
- Architektury hybrydowe i wybór modelu – Połączenie tradycyjnego uczenia maszynowego z LLM zapewnia lepszą kontrolę i opłacalność w porównaniu z czystym podejściem LLM. Tradycyjne ML wyróżniają się w jasno zdefiniowanych zadaniach, co pokazano w systemie wyróżniania recenzji używanym do analizy sentymentów i ekstrakcji informacji. Zespoły Amazon strategicznie wdrażały modelki języka dużego i małego formatu w oparciu o potrzeby, łącząc RAG z dostrajaniem w celu efektywnego wykorzystania specyficznego dla domeny, takiego jak wdrożenie Amazon Pharmacy.
- Strategie optymalizacji kosztów – Zespoły Amazon osiągnęły wydajność dzięki przetwarzaniu wsadowemu, mechanizmom buforowania dla operacji o dużej objętości, wyspecjalizowanym typom instancji, takim jak [AWS Inferentia] i [AWS Trainium], oraz zoptymalizowanemu wyborowi modeli. Podkreślenia recenzji pokazały, w jaki sposób przyrostowe przetwarzanie może zmniejszyć zapotrzebowanie na moc obliczeniową, a Amazon Ads korzysta z Amazon Nova [podstawowe modele] (FM), aby ekonomicznie tworzyć kreatywne treści.
- Mechanizmy zapewnienia jakości i kontroli – Kontrola jakości opiera się na zabezpieczeniach specyficznych dla domeny za pośrednictwem wytycznych Amazon Bedrock Gardrails i wielopoziomowej walidacji, która łączy zautomatyzowane testowanie z ocenami opartymi na pracy ludzkiej. Podejście z podwójnym LLM do generowania i walidacji pomaga zapobiegać halucynacjom w ofertach produktów sprzedawców Amazon, a techniki samorefleksji poprawiają dokładność. Kreatywne FM Amazon Nova oferują wbudowane odpowiedzialne mechanizmy kontroli AI i są uzupełniane ciągłymi testami A/B i pomiarami wydajności.
- Implementacja HITL – Podejścia HITL obejmują wiele warstw, od oceny ekspertów farmace