L’intelligenza artificiale generativa sta rivoluzionando le operazioni aziendali attraverso varie applicazioni, tra cui assistenti conversazionali come Rufus di Amazon e Amazon Seller Assistant. Inoltre, alcune delle applicazioni di intelligenza artificiale generativa più influenti operano autonomamente in background, una funzionalità essenziale che consente alle aziende di trasformare su larga scala le proprie operazioni, l’elaborazione dei dati e la creazione di contenuti. Queste implementazioni non conversazionali spesso si presentano sotto forma di flussi di lavoro di agenti alimentati da modelli linguistici di grandi dimensioni (LLM), che eseguono obiettivi aziendali specifici in tutti i settori senza interazione diretta con l’utente.
Rispetto alle applicazioni conversazionali che beneficiano del feedback e della supervisione degli utenti in tempo reale, le applicazioni non conversazionali offrono vantaggi unici come una maggiore tolleranza alla latenza, l’elaborazione batch e la memorizzazione nella cache, ma la loro natura autonoma richiede misure di sicurezza più rigorose e una garanzia di qualità più approfondita.
Questo articolo esplora quattro diversi casi d’uso di intelligenza artificiale generativa di Amazon:
- Creazione di schede prodotto Amazon e miglioramento della qualità dei dati del catalogo – dimostra come gli LLM aiutano i partner di vendita e Amazon a creare schede prodotto di qualità superiore su larga scala
- Elaborazione delle prescrizioni di Amazon Pharmacy – dimostra l’implementazione in un ambiente altamente regolamentato e la scomposizione delle attività per i flussi di lavoro degli agenti
- Punti salienti delle recensioni – illustra l’elaborazione batch su larga scala, l’integrazione dell’apprendimento automatico (ML) tradizionale, l’uso di piccoli LLM e soluzioni economicamente vantaggiose
- Generazione di immagini e video creativi di Amazon Ads – evidenzia l’intelligenza artificiale generativa multimodale e le pratiche di intelligenza artificiale responsabile nel lavoro creativo
Ogni caso di studio rivela diversi aspetti dell’implementazione di applicazioni di intelligenza artificiale generativa non conversazionali, dall’architettura tecnica alle considerazioni operative. Attraverso questi esempi, si capirà come la suite completa di servizi AWS, tra cui Amazon Bedrock e Amazon SageMaker, sia fondamentale per il successo. Infine, elenchiamo le principali lezioni condivise universalmente in vari casi d’uso.
Creazione di schede prodotto di alta qualità su Amazon
La creazione di schede prodotto di alta qualità con dettagli completi aiuta i clienti a prendere decisioni di acquisto informate. Tradizionalmente, i partner di vendita inseriscono manualmente molti attributi per ogni prodotto. La nuova soluzione di intelligenza artificiale generativa, introdotta nel 2024, cambia questo processo migliorando l’esperienza del cliente recuperando in modo proattivo le informazioni sui prodotti dai siti Web dei marchi e da altre fonti.
L’intelligenza artificiale generativa semplifica l’esperienza dei partner di vendita supportando l’inserimento di informazioni in vari formati, come URL, immagini di prodotti o fogli di calcolo, e convertendole automaticamente nella struttura e nel formato desiderati. È stato utilizzato da oltre 900.000 partner di vendita e quasi l’80% delle bozze di schede prodotto generate sono state accettate con modifiche minime. Il contenuto generato dall’intelligenza artificiale fornisce dettagli completi sul prodotto, il che contribuisce a migliorare la chiarezza e l’accuratezza, contribuendo così a scoprire i prodotti nelle ricerche dei clienti.
Per le nuove schede prodotto, il flusso di lavoro inizia con i partner di vendita che forniscono le informazioni iniziali. Quindi, il sistema utilizza più fonti di informazioni per generare una scheda prodotto completa, inclusi titolo, descrizione e attributi dettagliati. La scheda prodotto generata viene condivisa con i partner di vendita per l’approvazione o la modifica.
Per le schede prodotto esistenti, il sistema identifica i prodotti che possono essere arricchiti con dati aggiuntivi.
Integrazione ed elaborazione dei dati per output di grandi dimensioni
Il team di Amazon ha utilizzato Amazon Bedrock e altri servizi AWS per creare connettori a fonti interne ed esterne affidabili per API compatibili con LLM, consentendo una perfetta integrazione nei sistemi backend di Amazon.com.
Una delle principali sfide è integrare vari dati in una scheda prodotto coerente con oltre 50 attributi, inclusi testo e numeri. Gli LLM richiedono meccanismi di controllo e istruzioni specifici per interpretare accuratamente i concetti di e-commerce, poiché potrebbero non essere in grado di ottenere prestazioni ottimali con dati così complessi e diversi. Ad esempio, un LLM potrebbe interpretare erroneamente la “capacità” in un portacoltelli come una dimensione anziché il numero di slot, o “Fit Wear” come una descrizione dello stile anziché il nome del marchio. L’ingegneria dei prompt e la messa a punto sono state ampiamente utilizzate per risolvere questi casi.
Generazione e convalida utilizzando LLM
Le schede prodotto generate devono essere complete e corrette. Per contribuire a raggiungere questo obiettivo, la soluzione implementa un flusso di lavoro a più fasi che utilizza LLM per la generazione e la convalida degli attributi. Questo approccio a doppio LLM aiuta a prevenire le allucinazioni, il che è fondamentale quando si gestiscono problemi di sicurezza o specifiche tecniche. Il team ha sviluppato tecnologie avanzate di auto-riflessione per garantire che i processi di generazione e convalida si completino efficacemente a vicenda.
Garanzia di qualità multilivello con feedback umano
Il feedback umano è al centro della garanzia di qualità della soluzione. Il processo prevede una valutazione iniziale da parte di esperti di Amazon.com, nonché l’input dei partner di vendita per l’accettazione o la modifica. Ciò fornisce un output di alta qualità e la possibilità di migliorare costantemente i modelli di intelligenza artificiale.
Il processo di garanzia della qualità include metodi di test automatizzati che combinano ML, algoritmi o valutazioni basate su LLM. Le schede prodotto non riuscite vengono rigenerate e le schede prodotto riuscite vengono sottoposte a ulteriori test. Utilizzando [modelli di inferenza causale], identifichiamo le caratteristiche sottostanti che influenzano le prestazioni delle schede prodotto e le opportunità di arricchimento. Infine, le schede prodotto che superano il controllo qualità e vengono accettate dai partner di vendita vengono pubblicate, garantendo che i clienti ricevano informazioni sul prodotto accurate e complete.
Ottimizzazione del sistema a livello di applicazione per accuratezza e costi
Dati gli elevati standard di accuratezza e completezza, il team ha adottato un approccio sperimentale completo e dotato di un sistema di ottimizzazione automatizzato. Il sistema esplora varie combinazioni di LLM, prompt, playbook, flussi di lavoro e strumenti di intelligenza artificiale per migliorare metriche aziendali più elevate, inclusi i costi. Attraverso la valutazione continua e i test automatizzati, il generatore di schede prodotto può bilanciare efficacemente prestazioni, costi ed efficienza adattandosi al contempo ai nuovi sviluppi dell’intelligenza artificiale. Questo approccio significa che i clienti possono beneficiare di informazioni sui prodotti di alta qualità e i partner di vendita possono accedere a strumenti all’avanguardia per la creazione efficiente di schede prodotto.
Elaborazione delle prescrizioni basata sull’intelligenza artificiale generativa in Amazon Pharmacy
Nell’esempio di schede prodotto del venditore discusso in precedenza, basato su un flusso di lavoro ibrido uomo-macchina, Amazon Pharmacy dimostra come questi principi possono essere applicati a un settore regolamentato dalla Legge sulla portabilità e la responsabilità dell’assicurazione sanitaria. Nell’articolo [Scopri come Amazon Pharmacy utilizza Amazon SageMaker per creare un chatbot basato su LLM], abbiamo condiviso un assistente conversazionale per gli specialisti della cura dei pazienti; ora ci concentriamo sull’elaborazione automatizzata delle prescrizioni.
In Amazon Pharmacy abbiamo sviluppato un sistema di intelligenza artificiale basato su Amazon Bedrock e SageMaker per aiutare i tecnici farmaceutici a elaborare le istruzioni sui farmaci in modo più accurato ed efficiente. La soluzione integra esperti umani con LLM nei ruoli di creazione e convalida per migliorare l’accuratezza delle istruzioni sui farmaci per i pazienti.
Progettazione del flusso di lavoro delegato per l’accuratezza dell’assistenza sanitaria
Il sistema di elaborazione delle prescrizioni combina competenze umane (addetti all’immissione dati e farmacisti) con supporto basato sull’intelligenza artificiale per fornire suggerimenti e feedback sulle indicazioni. Il flusso di lavoro inizia con il preprocessore della knowledge base della farmacia, che standardizza il testo della prescrizione grezza in [Amazon DynamoDB], quindi utilizza un modello linguistico piccolo (SLM) messo a punto su SageMaker per identificare i componenti chiave (dosaggio, frequenza).
Il sistema integra perfettamente esperti come addetti all’immissione dati e farmacisti, dove l’intelligenza artificiale generativa integra il flusso di lavoro generale, migliorando l’agilità e l’accuratezza per servire meglio i nostri pazienti. Il sistema di assemblaggio delle indicazioni, dotato di misure di sicurezza, genera quindi istruzioni per gli addetti all’immissione dati per creare le indicazioni che digitano attraverso un modulo di suggerimenti. Un modulo di tagging contrassegna o corregge gli errori e applica altre misure di sicurezza, fornendo un feedback agli addetti all’immissione dati. I tecnici finalizzano le indicazioni digitate in modo altamente accurato e sicuro affinché i farmacisti forniscano feedback o, in alternativa, eseguano le indicazioni sui servizi a valle.
Un punto forte di questa soluzione è l’uso della scomposizione delle attività, che consente a ingegneri e scienziati di scomporre l’intero processo in più passaggi, che includono singoli moduli composti da sotto-passaggi. Il team ha ampiamente utilizzato SLM messi a punto. Inoltre, il processo impiega programmi ML tradizionali come il [riconoscimento di entità nominate (NER)] o la stima dei punteggi di confidenza finali utilizzando [modelli di regressione]. L’uso di SLM e ML tradizionali in questo processo controllato e ben definito può migliorare significativamente la velocità di elaborazione pur mantenendo rigorosi standard di sicurezza grazie all’aggiunta di misure di sicurezza appropriate in singoli passaggi.
Il sistema contiene più sotto-passaggi ben definiti, con ogni sotto-processo che funziona come un componente specializzato, lavorando in modo semi-autonomo ma collaborativo verso l’obiettivo generale all’interno del flusso di lavoro. Questo approccio di scomposizione, con convalide specifiche in ogni fase, si è dimostrato più efficace delle soluzioni end-to-end durante l’utilizzo di SLM sintonizzati. Il team utilizza [AWS Fargate] per coordinare il flusso di lavoro, poiché è attualmente integrato nei sistemi backend esistenti.
Durante il processo di sviluppo del prodotto di questo team, si rivolsero ad Amazon Bedrock, che offre LLM ad alte prestazioni e funzionalità di facile utilizzo su misura per le applicazioni di intelligenza artificiale generativa. SageMaker supporterà un’ulteriore selezione di LLM, una personalizzazione più approfondita e approcci ML tradizionali. Per saperne di più su questa tecnologia, vedere [Come la scomposizione delle attività e gli LLM più piccoli possono rendere l’intelligenza artificiale più conveniente] e leggere il [caso di studio di Amazon Pharmacy].
Costruzione di un’applicazione affidabile con misure di sicurezza e HITL
Per rispettare gli standard HIPAA e fornire la privacy dei pazienti, implementiamo rigorose pratiche di governance dei dati adottando al contempo un approccio ibrido che combina LLM microtunuti utilizzando l’API Amazon Bedrock e [generazione aumentata del recupero] (RAG) utilizzando [Amazon OpenSearch Service]. Questa combinazione consente un recupero efficiente della conoscenza pur mantenendo un’elevata accuratezza per sotto-task specifici.
La gestione delle allucinazioni LLM, che è fondamentale nell’assistenza sanitaria, richiede più della semplice messa a punto su set di dati di grandi dimensioni. La nostra soluzione implementa misure di sicurezza specifiche del dominio basate su [Amazon Bedrock Guardrails], integrate da una supervisione del circuito umano (HITL) per migliorare l’affidabilità del sistema.
Il team di Amazon Pharmacy continua a migliorare questo sistema con il feedback in tempo reale dei farmacisti e le funzionalità estese del formato di prescrizione. Questo approccio equilibrato di innovazione, competenza nel settore, servizi di intelligenza artificiale avanzati e supervisione umana non solo migliora l’efficienza operativa, ma significa anche che il sistema di intelligenza artificiale è posizionato correttamente per potenziare i professionisti sanitari, fornendo la migliore assistenza ai pazienti.
Punti salienti generati dall’intelligenza artificiale delle recensioni dei clienti
Mentre il nostro esempio precedente ha dimostrato come Amazon Pharmacy integra gli LLM in flussi di lavoro in tempo reale per l’elaborazione delle prescrizioni, questo caso d’uso dimostra come tecnologie simili (SLM, ML tradizionale e progettazione ponderata del flusso di lavoro) possono essere applicate a [inferenze batch offline] su larga scala.
Amazon ha lanciato [Punti salienti delle recensioni dei clienti generate dall’intelligenza artificiale] per elaborare oltre 200 milioni di recensioni e valutazioni dei prodotti annuali. Questa funzione distilla le opinioni condivise dei clienti in paragrafi concisi evidenziando il feedback positivo, neutro e negativo sui prodotti e sulle loro funzionalità. Gli acquirenti possono cogliere rapidamente il consenso pur mantenendo la trasparenza fornendo l’accesso alle recensioni dei clienti pertinenti e mantenendo le recensioni originali.
Il sistema migliora le decisioni di acquisto fornendo ai clienti un’interfaccia in cui è possibile esplorare i punti salienti delle recensioni selezionando funzionalità specifiche come la qualità dell’immagine, le funzionalità del telecomando o la facilità di installazione per Fire TV. Queste caratteristiche sono indicate con un segno di spunta verde per il sentiment positivo, un segno meno arancione per il sentiment negativo e il grigio indica la neutralità, il che significa che gli acquirenti possono identificare rapidamente i punti di forza e di debolezza del prodotto in base alle recensioni di acquisto verificate.
Utilizzo economico di LLM per casi d’uso offline
Il team ha sviluppato un’architettura ibrida ed economica che combina approcci ML tradizionali con SLM specializzati. Questo approccio assegna l’analisi del sentiment e l’estrazione di parole chiave al ML tradizionale, utilizzando al contempo SLM ottimizzati per attività complesse di generazione di testo, migliorando così l’accuratezza e l’efficienza dell’elaborazione.
La funzione impiega [trasformazione batch di SageMaker] per l’elaborazione asincrona, offrendo una significativa riduzione dei costi rispetto agli endpoint in tempo reale. Per fornire un’esperienza di latenza quasi nulla, la soluzione [memorizza nella cache] gli approfondimenti estratti e le revisioni esistenti, riducendo i tempi di attesa e consentendo a più clienti di accedere contemporaneamente senza calcoli aggiuntivi. Il sistema elabora incrementalmente nuove recensioni, aggiornando gli approfondimenti senza rielaborare l’intero set di dati. Per prestazioni ottimali ed efficienza dei costi, la funzione utilizza [istanze Inf2] di [Amazon Elastic Compute Cloud] (Amazon EC2) per i lavori di trasformazione batch, [offrendo fino al 40% in più di rapporto prezzo-prestazioni rispetto alle alternative].
Seguendo questo approccio completo, il team ha gestito efficacemente i costi durante l’elaborazione di un ampio volume di recensioni e prodotti, rendendo questa soluzione efficiente e scalabile.
Generazione di immagini e video creativi basata sull’intelligenza artificiale di Amazon Ads
Nei nostri esempi precedenti, abbiamo esplorato principalmente applicazioni di intelligenza artificiale generativa basate su testo; ora ci rivolgiamo all’intelligenza artificiale generativa multimodale con la [generazione di contenuti creativi per annunci sponsorizzati su Amazon Ads]. Questa soluzione include funzionalità di generazione di [immagini] e [video] e condivideremo i dettagli su queste funzionalità in questa sezione. Nel complesso, la [Amazon Nova] Creative Content Generation Model è al centro della soluzione.
Lavorando a ritroso dalle esigenze dei clienti, un sondaggio condotto da Amazon nel marzo 2023 ha rivelato che quasi il 75% degli inserzionisti ha citato la generazione di contenuti creativi come la loro principale sfida quando si sforzavano di raggiungere il successo della campagna. Molti inserzionisti, in particolare quelli senza capacità interne o supporto di agenzia, devono affrontare ostacoli significativi a causa delle competenze e dei costi coinvolti nella produzione di immagini di alta qualità. La soluzione Amazon Ads democratizza la creazione di contenuti visivi, rendendola accessibile ed efficiente per gli inserzionisti di tutte le dimensioni. L’impatto è significativo: gli inserzionisti che utilizzano immagini generate dall’intelligenza artificiale nelle campagne pubblicitarie [Sponsored Brands] vedono un [tasso di clic (CTR)] vicino all’8% e inviano l’88% in più di campagne rispetto agli utenti non utenti.
L’anno scorso, il blog AWS Machine Learning ha pubblicato un articolo [che descrive in dettaglio una soluzione per la generazione di immagini]. Da allora, Amazon ha adottato [Amazon Nova Canvas] come base per la generazione di immagini creative. Sfruttando i prompt di testo o immagine, combinati con le funzionalità di modifica basate su testo e i controlli per la regolazione dello schema di colori e del layout, vengono create immagini di livello professionale.
Nel settembre 2024, il team di Amazon Ads ha aggiunto la possibilità di creare [brevi annunci video] da immagini di prodotti. Questa funzione utilizza [modelli di fondazione disponibili su Amazon Bedrock], offrendo ai clienti il controllo tramite controlli in linguaggio naturale su stile visivo, ritmo, movimento della telecamera, rotazione e zoom. Utilizza un flusso di lavoro di agenti per descrivere prima gli storyboard video, quindi generare il contenuto della storia.
Come discusso nell’articolo originale, l’ [intelligenza artificiale responsabile] è al centro di questa soluzione e Amazon Nova Creative Model è dotata di controlli integrati per supportare un uso sicuro e responsabile dell’intelligenza artificiale, tra cui filigrana e moderazione dei contenuti.
La soluzione utilizza le funzioni [AWS Step Functions] e [AWS Lambda] per la coordinazione serverless dei processi di generazione di immagini e video. Il contenuto generato viene archiviato in [Amazon Simple Storage Service] (Amazon S3) e i metadati vengono archiviati in DynamoDB, mentre [Amazon API Gateway] fornisce ai clienti l’accesso alle funzionalità di generazione. La soluzione ora incorpora Amazon Bedrock Guardrails oltre a mantenere l’integrazione di [Amazon Rekognition] e [Amazon Comprehend] in ogni passaggio per ulteriori controlli di sicurezza.
La creazione di creatività pubblicitarie di alta qualità su larga scala presenta sfide complesse. I modelli di intelligenza artificiale generativa devono generare immagini accattivanti che sono adatte a tutti i contesti pubblicitari e di categorie di prodotti, pur rimanendo facilmente accessibili agli inserzionisti di tutti i livelli di competenza. La garanzia della qualità e il miglioramento sono fondamentali per le funzionalità di generazione di immagini e video. Questo sistema è costantemente migliorato attraverso un ampio processo HITL implementato tramite [Amazon SageMaker Ground Truth]. Questa implementazione fornisce uno strumento potente in grado di trasformare i processi creativi degli inserzionisti, facilitando la creazione di contenuti visivi di alta qualità in varie categorie di prodotti e contesti.
Questo è solo l’inizio di come Amazon Ads sta utilizzando l’intelligenza artificiale generativa per aiutare gli inserzionisti che hanno bisogno di creare contenuti adatti ai loro obiettivi pubblicitari. Questa soluzione dimostra come ridurre le barriere alla creatività può migliorare direttamente le campagne pubblicitarie pur mantenendo elevati standard di uso responsabile dell’intelligenza artificiale.
Esperienze e discussioni tecnologiche chiave
Le applicazioni non conversazionali beneficiano di una maggiore tolleranza alla latenza, consentendo l’elaborazione batch e la memorizzazione nella cache, ma la loro autonomia richiede solidi meccanismi di convalida e misure di sicurezza più rigorose. Questi approfondimenti si applicano sia all’implementazione dell’intelligenza artificiale non conversazionale sia a quella conversazionale:
- Scomposizione delle attività e flussi di lavoro degli agenti – È stato dimostrato che la scomposizione di problemi complessi in componenti più piccoli è preziosa in varie implementazioni. Questa ponderata scomposizione condotta da esperti del settore consente la creazione di modelli specializzati per sottoattività specifiche, come dimostrato nell’elaborazione delle prescrizioni di Amazon Pharmacy, in cui SLM messi a punto gestiscono attività discrete come l’identificazione del dosaggio. Questa strategia consente la creazione di agent specializzati con passaggi di convalida chiari, migliorando l’affidabilità e semplificando la manutenzione. Il caso d’uso delle schede prodotto del venditore di Amazon lo dimostra attraverso il suo flusso di lavoro a più fasi con processi di generazione e convalida separati. Inoltre, il caso d’uso dei punti salienti delle recensioni dimostra un utilizzo efficiente ed economico degli LLM, ovvero attraverso l’utilizzo di ML tradizionale per la pre-elaborazione e mediante l’esecuzione di parti che possono essere associate all’attività LLM.
- Architetture ibride e selezione del modello – La combinazione di ML tradizionale con LLM offre un migliore controllo ed efficienza in termini di costi rispetto ai puri approcci LLM. Il ML tradizionale eccelle nella gestione di attività ben definite, come dimostrato dal sistema dei punti salienti delle recensioni per l’analisi del sentiment e l’estrazione delle informazioni. I team di Amazon hanno distribuito strategicamente modelli linguistici grandi e piccoli in base alle esigenze, combinando RAG con la messa a punto per un’efficace applicazione specifica del settore, come l’implementazione di Amazon Pharmacy.
- Strategie di ottimizzazione dei costi – I team di Amazon hanno ottenuto efficienza attraverso l’elaborazione batch, i meccanismi di memorizzazione nella cache per le operazioni ad alto volume, i tipi di istanza specializzati come [AWS Inferentia] e [AWS Trainium] e la selezione ottimizzata del modello. I punti salienti delle recensioni dimostrano come l’elaborazione incrementale riduce le esigenze di calcolo, mentre Amazon Ads utilizza [modelli di fondazione] (FM) di Amazon Nova per creare contenuti creativi in modo economico.
- Garanzia di qualità e meccanismi di controllo – Il controllo di qualità si basa su misure di sicurezza specifiche del settore tramite Amazon Bedrock Guardrails e sulla convalida multilivello che combina test automatizzati con valutazione umana. L’approccio a doppio LLM per la generazione e la convalida aiuta a prevenire le allucinazioni nelle schede prodotto del venditore di Amazon, mentre le tecnologie di auto-riflessione migliorano l’accuratezza. Gli FM creativi di Amazon Nova forniscono controlli di intelligenza artificiale responsabile inerenti e sono integrati da test A/B continui e misurazione delle prestazioni.
- Implementazione HITL – Gli approcci HITL si estendono su più livelli, dalle valutazioni specialistiche dei farmacisti al feedback degli utenti finali dei partner di vendita. I team di Amazon hanno stabilito flussi di lavoro di miglioramento strutturati bilanciando l’automazione e la supervisione umana in base ai requisiti specifici del dominio e ai profili di rischio.
- Responsabilità AI e conformità – Le pratiche di IA responsabile includono le misure di sicurezza sull’acquisizione dei contenuti per gli ambienti regolamentati e la conformità al regolamento HIPAA. I team di Amazon integrano la moderazione dei contenuti per le applicazioni rivolte agli utenti, mantengono la trasparenza dei punti salienti delle recensioni fornendo l’accesso alle informazioni di origine e implementano la governance dei dati con monitoraggio per migliorare la qualità e la conformità.
Questi modelli consentono soluzioni di intelligenza artificiale generativa scalabili, affidabili ed economicamente vantaggiose pur mantenendo standard di qualità e responsabilità. Queste implementazioni dimostrano che le soluzioni efficaci richiedono non solo modelli avanzati ma anche un’attenta attenzione all’architettura, alle operazioni e alla governance, supportata dai servizi AWS e dalle pratiche consolidate.
Passaggi successivi
Gli esempi di Amazon condivisi in questo articolo illustrano come l’intelligenza artificiale generativa possa creare valore oltre i tradizionali assistenti conversazionali. Vi invitiamo a seguire questi esempi o a creare le vostre soluzioni per capire come l’intelligenza artificiale generativa può rimodellare la vostra attività o persino il vostro settore. Potete visitare la pagina [Casi d’uso dell’intelligenza artificiale generativa AWS] per avviare il processo di ideazione.
Questi esempi dimostrano che le implementazioni efficaci dell’intelligenza artificiale generativa spesso beneficiano della combinazione di diversi tipi di modelli e flussi di lavoro. Per capire quali FM sono supportati dai servizi AWS, vedere [Modelli di fondazione supportati in Amazon Bedrock] e [Modelli di fondazione Amazon SageMaker JumpStart]. Vi consigliamo inoltre di esplorare [Flussi Amazon Bedrock], che possono semplificare il percorso di costruzione dei flussi di lavoro. Inoltre, vi ricordiamo che gli acceleratori Trainium e Inferentia offrono un significativo risparmio sui costi in queste applicazioni.
Come mostrato negli esempi che abbiamo illustrato, i flussi di lavoro degli agent si sono dimostrati particolarmente preziosi. Vi consigliamo di esplorare [Agenti Amazon Bedrock] per creare rapidamente flussi di lavoro degli agenti.
L’implementazione di successo dell’intelligenza artificiale generativa è più della semplice selezione del modello: rappresenta un processo completo di sviluppo del software, dalla sperimentazione al monitoraggio delle applicazioni. Per iniziare a costruire la base su questi servizi essenziali, vi invitiamo a esplorare [Amazon QuickStart].
Per ulteriori informazioni su come Amazon utilizza l’intelligenza artificiale, vedere [Intelligenza artificiale] in Amazon News.