Generative AI กำลังปฏิวัติการดำเนินธุรกิจผ่านแอปพลิเคชันต่างๆ รวมถึงผู้ช่วยแบบสนทนา เช่น Rufus และ Amazon Seller Assistant ที่เป็นของ Amazon นอกจากนี้ แอปพลิเคชัน Generative AI ที่มีอิทธิพลมากที่สุดบางส่วนยังทำงานโดยอัตโนมัติในเบื้องหลัง ซึ่งเป็นฟังก์ชันที่จำเป็นที่ช่วยให้ธุรกิจสามารถเปลี่ยนแปลงการดำเนินงาน การประมวลผลข้อมูล และการสร้างเนื้อหาได้ในวงกว้าง การใช้งานที่ไม่ใช่แบบสนทนาเหล่านี้มักจะอยู่ในรูปแบบของเวิร์กโฟลว์ของเอเจนต์ที่ขับเคลื่อนโดย Large Language Models (LLM) ซึ่งดำเนินการเป้าหมายทางธุรกิจเฉพาะในอุตสาหกรรมต่างๆ โดยไม่จำเป็นต้องมีการโต้ตอบกับผู้ใช้โดยตรง
เมื่อเทียบกับแอปพลิเคชันแบบสนทนาที่ได้รับประโยชน์จากข้อเสนอแนะและการกำกับดูแลของผู้ใช้แบบเรียลไทม์ แอปพลิเคชันที่ไม่ใช่แบบสนทนามีข้อได้เปรียบเฉพาะ เช่น ความอดทนต่อเวลาแฝงที่สูงขึ้น การประมวลผลเป็นชุด และการแคช ธรรมชาติโดยอัตโนมัติของมันต้องการมาตรการรักษาความปลอดภัยที่แข็งแกร่งยิ่งขึ้นและการรับประกันคุณภาพที่ละเอียดถี่ถ้วน
บทความนี้สำรวจกรณีการใช้งาน Generative AI ที่แตกต่างกันสี่กรณีของ Amazon:
- การสร้างข้อมูลสินค้าของ Amazon และการปรับปรุงคุณภาพข้อมูลแคตตาล็อก – แสดงให้เห็นว่า LLM สามารถช่วยพันธมิตรด้านการขายและ Amazon สร้างข้อมูลสินค้าที่มีคุณภาพสูงขึ้นได้อย่างไรในวงกว้าง
- การประมวลผลใบสั่งยาของ Amazon Pharmacy – แสดงให้เห็นถึงการนำไปใช้ในสภาพแวดล้อมที่มีการควบคุมอย่างเข้มงวดและการแบ่งงานสำหรับเวิร์กโฟลว์ของเอเจนต์
- ไฮไลท์รีวิว – แสดงให้เห็นถึงการประมวลผลเป็นชุดขนาดใหญ่ การบูรณาการ Machine Learning (ML) แบบดั้งเดิม การใช้ LLM ขนาดเล็ก และโซลูชันที่คุ้มค่า
- การสร้างภาพและวิดีโอโฆษณาเชิงสร้างสรรค์ของ Amazon Ads – เน้น Generative AI แบบ Multimodal และแนวทางปฏิบัติของ Responsible AI ในงานสร้างสรรค์
แต่ละกรณีศึกษาเผยให้เห็นแง่มุมต่างๆ ของการใช้งานแอปพลิเคชัน Generative AI ที่ไม่ใช่แบบสนทนา ตั้งแต่สถาปัตยกรรมทางเทคนิคไปจนถึงข้อควรพิจารณาในการดำเนินงาน ผ่านตัวอย่างเหล่านี้ คุณจะได้เรียนรู้ว่าชุดบริการ AWS ทั้งหมด ซึ่งรวมถึง Amazon Bedrock และ Amazon SageMaker เป็นกุญแจสำคัญสู่ความสำเร็จได้อย่างไร สุดท้าย เราได้ระบุบทเรียนสำคัญที่แบ่งปันกันโดยทั่วไปในกรณีการใช้งานต่างๆ
การสร้างข้อมูลสินค้าที่มีคุณภาพสูงบน Amazon
การสร้างข้อมูลสินค้าที่มีรายละเอียดครบถ้วนและมีคุณภาพสูงช่วยให้ลูกค้าตัดสินใจซื้อได้อย่างชาญฉลาด ตามเนื้อผ้า พันธมิตรด้านการขายจะป้อนคุณลักษณะมากมายของแต่ละผลิตภัณฑ์ด้วยตนเอง โซลูชัน Generative AI ใหม่ล่าสุดที่เปิดตัวในปี 2024 ได้เปลี่ยนแปลงกระบวนการนี้โดยการปรับปรุงประสบการณ์ของลูกค้าด้วยการดึงข้อมูลผลิตภัณฑ์จากเว็บไซต์ของแบรนด์และแหล่งอื่นๆ อย่างกระตือรือร้น
Generative AI ช่วยลดความซับซ้อนของประสบการณ์ของพันธมิตรด้านการขายโดยการสนับสนุนข้อมูลที่ป้อนในรูปแบบต่างๆ (เช่น URL รูปภาพผลิตภัณฑ์ หรือส spreadsheet) และแปลงเป็นโครงสร้างและรูปแบบที่ต้องการโดยอัตโนมัติ พันธมิตรด้านการขายกว่า 900,000 รายได้ใช้งานแล้ว และเกือบ 80% ของฉบับร่างข้อมูลสินค้าที่สร้างขึ้นได้รับการยอมรับโดยมีการแก้ไขน้อยที่สุด เนื้อหาที่สร้างโดย AI ให้รายละเอียดผลิตภัณฑ์ที่ครอบคลุม ซึ่งช่วยปรับปรุงความชัดเจนและความถูกต้อง ซึ่งจะช่วยในการค้นพบผลิตภัณฑ์ในการค้นหาของลูกค้า
สำหรับข้อมูลสินค้าใหม่ เวิร์กโฟลว์เริ่มต้นด้วยพันธมิตรด้านการขายที่ให้ข้อมูลเริ่มต้น จากนั้นระบบจะสร้างข้อมูลสินค้าที่ครอบคลุม โดยใช้แหล่งข้อมูลหลายแหล่ง รวมถึงชื่อ คำอธิบาย และคุณลักษณะโดยละเอียด ข้อมูลสินค้าที่สร้างขึ้นจะถูกแชร์กับพันธมิตรด้านการขายเพื่อขออนุมัติหรือแก้ไข
สำหรับข้อมูลสินค้าที่มีอยู่ ระบบจะระบุผลิตภัณฑ์ที่สามารถเพิ่มคุณค่าด้วยข้อมูลเพิ่มเติมได้
การผสานรวมข้อมูลและการประมวลผลสำหรับผลลัพธ์จำนวนมาก
ทีมงานของ Amazon ใช้ Amazon Bedrock และบริการ AWS อื่นๆ เพื่อสร้างตัวเชื่อมต่อแหล่งข้อมูลภายในและภายนอกที่แข็งแกร่งสำหรับ API ที่เป็นมิตรกับ LLM ซึ่งบูรณาการเข้ากับระบบแบ็กเอนด์ของ Amazon.com ได้อย่างราบรื่น
ความท้าทายหลักประการหนึ่งคือการสังเคราะห์ข้อมูลที่หลากหลายเป็นข้อมูลสินค้าที่สอดคล้องกันในคุณลักษณะมากกว่า 50 รายการ รวมถึงข้อความและตัวเลข LLM ต้องการกลไกการควบคุมและคำแนะนำเฉพาะเพื่อให้ตีความแนวคิดอีคอมเมิร์ซได้อย่างแม่นยำ เนื่องจากอาจไม่ทำงานได้ดีที่สุดกับข้อมูลที่ซับซ้อนและหลากหลายเช่นนี้ ตัวอย่างเช่น LLM อาจตีความ “ความจุ” ในที่ใส่มีดผิดว่าเป็นขนาดมากกว่าจำนวนช่อง หรือตีความ “Fit Wear” ผิดว่าเป็นคำอธิบายสไตล์มากกว่าชื่อแบรนด์ วิศวกรรมพร้อมท์ (Prompt engineering) และการปรับแต่งอย่างละเอียด (Fine-tuning) ถูกใช้อย่างกว้างขวางเพื่อแก้ไขกรณีเหล่านี้
การสร้างและการตรวจสอบโดยใช้ LLM
ข้อมูลสินค้าที่สร้างขึ้นควรสมบูรณ์และถูกต้อง เพื่อช่วยให้บรรลุเป้าหมายนี้ โซลูชันนี้ใช้เวิร์กโฟลว์หลายขั้นตอน โดยใช้ LLM สำหรับการสร้างและการตรวจสอบคุณลักษณะ แนวทาง LLM สองขั้นตอนนี้ช่วยป้องกันภาพหลอน ซึ่งมีความสำคัญอย่างยิ่งเมื่อจัดการกับข้อกังวลด้านความปลอดภัยหรือข้อกำหนดทางเทคนิค ทีมงานได้พัฒนาเทคนิคการไตร่ตรองตนเองขั้นสูงเพื่อให้แน่ใจว่ากระบวนการสร้างและการตรวจสอบเสริมซึ่งกันและกันอย่างมีประสิทธิภาพ
การรับประกันคุณภาพหลายชั้นด้วยผลตอบรับจากมนุษย์
ผลตอบรับจากมนุษย์เป็นหัวใจสำคัญของการรับประกันคุณภาพของโซลูชัน กระบวนการนี้รวมถึงการประเมินเบื้องต้นโดยผู้เชี่ยวชาญของ Amazon.com และพันธมิตรด้านการขายให้ข้อมูลเพื่อขอการยอมรับหรือแก้ไข สิ่งนี้ให้ผลลัพธ์ที่มีคุณภาพสูงและความสามารถในการปรับปรุงโมเดล AI อย่างต่อเนื่อง
กระบวนการประกันคุณภาพ รวมถึงวิธีการทดสอบอัตโนมัติที่รวม ML, อัลกอริธึม หรือการประเมินตาม LLM ข้อมูลสินค้าที่ไม่สำเร็จจะถูกสร้างใหม่ ข้อมูลสินค้าที่ประสบความสำเร็จจะได้รับการทดสอบเพิ่มเติม การใช้ [โมเดลอนุมานเชิงสาเหตุ] เราจะระบุลักษณะพื้นฐานที่ส่งผลต่อประสิทธิภาพของข้อมูลสินค้าและโอกาสในการเพิ่มคุณค่า ในที่สุด ข้อมูลสินค้าที่ผ่านการตรวจสอบคุณภาพและได้รับการยอมรับจากพันธมิตรด้านการขายจะถูกเผยแพร่เพื่อให้มั่นใจว่าลูกค้าได้รับข้อมูลผลิตภัณฑ์ที่ถูกต้องและครอบคลุม
การเพิ่มประสิทธิภาพระบบระดับแอปพลิเคชันเพื่อความถูกต้องและต้นทุน
เนื่องจากมาตรฐานระดับสูงสำหรับความถูกต้องและความสมบูรณ์ ทีมงานจึงใช้วิธีการทดลองที่ครอบคลุมและติดตั้งระบบเพิ่มประสิทธิภาพอัตโนมัติ ระบบนี้สำรวจการผสมผสานต่างๆ ของ LLM พร้อมท์ playbooks เวิร์กโฟลว์ และเครื่องมือ AI เพื่อปรับปรุงเมตริกธุรกิจที่สูงขึ้น รวมถึงต้นทุน การประเมินอย่างต่อเนื่องและการทดสอบอัตโนมัติช่วยให้ตัวสร้างข้อมูลสินค้าผลิตภัณฑ์มีความสมดุลระหว่างประสิทธิภาพ ต้นทุน และประสิทธิภาพได้อย่างมีประสิทธิภาพ ในขณะที่ปรับตัวให้เข้ากับการพัฒนา AI ใหม่ๆ แนวทางนี้หมายความว่าลูกค้าสามารถได้รับประโยชน์จากข้อมูลผลิตภัณฑ์ที่มีคุณภาพสูง และพันธมิตรด้านการขายสามารถเข้าถึงเครื่องมือที่ทันสมัยสำหรับการสร้างข้อมูลสินค้าอย่างมีประสิทธิภาพ
การประมวลผลใบสั่งยาโดยใช้ Generative AI ใน Amazon Pharmacy
ในตัวอย่างข้อมูลสินค้าของผู้ขายที่กล่าวถึงก่อนหน้านี้ โดยมีพื้นฐานมาจากเวิร์กโฟลว์แบบผสมผสานระหว่างคนกับเครื่องจักร Amazon Pharmacy แสดงให้เห็นว่าหลักการเหล่านี้สามารถนำไปใช้กับอุตสาหกรรมที่ได้รับการควบคุม [Health Insurance Portability and Accountability Act] (HIPAA) ได้อย่างไร ในบทความ [ทำความเข้าใจว่า Amazon Pharmacy ใช้ Amazon SageMaker สร้างแชทบอทที่ใช้ LLM ได้อย่างไร] เราได้แชร์ผู้ช่วยแบบสนทนาสำหรับผู้เชี่ยวชาญด้านการดูแลผู้ป่วย ตอนนี้เรามุ่งเน้นไปที่การประมวลผลใบสั่งยาอัตโนมัติ
ใน Amazon Pharmacy เราได้พัฒนาระบบ AI ที่สร้างขึ้นบน Amazon Bedrock และ SageMaker เพื่อช่วยให้ผู้เชี่ยวชาญด้านเภสัชกรประมวลผลคำแนะนำทางยาได้อย่างแม่นยำและมีประสิทธิภาพยิ่งขึ้น โซลูชันนี้ผสานรวมผู้เชี่ยวชาญที่เป็นมนุษย์เข้ากับ LLM ในบทบาทการสร้างและการตรวจสอบ เพื่อปรับปรุงความถูกต้องของคำแนะนำทางยาของผู้ป่วย
การออกแบบเวิร์กโฟลว์ที่ได้รับมอบหมายเพื่อความถูกต้องของการดูแลสุขภาพ
ระบบประมวลผลใบสั่งยาผสมผสานความเชี่ยวชาญของมนุษย์ (ผู้ป้อนข้อมูลและเภสัชกร) เข้ากับการสนับสนุนของ AI เพื่อให้คำแนะนำและข้อเสนอแนะด้านทิศทาง เวิร์กโฟลว์เริ่มต้นด้วยตัวประมวลผลล่วงหน้าฐานความรู้ของร้านขายยา ซึ่งจัดรูปแบบข้อความใบสั่งยาเดิมใน [Amazon DynamoDB] ให้เป็นมาตรฐาน จากนั้นใช้ Small Language Model (SLM) ที่ปรับแต่งมาอย่างละเอียดบน SageMaker เพื่อระบุส่วนประกอบหลัก (ปริมาณ ความถี่)
ระบบนี้รวมผู้เชี่ยวชาญ เช่น ผู้ป้อนข้อมูลและเภสัชกรอย่างราบรื่น โดยที่ Generative AI เสริมเวิร์กโฟลว์โดยรวม ปรับปรุงความคล่องตัวและความถูกต้อง เพื่อให้บริการผู้ป่วยของเราได้ดียิ่งขึ้น จากนั้นระบบประกอบทิศทางพร้อมมาตรการรักษาความปลอดภัยจะสร้างคำแนะนำสำหรับผู้ป้อนข้อมูลเพื่อสร้างทิศทางที่พิมพ์โดยใช้โมดูลคำแนะนำ โมดูลการมาร์กจะมาร์กหรือแก้ไขข้อผิดพลาด และบังคับใช้มาตรการรักษาความปลอดภัยเพิ่มเติม เป็นข้อเสนอแนะที่มอบให้กับผู้ป้อนข้อมูล ช่างเทคนิคสรุปทิศทางที่พิมพ์อย่างแม่นยำและปลอดภัย ซึ่งจัดทำขึ้นเพื่อข้อเสนอแนะจากเภสัชกร หรือดำเนินการทิศทางไปยังบริการปลายน้ำ
จุดเด่นอย่างหนึ่งของโซลูชันนี้คือการใช้งาน Decomposition Task ซึ่งช่วยให้วิศวกรและนักวิทยาศาสตร์สามารถแยกกระบวนการทั้งหมดออกเป็นหลายขั้นตอน ซึ่งรวมถึงโมดูลแต่ละโมดูลที่ประกอบด้วยขั้นตอนย่อย ทีมงานใช้ SLM ที่ปรับแต่งมาอย่างละเอียดอย่างกว้างขวาง นอกจากนี้ กระบวนการนี้ยังใชโปรแกรม ML แบบดั้งเดิม เช่น [Named Entity Recognition (NER)] หรือใช้ [model regression] เพื่อประเมินความน่าเชื่อถือขั้นสุดท้าย การใช้ SLM และ ML แบบดั้งเดิมในกระบวนการควบคุมที่กำหนดไว้อย่างชัดเจนนี้ สามารถเพิ่มความเร็วในการประมวลผลได้อย่างมาก ในขณะที่ยังคงรักษากฎเกณฑ์ด้านความปลอดภัยที่เข้มงวด เนื่องจากมีการเพิ่มมาตรการรักษาความปลอดภัยที่เหมาะสมในขั้นตอนเฉพาะ
ระบบประกอบด้วยขั้นตอนย่อยที่กำหนดไว้อย่างชัดเจนหลายขั้นตอน แต่ละขั้นตอนย่อยทำงานเป็นส่วนประกอบเฉพาะ ทำงานในลักษณะกึ่งอิสระแต่ทำงานร่วมกันในเวิร์กโฟลว์เพื่อมุ่งสู่เป้าหมายโดยรวม แนวทางของการสลายตัวนี้มีการตรวจสอบเฉพาะในแต่ละขั้นตอน พิสูจน์ให้เห็นว่ามีประสิทธิภาพมากกว่าโซลูชันแบบ End-to-End ในขณะที่ใช้ SLM ที่ปรับแต่งมาอย่างละเอียดได้ ทีมใช้ [AWS Fargate] เพื่อประสานงานเวิร์กโฟลว์ เนื่องจากปัจจุบันได้รวมเข้ากับระบบแบ็กเอนด์ที่มีอยู่แล้ว
ในระหว่างกระบวนการพัฒนาผลิตภัณฑ์ของทีม พวกเขาได้เปลี่ยนไปใช้ Amazon Bedrock ซึ่งเป็นผลิตภัณฑ์ที่ให้ LLM ที่มีประสิทธิภาพสูง และมีคุณสมบัติที่ใช้งานง่ายซึ่งปรับให้เหมาะกับแอปพลิเคชัน Generative AI SageMaker รองรับการเลือก LLM เพิ่มเติม การปรับแต่งในระดับที่ลึกกว่า และวิธีการ ML แบบดั้งเดิม หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับเทคโนโลยีนี้ โปรดดู [Task Decomposition และ LLM ที่เล็กลงสามารถทำให้ AI ประหยัดได้มากขึ้นได้อย่างไร] และอ่านเกี่ยวกับ [กรณีศึกษาทางธุรกิจของ Amazon Pharmacy]
การสร้างแอปพลิเคชันที่เชื่อถือได้ด้วยมาตรการรักษาความปลอดภัยและ HITL
เพื่อให้เป็นไปตามมาตรฐาน HIPAA และให้ความเป็นส่วนตัวแก่ผู้ป่วย เราได้ใช้แนวทางปฏิบัติด้านการกำกับดูแลข้อมูลที่เข้มงวด ในขณะที่ใช้แนวทางแบบไฮบริดที่รวม LLM ที่ปรับแต่งมาอย่างละเอียดโดยใช้ Amazon Bedrock API และ [Retrieval Augmented Generation] (RAG) โดยใช้ [Amazon OpenSearch Service] การผสมผสานนี้ช่วยให้สามารถดึงความรู้ได้อย่างมีประสิทธิภาพ ในขณะที่ยังคงรักษาความแม่นยำสูงสำหรับ Task ย่อยเฉพาะ
การจัดการภาพหลอนของ LLM ซึ่งมีความสำคัญอย่างยิ่งในด้านการดูแลสุขภาพ จำเป็นมากกว่าการปรับแต่งอย่างละเอียดในชุดข้อมูลขนาดใหญ่ โซลูชันของเราใช้มาตรการรักษาความปลอดภัยเฉพาะโดเมนที่สร้างขึ้นบน [Amazon Bedrock Guardrails] และเสริมด้วยการกำกับดูแล Human-in-the-Loop (HITL) เพื่อปรับปรุงความน่าเชื่อถือของระบบ
ทีมงาน Amazon Pharmacy ยังคงปรับปรุงระบบนี้อย่างต่อเนื่องด้วยข้อเสนอแนะแบบเรียลไทม์จากเภสัชกร และฟังก์ชันรูปแบบใบสั่งยาที่ขยายใหญ่ขึ้น แนวทางที่สมดุลของนวัตกรรม ความเชี่ยวชาญเฉพาะด้าน บริการ AI ขั้นสูง และการกำกับดูแลของมนุษย์ ไม่เพียงแต่ปรับปรุงประสิทธิภาพด้านการดำเนินงานเท่านั้น แต่ยังหมายความว่าระบบ AI สามารถเพิ่มศักยภาพให้กับผู้เชี่ยวชาญด้านการดูแลสุขภาพได้อย่างเหมาะสม เพื่อให้การดูแลผู้ป่วยที่ดีที่สุด
ไฮไลท์รีวิวจากลูกค้าที่ขับเคลื่อนด้วย Generative AI
ตัวอย่างก่อนหน้าของเราแสดงให้เห็นว่า Amazon Pharmacy สามารถรวม LLM เข้ากับเวิร์กโฟลว์แบบเรียลไทม์สำหรับการประมวลผลใบสั่งยาได้อย่างไร ในขณะที่กรณีการใช้งานนี้แสดงให้เห็นว่าเทคโนโลยีที่คล้ายกัน (SLM, ML แบบดั้งเดิม และการออกแบบเวิร์กโฟลว์ที่รอบคอบ) สามารถนำไปใช้กับ [Offline Batch Inference] ขนาดใหญ่ได้อย่างไร
Amazon ได้เปิดตัว [ไฮไลท์รีวิวจากลูกค้าที่สร้างโดย AI] เพื่อจัดการกับรีวิวผลิตภัณฑ์และคะแนนกว่า 200 ล้านรายการต่อปี คุณสมบัตินี้กลั่นกรองความคิดเห็นของลูกค้าร่วมกันเป็นย่อหน้าสั้นๆ โดยเน้นข้อเสนอแนะเชิงบวก กลาง และเชิงลบเกี่ยวกับผลิตภัณฑ์และคุณสมบัติ ผู้ซื้อสามารถเข้าใจฉันทามติได้อย่างรวดเร็ว ในขณะที่ยังคงไว้ซึ่งความโปร่งใสด้วยการให้การเข้าถึงรีวิวจากลูกค้าที่เกี่ยวข้องและรักษาความคิดเห็นเดิมไว้
ระบบนี้ช่วยเพิ่มประสิทธิภาพในการตัดสินใจซื้อของลูกค้าด้วยอินเทอร์เฟซที่ลูกค้าสามารถสำรวจไฮไลท์รีวิวได้โดยการเลือกคุณสมบัติบางอย่าง (เช่น คุณภาพของภาพ ความสามารถในการควบคุมระยะไกล หรือการติดตั้ง Fire TV ได้ง่าย) คุณสมบัติเหล่านี้แสดงถึงอารมณ์เชิงบวกด้วยเครื่องหมายถูกสีเขียว อารมณ์เชิงลบด้วยเครื่องหมายลบสีส้ม และความเป็นกลางด้วยสีเทา ซึ่งหมายความว่าผู้ซื้อสามารถระบุข้อดีและข้อเสียของผลิตภัณฑ์ได้อย่างรวดเร็วโดยอิงจากรีวิวการซื้อที่ได้รับการยืนยันแล้ว
การใช้ LLM อย่างคุ้มค่าสำหรับกรณีการใช้งานออฟไลน์
ทีมงานได้พัฒนาสถาปัตยกรรมแบบไฮบริดที่คุ้มค่า ซึ่งรวมวิธีการ ML แบบดั้งเดิมเข้ากับ SLM ที่เชี่ยวชาญ แนวทางนี้กำหนด Sentiment Analysis และการดึงคีย์เวิร์ดให้กับ ML แบบดั้งเดิม ในขณะที่ใช้ SLM ที่ปรับให้เหมาะสมสำหรับการสร้างข้อความที่ซับซ้อน ซึ่งช่วยเพิ่มความถูกต้องและประสิทธิภาพในการประมวลผล
คุณสมบัตินี้ใช้ [SageMaker Batch Transform] สำหรับการประมวลผลแบบอะซิงโครนัส ซึ่งช่วยลดต้นทุนได้อย่างมากเมื่อเทียบกับ Endpoints แบบเรียลไทม์ เพื่อมอบประสบการณ์ที่ใกล้เคียงกับ Zero Latency โซลูชันนี้ [cache] ข้อมูลเชิงลึกที่ดึงมาและรีวิวที่มีอยู่ ซึ่งช่วยลดเวลารอ และช่วยให้ลูกค้าหลายรายสามารถเข้าถึงได้พร้อมกันโดยไม่ต้องมีการคำนวณเพิ่มเติม ระบบจะประมวลผลรีวิวใหม่ๆ เพิ่มขึ้นเรื่อยๆ โดยอัปเดตข้อมูลเชิงลึกโดยไม่ต้องประมวลผลชุดข้อมูลทั้งหมดซ้ำ เพื่อประสิทธิภาพสูงสุดและคุ้มค่า คุณสมบัตินี้ใช้ [Amazon Elastic Compute Cloud] (Amazon EC2) [Inf2 instances] สำหรับ Batch Transform jobs [ให้ประสิทธิภาพต่อราคามากขึ้นถึง 40% เมื่อเทียบกับทางเลือกอื่น]
ด้วยการทำตามแนวทางที่ครอบคลุมนี้ ทีมงานจึงจัดการต้นทุนได้อย่างมีประสิทธิภาพ ในขณะที่จัดการกับรีวิวและผลิตภัณฑ์จำนวนมาก ซึ่งทำให้โซลูชันมีประสิทธิภาพและปรับขนาดได้
การสร้างภาพและวิดีโอโฆษณาที่ขับเคลื่อนด้วย AI ของ Amazon Ads
ในตัวอย่างก่อนหน้านี้ เราได้สำรวจแอปพลิเคชัน Generative AI ที่เน้นข้อความเป็นหลัก ตอนนี้เราจะเปลี่ยนไปใช้ Generative AI แบบ Multimodal พร้อม [การสร้างเนื้อหาโฆษณาที่ได้รับการสนับสนุนจาก Amazon Ads] โซลูชันนี้มีฟังก์ชันการสร้าง [ภาพ] และ [วิดีโอ] และเราจะแชร์รายละเอียดเกี่ยวกับคุณสมบัติเหล่านี้ในส่วนนี้ โดยรวมแล้ว แกนหลักของโซลูชันนี้ใช้โมเดลการสร้างเนื้อหาเชิงสร้างสรรค์ [Amazon Nova]
จากการทำงานย้อนหลังจากความต้องการของลูกค้า แบบสำรวจที่ Amazon ดำเนินการในเดือนมีนาคม 2023 พบว่าเกือบ 75% ของผู้โฆษณาได้ระบุว่าการสร้างเนื้อหาเชิงสร้างสรรค์เป็นความท้าทายที่สำคัญที่สุดในการพยายามประสบความสำเร็จในแคมเปญโฆษณา ผู้โฆษณาจำนวนมาก โดยเฉพาะผู้ที่ไม่มีความสามารถภายในองค์กรหรือการสนับสนุนจากเอเจนซี กำลังเผชิญกับอุปสรรคสำคัญเนื่องจากความเชี่ยวชาญและต้นทุนในการผลิตภาพคุณภาพสูง โซลูชัน Amazon Ads ทำให้การสร้างเนื้อหาภาพเป็นประชาธิปไตย ทำให้ผู้โฆษณาทุกขนาดสามารถเข้าถึงและใช้งานได้อย่างมีประสิทธิภาพ ผลกระทบนั้นมีมาก: ผู้โฆษณาที่ใช้ภาพที่สร้างโดย AI ในแคมเปญโฆษณา [Sponsored Brands] มี [Click-Through Rate (CTR)] ใกล้เคียงกับ 8% และส่งแคมเปญได้มากกว่าผู้ที่ไม่ใช่ผู้ใช้ถึง 88%
ปีที่แล้ว AWS Machine Learning Blog ได้เผยแพร่บทความ [ให้รายละเอียดเกี่ยวกับโซลูชันการสร้างภาพ] ตั้งแต่นั้นมา Amazon ได้นำ [Amazon Nova Canvas] มาใช้เป็นพื้นฐานสำหรับการสร้างภาพเชิงสร้างสรรค์ การใช้ Prompt ข้อความหรือภาพ ร่วมกับฟังก์ชันการแก้ไขตามข้อความ และการควบคุมสำหรับโทนสีและการปรับเลย์เอาต์ สร้างภาพระดับมืออาชีพ
ในเดือนกันยายน 2024 ทีม Amazon Ads ได้เพิ่มความสามารถในการสร้าง [โฆษณาวิดีโอสั้นๆ] จากภาพผลิตภัณฑ์ คุณสมบัตินี้ใช้ [Foundation Models ที่มีอยู่ใน Amazon Bedrock] เพื่อให้ลูกค้าสามารถควบคุมสไตล์ภาพ จังหวะ การเคลื่อนกล้อง การหมุน และการซูมผ่านภาษาธรรมชาติได้ ช่วยให้ลูกค้าควบคุมได้ ใช้เวิร์กโฟลว์ของเอเจนต์เพื่ออธิบายสตอรี่บอร์ดวิดีโอก่อน จากนั้นจึงสร้างเนื้อหาของเรื่องราว
ดังที่ได้กล่าวไว้ในบทความต้นฉบับ [Responsible AI] เป็นหัวใจสำคัญของโซลูชันนี้ และโมเดลสร้างสรรค์ของ Amazon Nova มาพร้อมกับการควบคุมในตัวเพื่อรองรับการใช้งาน AI ที่ปลอดภัยและมีความรับผิดชอบ รวมถึงลายน้ำและการตรวจสอบเนื้อหา
โซลูชันนี้ใช้ฟังก์ชัน [AWS Step Functions] และ [AWS Lambda] เพื่อประสานงานการประสานงานแบบ Serverless ของกระบวนการสร้างภาพและวิดีโอ เนื้อหาที่สร้างขึ้นจะถูกจัดเก็บไว้ใน [Amazon Simple Storage Service] (Amazon S3) ข้อมูลเมตาจะถูกจัดเก็บไว้ใน DynamoDB และ [Amazon API Gateway] ช่วยให้ลูกค้าเข้าถึงฟังก์ชันการสร้างได้ โซลูชันนี้ได้นำ Amazon Bedrock Guardrails มาใช้ นอกเหนือจากการรักษาการบูรณาการ [Amazon Rekognition] และ [Amazon Comprehend] ไว้ในขั้นตอนต่างๆ สำหรับการตรวจสอบความปลอดภัยเพิ่มเติม
การสร้างโฆษณาเชิงสร้างสรรค์คุณภาพสูงในวงกว้างนำมาซึ่งความท้าทายที่ซับซ้อน โมเดล Generative AI จำเป็นต้องสร้างรูปภาพที่น่าดึงดูดและเหมาะสมกับแบรนด์ในหมวดหมู่ผลิตภัณฑ์และสภาพแวดล้อมการโฆษณาที่หลากหลาย ในขณะเดียวกันก็ทำให้ผู้โฆษณาทุกระดับความสามารถทางเทคนิคสามารถเข้าถึงได้ การประกันคุณภาพและการปรับปรุงเป็นรากฐานที่สำคัญของฟังก์ชันการสร้างภาพและวิดีโอ ระบบได้รับการปรับปรุงอย่างต่อเนื่องผ่านกระบวนการ HITL ที่ครอบคลุมซึ่งดำเนินการผ่าน [Amazon SageMaker Ground Truth] การใช้งานนี้มอบเครื่องมือที่มีประสิทธิภาพที่สามารถเปลี่ยนแปลงกระบวนการสร้างสรรค์ของผู้โฆษณา ทำให้การสร้างเนื้อหาภาพคุณภาพสูงในหมวดหมู่ผลิตภัณฑ์และสภาพแวดล้อมต่างๆ เป็นเรื่องง่ายขึ้น
นี่เป็นเพียงจุดเริ่มต้นของวิธีที่ Amazon Ads ใช้ Generative AI เพื่อช่วยเหลือผู้โฆษณาที่ต้องการสร้างเนื้อหาที่สอดคล้องกับเป้าหมายการโฆษณา โซลูชันแสดงให้เห็นว่าการลดอุปสรรคในการสร้างสรรค์สามารถปรับปรุงแคมเปญโฆษณาได้อย่างไร โดยในขณะเดียวกันก็รักษาระดับสูงของการใช้งาน AI ที่มีความรับผิดชอบ
บทเรียนทางเทคนิคที่สำคัญและการอภิปราย
แอปพลิเคชันที่ไม่ใช่แบบสนทนาได้รับประโยชน์จากความอดทนต่อเวลาแฝงที่สูงขึ้น ซึ่งช่วยให้สามารถประมวลผลเป็นชุดและแคชได้ แต่เนื่องจากความเป็นอิสระ จึงต้องการกลไกการตรวจสอบที่แข็งแกร่งและมาตรการรักษาความปลอดภัยที่แข็งแกร่งยิ่งขึ้น ข้อมูลเชิงลึกเหล่านี้ใช้ได้กับการใช้งาน AI ทั้งที่ไม่ใช่แบบสนทนาและแบบสนทนา:
- Decomposition Task และเวิร์กโฟลว์ของเอเจนต์ – การแยกปัญหาที่ซับซ้อนออกเป็นส่วนประกอบที่เล็กลงได้รับการพิสูจน์แล้วว่ามีคุณค่าในการใช้งานต่างๆ การแยกส่วนที่รอบคอบนี้โดยผู้เชี่ยวชาญเฉพาะด้านช่วยให้สามารถสร้างโมเดลเฉพาะทางสำหรับ Task ย่อยเฉพาะได้ ดังที่แสดงให้เห็นในการประมวลผลใบสั่งยาของ Amazon Pharmacy ซึ่ง SLM ที่ปรับแต่งมาอย่างละเอียดสามารถจัดการ Task ที่แยกจากกันได้ เช่น การระบุปริมาณยา กลยุทธ์นี้อนุญาตให้สร้างเอเจนต์เฉพาะทางด้วยขั้นตอนการตรวจสอบที่ชัดเจน ซึ่งช่วยเพิ่มความน่าเชื่อถือและลดความซับซ้อนในการบำรุงรักษา กรณีการใช้งานข้อมูลสินค้าของผู้ขายของ Amazon ได้แสดงให้เห็นสิ่งนี้ผ่านเวิร์กโฟลว์หลายขั้นตอนพร้อมกระบวนการสร้างและการตรวจสอบแยกกัน นอกจากนี้ กรณีการใช้งานไฮไลท์รีวิวยังแสดงให้เห็นถึงการใช้งาน LLM ที่คุ้มค่าและควบคุมได้ นั่นคือการใช้ ML แบบดั้งเดิมสำหรับการประมวลผลล่วงหน้าตลอดจนการ Tasks ส่วนที่สามารถเชื่อมโยงกับ Tasks LLM
- สถาปัตยกรรมแบบไฮบริดและการเลือกโมเดล – การรวม ML แบบดั้งเดิมเข้ากับ LLM ช่วยให้สามารถควบคุมและคุ้มค่าได้มากขึ้นเมื่อเทียบกับวิธีการ LLM แบบบริสุทธิ์ ML แบบดั้งเดิมเก่งในการจัดการกับ Tasks ที่กำหนดไว้อย่างชัดเจน ดังที่ระบบไฮไลท์รีวิวใช้สำหรับการ Sentiment Analysis และการดึงข้อมูล ทีม Amazon ได้ปรับใช้ LLM ขนาดใหญ่และขนาดเล็กอย่างมีกลยุทธ์ตามความต้องการ รวม RAG เข้ากับการปรับแต่งอย่างละเอียดสำหรับการใช้งานเฉพาะโดเมนที่มีประสิทธิภาพ เช่น การใช้งาน Amazon Pharmacy
- กลยุทธ์การเพิ่มประสิทธิภาพต้นทุน – ทีม Amazon ได้บรรลุประสิทธิภาพด้วยการประมวลผลเป็นชุด กลไกการแคชสำหรับการดำเนินงานที่มีปริมาณมาก ประเภท Instances เฉพาะ เช่น [AWS Inferentia] และ [AWS Trainium] และการเลือกโมเดลที่ปรับให้เหมาะสม ไฮไลท์รีวิวแสดงให้เห็นว่าการประมวลผลแบบเพิ่มจำนวนสามารถลดความต้องการในการคำนวณได้อย่างไร ในขณะที่ Amazon Ads ใช้ Amazon Nova [Foundation Models] (FM) เพื่อสร้างเนื้อหาเชิงสร้างสรรค์ได้อย่างคุ้มค่า
- การประกันคุณภาพและกลไกการควบคุม – การควบคุมคุณภาพขึ้นอยู่กับมาตรการรักษาความปลอดภัยเฉพาะโดเมนผ่าน Amazon Bedrock Guardrails และการตรวจสอบหลายชั้นที่รวมการทดสอบอัตโนมัติกับการประเมินของมนุษย์ แนวทาง LLM สองขั้นตอนสำหรับการสร้างและการตรวจสอบช่วยป้องกันภาพหลอนในข้อมูลสินค้าของผู้ขายของ Amazon ในขณะที่เทคนิคการไตร่ตรองตนเองช่วยเพิ่มความแม่นยำ Amazon Nova Creative FM นำเสนอการควบคุม AI ที่มีความรับผิดชอบโดยธรรมชาติ และเสริมด้วยการทดสอบ A/B อย่างต่อเนื่องและการวัดประสิทธิภาพ
- การใช้งาน HITL – วิธีการ HITL ครอบคลุมหลายเลเยอร์ ตั้งแต่การประเมินโดยผู้เชี่ยวชาญของเภสัชกรไปจนถึงข้อเสนอแนะของผู้ใช้ปลายทางของพันธมิตรด้านการขาย ทีม Amazon ได้สร้างเวิร์กโฟลว์การปรับปรุงที่มีโครงสร้าง ซึ่งทำให้เกิดความสมดุลระหว่างระบบอัตโนมัติและการกำกับดูแลของมนุษย์ตามข้อกำหนดเฉพาะของโดเมนและโปรไฟล์ความเสี่ยง
- AI ที่มีความรับผิดชอบและการปฏิบัติตามข้อกำหนด – แนวทางปฏิบัติ AI ที่มีความรับผิดชอบ รวมถึงมาตรการรักษาความปลอดภัยสำหรับการรับเนื้อหาในสภาพแวดล้อมที่มีการควบคุม เช่นเดียวกับการปฏิบัติตามข้อกำหนดต่างๆ เช่น HIPAA ทีม Amazon ได้รวมการตรวจสอบเนื้อหาสำหรับแอปพลิเคชันที่หันหน้าไปทางผู้ใช้ รักษาความโปร่งใสสำหรับไฮไลท์รีวิวโดยการให้การเข้าถึงข้อมูลต้นทาง และใช้การกำกับดูแลข้อมูลด้วยการตรวจสอบเพื่อปรับปรุงคุณภาพและการปฏิบัติตามข้อกำหนด
รูปแบบเหล่านี้ช่วยให้สามารถสร้างโซลูชัน Generative AI ที่ปรับขนาดได้ เชื่อถือได้ และคุ้มค่า ในขณะที่ยังคงรักษาระดับคุณภาพและความรับผิดชอบ การใช้งานเหล่านี้แสดงให้เห็นว่าโซลูชันที่มีประสิทธิภาพไม่เพียงต้องการโมเดลขั้นสูงเท่านั้น แต่ยังต้องให้ความสนใจอย่างใกล้ชิดกับสถาปัตยกรรม การดำเนินงาน และการกำกับดูแล ซึ่งได้รับการสนับสนุนโดยบริการ AWS และแนวทางปฏิบัติที่จัดตั้งขึ้น
ขั้นตอนต่อไป
ตัวอย่าง Amazon ที่แชร์ในบทความนี้แสดงให้เห็นว่า Generative AI สามารถสร้างมูลค่าที่เหนือกว่าผู้ช่วยแบบสนทนาแบบดั้งเดิมได้อย่างไร เราขอเชิญคุณให้ปฏิบัติตามตัวอย่างเหล่านี้หรือสร้างโซลูชันของคุณเอง เพื่อทำความเข้าใจว่า Generative AI สามารถปรับเปลี่ยนธุรกิจของคุณหรือแม้แต่อุตสาหกรรมของคุณได้อย่างไร คุณสามารถเยี่ยมชมหน้า [กรณีการใช้งาน Generative AI ของ AWS] เพื่อเริ่มกระบวนการระดมความคิด
ตัวอย่างเหล่านี้แสดงให้เห็นว่าการใช้งาน Generative AI ที่มีประสิทธิภาพมักจะได้รับประโยชน์จากการรวมโมเดลและเวิร์กโฟลว์ประเภทต่างๆ หากต้องการเรียนรู้ว่าบริการ AWS รองรับ FM ใด โปรดดู [โมเดล Foundation ที่รองรับใน Amazon Bedrock] และ [Amazon SageMaker JumpStart Foundation Models] เราขอแนะนำให้คุณสำรวจ [Amazon Bedrock Flows] ซึ่งสามารถลดความซับซ้อนของเส้นทางในการสร้างเวิร์กโฟลว์ได้ นอกจากนี้ เราขอแจ้งเตือนคุณว่าตัวเร่งความเร็ว Trainium และ Inferentia ให้การประหยัดต้นทุนที่สำคัญในการใช้งานเหล่านี้
ดังที่แสดงให้เห็นในตัวอย่างที่เราได้อธิบายไป เวิร์กโฟลว์ของเอเจนต์ได้รับการพิสูจน์แล้วว่ามีค่าเป็นพิเศษ เราขอแนะนำให้คุณเรียกดู [Amazon Bedrock Agents] เพื่อสร้างเวิร์กโฟลว์ของเอเจนต์อย่างรวดเร็ว
การใช้งาน Generative AI ที่ประสบความสำเร็จไม่ได้เป็นเพียงแค่การเลือกโมเดลเท่านั้น แต่ยังแสดงถึงกระบวนการพัฒนาซอฟต์แวร์ที่ครอบคลุมตั้งแต่การทดลองไปจนถึงการตรวจสอบแอปพลิเคชัน หากต้องการเริ่มต้นสร้างรากฐานของคุณในบริการที่จำเป็นเหล่านี้ เราขอเชิญคุณให้เรียกดู [Amazon QuickStart]
หากต้องการเรียนรู้เพิ่มเติมเกี่ยวกับวิธีที่ Amazon ใช้ AI โปรดดู [AI ที่ Amazon] ใน Amazon News