Google Cloud และ Nvidia กำลังกระชับความร่วมมือเพื่อขับเคลื่อนความก้าวหน้าในด้านปัญญาประดิษฐ์ (AI) ความร่วมมือนี้มุ่งเน้นไปที่การบูรณาการโมเดล Gemini ของ Google และ GPU Blackwell ของ Nvidia เพื่อปรับปรุงประสิทธิภาพการทำงานของ AI ให้เหมาะสม นวัตกรรมที่สำคัญ ได้แก่ การปรับใช้โมเดล Gemini ในสถานที่ การปรับปรุงประสิทธิภาพสำหรับ Gemini บน Nvidia GPUs ชุมชนนักพัฒนาใหม่ Confidential VMs และความพร้อมใช้งานของ A4 VMs บน Blackwell GPUs
Gemini Models On-Premise พร้อม Nvidia Blackwell
ขณะนี้ Google Gemini สามารถปรับใช้ในสถานที่ได้โดยใช้ Nvidia Blackwell ผ่าน Google Distributed Cloud การปรับใช้นี้ช่วยให้องค์กรสามารถใช้โมเดล Gemini อย่างปลอดภัยภายในศูนย์ข้อมูลของตนเอง ซึ่งช่วยให้พวกเขามีขีดความสามารถ AI ที่ขับเคลื่อนด้วยเอเจนต์
ทำความเข้าใจเกี่ยวกับ Gemini Models
กลุ่มโมเดล Gemini แสดงถึงโมเดล AI ที่ล้ำสมัยที่สุดของ Google ในปัจจุบัน โมเดลเหล่านี้ได้รับการออกแบบมาสำหรับการให้เหตุผลที่ซับซ้อน การเขียนโค้ด และความเข้าใจแบบมัลติโมเดล ทำให้เป็นเครื่องมืออเนกประสงค์สำหรับการใช้งานที่หลากหลาย
Google Distributed Cloud
Google Distributed Cloud นำเสนอโซลูชันที่มีการจัดการอย่างสมบูรณ์สำหรับสภาพแวดล้อมในสถานที่ ช่องว่างอากาศ และการประมวลผล Edge สิ่งนี้ช่วยให้ลูกค้าสามารถควบคุมข้อมูลของตนเองได้ ในขณะที่ยังคงใช้ประโยชน์จากพลังของเทคโนโลยี AI ของ Google
ข้อดีของการปรับใช้ On-Premise
การควบคุมที่เพิ่มขึ้น: องค์กรสามารถควบคุมข้อมูลของตนเองได้อย่างเต็มที่ ทำให้มั่นใจได้ถึงการปฏิบัติตามกฎระเบียบด้านความเป็นส่วนตัวและนโยบายภายใน
ความปลอดภัย: การปรับใช้โมเดล Gemini ภายในศูนย์ข้อมูลของตนเองช่วยให้มีความปลอดภัยและการปกป้องข้อมูลที่ละเอียดอ่อนมากขึ้น
การปรับแต่ง: การปรับใช้ในสถานที่ช่วยให้สามารถปรับแต่งโซลูชัน AI ให้ตรงกับความต้องการทางธุรกิจเฉพาะได้มากยิ่งขึ้น
ความร่วมมือครั้งนี้ช่วยให้มั่นใจได้ว่าลูกค้าสามารถสร้างสรรค์สิ่งใหม่ๆ ด้วย Gemini ในขณะที่ปฏิบัติตามนโยบายการกำกับดูแลข้อมูลที่เข้มงวด
การเพิ่มประสิทธิภาพ Gemini และ Gemma สำหรับ Nvidia GPUs
Nvidia และ Google ได้ร่วมมือกันเพื่อเพิ่มประสิทธิภาพการทำงานของ Gemini-based inference workloads บน Nvidia GPUs โดยเฉพาะอย่างยิ่งภายในแพลตฟอร์ม Vertex AI ของ Google Cloud การเพิ่มประสิทธิภาพนี้ช่วยให้ Google สามารถจัดการจำนวนการสืบค้นของผู้ใช้จำนวนมากสำหรับโมเดล Gemini บนโครงสร้างพื้นฐานที่เร่งด้วย Nvidia ทั่วทั้ง Vertex AI และ Google Distributed Cloud ได้อย่างมีประสิทธิภาพ
Vertex AI Platform
Vertex AI เป็นแพลตฟอร์มที่ครอบคลุมของ Google Cloud สำหรับ Machine Learning โดยนำเสนอเครื่องมือและบริการสำหรับการฝึกอบรม การปรับใช้ และการจัดการโมเดล AI การเพิ่มประสิทธิภาพ Gemini สำหรับ Nvidia GPUs ภายใน Vertex AI ช่วยเพิ่มขีดความสามารถของแพลตฟอร์ม และทำให้ผู้พัฒนาสามารถสร้างและปรับใช้โซลูชัน AI ได้ง่ายขึ้น
Gemma Family of Models
กลุ่มโมเดลโอเพนซอร์สขนาดเล็ก Gemma ได้รับการปรับให้เหมาะสมสำหรับการอนุมานโดยใช้ไลบรารี Nvidia TensorRT-LLM คาดว่าโมเดลเหล่านี้จะนำเสนอเป็น Nvidia NIM microservices ที่ปรับใช้ได้ง่าย ทำให้เข้าถึงได้สำหรับนักพัฒนาในวงกว้างยิ่งขึ้น
Nvidia TensorRT-LLM
Nvidia TensorRT-LLM เป็นไลบรารีสำหรับการเพิ่มประสิทธิภาพและปรับใช้ Large Language Models (LLMs) บน Nvidia GPUs ด้วยการเพิ่มประสิทธิภาพโมเดล Gemma ด้วย TensorRT-LLM Nvidia และ Google กำลังทำให้ผู้พัฒนาสามารถใช้ประโยชน์จากพลังของ LLMs ในแอปพลิเคชันของตนได้ง่ายขึ้น
การเข้าถึงสำหรับนักพัฒนา
การเพิ่มประสิทธิภาพเหล่านี้เพิ่มประสิทธิภาพการทำงานสูงสุด และทำให้ AI ขั้นสูงเข้าถึงได้ง่ายขึ้นสำหรับนักพัฒนา ช่วยให้พวกเขาสามารถเรียกใช้งาน workloads บนสถาปัตยกรรมต่างๆ ทั่วทั้งศูนย์ข้อมูล และ PCs และ workstations ที่ขับเคลื่อนด้วย Nvidia RTX ในพื้นที่
เปิดตัวชุมชนนักพัฒนา Google Cloud และ Nvidia
Google Cloud และ Nvidia ได้เปิดตัวชุมชนนักพัฒนาร่วมใหม่ เพื่อเร่งการเพิ่มพูนทักษะและการสร้างสรรค์นวัตกรรม ชุมชนนี้รวบรวมผู้เชี่ยวชาญและเพื่อนร่วมงานเพื่อทำงานร่วมกันและแบ่งปันความรู้ ทำให้ผู้พัฒนาสามารถสร้าง ปรับขนาด และปรับใช้แอปพลิเคชัน AI รุ่นต่อไปได้ง่ายขึ้น
ข้อดีของชุมชนนักพัฒนา
การแบ่งปันความรู้: ชุมชนเป็นแพลตฟอร์มสำหรับนักพัฒนาในการแบ่งปันความเชี่ยวชาญและเรียนรู้จากผู้อื่น
การทำงานร่วมกัน: นักพัฒนาสามารถทำงานร่วมกันในโครงการและแบ่งปันโค้ด เร่งกระบวนการพัฒนา
การสนับสนุน: ชุมชนให้การสนับสนุนและคำแนะนำสำหรับนักพัฒนาที่กำลังสร้างแอปพลิเคชัน AI
ความคิดริเริ่มนี้รวมเอาความเป็นเลิศทางวิศวกรรม ความเป็นผู้นำด้านโอเพนซอร์ส และระบบนิเวศนักพัฒนาที่มีชีวิตชีวา เพื่อเสริมศักยภาพให้กับนักพัฒนา และขับเคลื่อนนวัตกรรมในพื้นที่ AI
Open-Source Frameworks
บริษัทต่างๆ ให้การสนับสนุนชุมชนนักพัฒนาโดยการเพิ่มประสิทธิภาพ Frameworks โอเพนซอร์ส เช่น JAX เพื่อการปรับขนาดที่ราบรื่นบน Blackwell GPUs สิ่งนี้ช่วยให้ AI workloads สามารถทำงานได้อย่างมีประสิทธิภาพในโหนดนับหมื่น ทำให้ง่ายต่อการฝึกอบรมและปรับใช้โมเดล AI ขนาดใหญ่
JAX Optimization
JAX เป็นไลบรารีการคำนวณตัวเลขประสิทธิภาพสูงที่พัฒนาโดย Google ด้วยการเพิ่มประสิทธิภาพ JAX สำหรับ Blackwell GPUs Nvidia และ Google กำลังทำให้ผู้พัฒนาสามารถใช้ประโยชน์จากพลังของ JAX ในแอปพลิเคชัน AI ของตนได้ง่ายขึ้น
Confidential VMs และ GKE Nodes พร้อม Nvidia H100 GPUs
ขณะนี้ Confidential Virtual Machines (VMs) ของ Google Cloud ในซีรี่ส์ A3 ที่ปรับให้เหมาะสมกับตัวเร่งความเร็วพร้อม Nvidia H100 GPUs พร้อมใช้งานในรูปแบบ Preview ในทำนองเดียวกัน Confidential Google Kubernetes Engine (GKE) nodes ก็ถูกนำเสนอเช่นกัน โซลูชันการประมวลผลที่เป็นความลับเหล่านี้ช่วยให้มั่นใจได้ถึงความเป็นความลับและความสมบูรณ์ของการจำลอง AI, Machine Learning และ Scientific โดยใช้ GPUs ที่ได้รับการป้องกันในขณะที่ข้อมูลถูกใช้งาน
Confidential Virtual Machines
Confidential VMs เข้ารหัสข้อมูลที่ใช้งานอยู่ โดยให้ชั้นความปลอดภัยเพิ่มเติมสำหรับ workloads ที่ละเอียดอ่อน สิ่งนี้ทำให้มั่นใจได้ว่าข้อมูลยังคงได้รับการปกป้องแม้ในระหว่างการประมวลผล ลดความเสี่ยงของการเข้าถึงโดยไม่ได้รับอนุญาต
Google Kubernetes Engine
Google Kubernetes Engine (GKE) เป็นบริการ Kubernetes ที่มีการจัดการ ซึ่งช่วยลดความยุ่งยากในการปรับใช้และจัดการแอปพลิเคชัน Containerized Confidential GKE nodes ให้ความปลอดภัยในระดับเดียวกับ Confidential VMs ทำให้มั่นใจได้ว่า Containerized workloads ได้รับการปกป้อง
ประโยชน์ด้านความปลอดภัย
การปกป้องข้อมูล: Confidential VMs และ GKE nodes ปกป้องข้อมูลที่ใช้งานอยู่ ลดความเสี่ยงของการละเมิดข้อมูล
การปฏิบัติตามข้อกำหนด: โซลูชันเหล่านี้ช่วยให้องค์กรปฏิบัติตามกฎระเบียบด้านความเป็นส่วนตัวและมาตรฐานอุตสาหกรรม
ความไว้วางใจ: Confidential computing สร้างความไว้วางใจโดยทำให้มั่นใจได้ว่าข้อมูลยังคงเป็นความลับและได้รับการปกป้องตลอดวงจรชีวิตทั้งหมด
สิ่งนี้ช่วยให้เจ้าของข้อมูลและโมเดลสามารถควบคุมเส้นทางของข้อมูลของตนเองได้โดยตรง โดย Nvidia Confidential Computing นำเสนอความปลอดภัยที่ได้รับการสนับสนุนจากฮาร์ดแวร์ขั้นสูงสำหรับการประมวลผลแบบเร่งความเร็ว สิ่งนี้ให้ความมั่นใจมากขึ้นเมื่อสร้างและนำโซลูชันและบริการ AI ที่เป็นนวัตกรรมมาใช้
Google’s New A4 VMs พร้อมใช้งานโดยทั่วไปบน Nvidia Blackwell GPUs
ในเดือนกุมภาพันธ์ Google Cloud ได้เปิดตัว Virtual Machines A4 ใหม่ ซึ่งมี Blackwell GPUs แปดตัวที่เชื่อมต่อกันด้วย Nvidia NVLink สิ่งนี้ให้ประสิทธิภาพที่สูงขึ้นอย่างมากเมื่อเทียบกับรุ่นก่อนหน้า ทำให้ง่ายต่อการฝึกอบรมและปรับใช้โมเดล AI ขนาดใหญ่ ขณะนี้ Google Cloud’s new A4 VMs บน Nvidia HGX B200 พร้อมใช้งานโดยทั่วไปแล้ว ทำให้ลูกค้าสามารถเข้าถึงฮาร์ดแวร์ AI ล่าสุดได้
Nvidia NVLink
Nvidia NVLink เป็นเทคโนโลยี interconnect ความเร็วสูงที่ช่วยให้การสื่อสารระหว่าง GPUs เป็นไปอย่างรวดเร็ว ด้วยการ interconnect Blackwell GPUs แปดตัวด้วย NVLink Google Cloud’s A4 VMs ให้ประสิทธิภาพที่เหนือชั้นสำหรับ AI workloads
Performance Boost
A4 VMs ให้ประสิทธิภาพที่สูงขึ้นอย่างมากเมื่อเทียบกับรุ่นก่อนหน้า ทำให้เหมาะสำหรับการฝึกอบรมและปรับใช้โมเดล AI ขนาดใหญ่ สิ่งนี้ช่วยให้นักพัฒนาสามารถวนซ้ำได้เร็วขึ้นและได้ผลลัพธ์ที่ดีขึ้นด้วยแอปพลิเคชัน AI ของพวกเขา
การเข้าถึงผ่าน Vertex AI และ GKE
Google’s new VMs และสถาปัตยกรรม AI Hypercomputer สามารถเข้าถึงได้ผ่านบริการต่างๆ เช่น Vertex AI และ GKE ช่วยให้ลูกค้าสามารถเลือกเส้นทางในการพัฒนาและปรับใช้ Agentic AI applications ในวงกว้างได้ สิ่งนี้ทำให้องค์กรสามารถใช้ประโยชน์จากพลังของ AI ในแอปพลิเคชันของตนได้ง่ายขึ้น
เจาะลึกสถาปัตยกรรม Blackwell GPU
สถาปัตยกรรม Blackwell GPU ของ Nvidia ถือเป็นการก้าวกระโดดครั้งสำคัญในด้านพลังการประมวลผล ซึ่งเป็นการปรับเปลี่ยนภูมิทัศน์ของ AI และ High-Performance Computing โดยพื้นฐาน เพื่อให้เข้าใจอย่างแท้จริงถึงความสามารถของ A4 VMs และผลกระทบต่อ AI Innovation สิ่งสำคัญคือต้องเข้าใจเทคโนโลยีเบื้องหลังของ Blackwell GPUs
ความสามารถในการคำนวณที่เปลี่ยนแปลง
สถาปัตยกรรม Blackwell ได้รับการออกแบบมาเพื่อรองรับ AI workloads ที่มีความต้องการมากที่สุด รวมถึงการฝึกอบรม Massive Language Models (LLMs) และการเรียกใช้ Complex Simulations คุณสมบัติที่สำคัญ ได้แก่:
- Second-Generation Transformer Engine: เอ็นจินนี้ได้รับการปรับให้เหมาะสมโดยเฉพาะสำหรับ Transformer Models ซึ่งเป็นพื้นฐานของแอปพลิเคชัน AI สมัยใหม่จำนวนมาก ช่วยเร่งการฝึกอบรมและการอนุมานของโมเดลเหล่านี้ได้อย่างมาก
- Fifth-Generation NVLink: ดังที่กล่าวไว้ก่อนหน้านี้ NVLink ช่วยให้การสื่อสารความเร็วสูงระหว่าง GPUs ช่วยให้ทำงานร่วมกันได้อย่างราบรื่นใน Complex Tasks สิ่งนี้มีความสำคัญอย่างยิ่งสำหรับการฝึกอบรม Very Large Models ที่ต้องการพลังการประมวลผลโดยรวมของ GPUs หลายตัว
- Confidential Computing Support: Blackwell GPUs มีคุณสมบัติความปลอดภัยบนฮาร์ดแวร์ที่เปิดใช้งาน Confidential Computing ทำให้มั่นใจได้ถึงความเป็นส่วนตัวและความสมบูรณ์ของข้อมูลที่ละเอียดอ่อน
- Advanced Memory Technology: Blackwell GPUs ใช้ประโยชน์จากเทคโนโลยี Memory ล่าสุด โดยให้ Bandwidth และ Capacity สูงเพื่อจัดการกับ Datasets ขนาดใหญ่ที่ใช้ในแอปพลิเคชัน AI
ผลกระทบต่อ AI Workloads
การรวมกันของคุณสมบัติเหล่านี้ส่งผลให้ประสิทธิภาพการทำงานดีขึ้นอย่างมากสำหรับ AI Workloads ที่หลากหลาย Blackwell GPUs ช่วยให้นักพัฒนา:
- Train Larger Models: พลังการประมวลผลและความจุ Memory ที่เพิ่มขึ้นช่วยให้สามารถฝึกอบรม AI Models ที่มีขนาดใหญ่และซับซ้อนมากขึ้นได้อย่างมีนัยสำคัญ ซึ่งนำไปสู่ความแม่นยำและประสิทธิภาพที่ดีขึ้น
- Reduce Training Time: สถาปัตยกรรมที่ได้รับการปรับปรุงและ High-Speed Interconnects ช่วยลดเวลาที่ต้องใช้ในการฝึกอบรม AI Models ได้อย่างมาก เร่งกระบวนการพัฒนา
- Deploy More Efficiently: Blackwell GPUs ได้รับการออกแบบมาเพื่อประหยัดพลังงาน ช่วยให้สามารถปรับใช้ AI Models ในวงกว้างโดยไม่ต้องใช้พลังงานมากเกินไป
- Unlock New AI Applications: ประสิทธิภาพที่เหนือชั้นของ Blackwell GPUs เปิดโอกาสสำหรับ AI Applications ใหม่ๆ ที่ก่อนหน้านี้เป็นไปไม่ได้เนื่องจากข้อจำกัดด้านการคำนวณ
นัยเชิงกลยุทธ์สำหรับ Google Cloud และลูกค้า
การเป็นหุ้นส่วนที่เพิ่มขึ้นระหว่าง Google Cloud และ Nvidia ซึ่งมีศูนย์กลางอยู่ที่ Gemini, Blackwell และโครงสร้างพื้นฐานสนับสนุน มีนัยเชิงกลยุทธ์ที่สำคัญสำหรับทั้งสองบริษัทและลูกค้า
ความได้เปรียบในการแข่งขันสำหรับ Google Cloud
- Attracting AI-Focused Businesses: ด้วยการนำเสนอ AI Infrastructure ที่ล้ำสมัยซึ่งขับเคลื่อนโดย Nvidia Blackwell GPUs Google Cloud สามารถดึงดูดธุรกิจที่ลงทุนอย่างมากในการวิจัยและพัฒนา AI
- Differentiating from Competitors: การบูรณาการ Gemini และประสิทธิภาพที่ได้รับการปรับปรุงของ Google Cloud’s VMs ทำให้แตกต่างจาก Cloud Providers อื่นๆ
- Strengthening its AI Ecosystem: ความร่วมมือครั้งนี้มีส่วนช่วยสร้าง AI Ecosystem ที่แข็งแกร่ง โดยการเสริมศักยภาพให้กับนักพัฒนา ส่งเสริมนวัตกรรม และให้การเข้าถึง Advanced Tools และ Resources
ประโยชน์สำหรับลูกค้า
- Accelerated AI Innovation: ลูกค้าสามารถใช้ประโยชน์จากพลังของ Gemini และ Blackwell GPUs เพื่อเร่ง AI Initiatives ทำให้พวกเขาสามารถพัฒนาและปรับใช้ Innovative Solutions ได้เร็วขึ้น
- Improved Performance and Scalability: โครงสร้างพื้นฐานที่ได้รับการปรับปรุงช่วยให้มั่นใจได้ว่า AI Workloads ทำงานได้อย่างมีประสิทธิภาพ และสามารถปรับขนาดเพื่อตอบสนองความต้องการที่เพิ่มขึ้น
- Enhanced Security and Compliance: Confidential VMs และ GKE Nodes ให้คุณสมบัติ Security และ Compliance ที่จำเป็นในการปกป้อง Delicate Data
- Reduced Costs: ด้วยการเพิ่มประสิทธิภาพ AI Workloads สำหรับ Nvidia GPUs ลูกค้าสามารถลดต้นทุนการคำนวณได้
the Future of AI Development
ความร่วมมือครั้งนี้แสดงถึงการก้าวกระโดดครั้งสำคัญในการพัฒนา AI โดยการรวมความเชี่ยวชาญของ Google ใน AI Models เข้ากับความเป็นผู้นำของ Nvidia ในเทคโนโลยี GPU ทั้งสองบริษัทกำลังขับเคลื่อนนวัตกรรม และทำให้ Advanced AI Tools เข้าถึงได้ง่ายขึ้นสำหรับนักพัฒนา สิ่งนี้จะนำไปสู่การสร้าง AI Applications ใหม่ๆ น่าตื่นเต้นอย่างไม่ต้องสงสัย ซึ่งจะเปลี่ยนแปลงอุตสาหกรรมและปรับปรุงชีวิต
ทำความเข้าใจบทบาทของ Nvidia NIM Microservices
องค์ประกอบที่สำคัญของความคิดริเริ่มร่วมคือการเปิดตัว Nvidia NIM Microservices เพื่อทำความเข้าใจถึงความสำคัญ เราควรตรวจสอบอย่างใกล้ชิดยิ่งขึ้น
คำจำกัดความและฟังก์ชันการทำงาน
Nvidia NIM (Nvidia Inference Microservice) เป็น Software Sloution ที่ได้รับการออกแบบมาเพื่อปรับปรุงการปรับใช้ AI Models ช่วยห่อหุ้ม Pre-Trained Models, Inference Engines และ Dependencies ที่จำเป็นลงใน Containerized Microservice นั่นหมายความว่า NIM นำเสนอ Standardized Way เพื่อปรับใช้ AI Models โดยไม่คำนึงถึง Framework หรือ Hardware
ข้อดีที่สำคัญของ Nvidia NIM:
- Simplified Deployment: NIM ช่วยลดความซับซ้อนในการปรับใช้ AI Models ได้อย่างมาก ช่วยให้นักพัฒนาสามารถมุ่งเน้นไปที่การสร้างแอปพลิเคชันแทนที่จะจัดการ Infrastructure
- Hardware Acceleration: NIM ได้รับการปรับให้เหมาะสมสำหรับ Nvidia GPUs โดยใช้ความสามารถในการเร่งความเร็วเพื่อให้ได้ High-Performance Inference
- Scalability: NIM ได้รับการออกแบบมาเพื่อปรับขนาดในแนวนอน ซึ่งช่วยให้นักพัฒนาสามารถจัดการกับความต้องการที่เพิ่มขึ้นโดยไม่กระทบต่อ Performance
- Modularity: NIM อนุญาตให้ Modularity และการอัปเดต Models ที่แตกต่างกันได้อย่างรวดเร็วโดยไม่หยุดชะงัก Models อื่นๆ
NIM มีประโยชน์ต่อนักพัฒนาและองค์กรอย่างไร:
- Faster Time-to-Market: การปรับใช้ที่เรียบง่ายขึ้น NIM ช่วยให้นักพัฒนานำ AI-Powered Applications ออกสู่ตลาดได้เร็วขึ้น
- Reduced Costs: NIM ลด Infrastructure และค่าปฏิบัติงานด้วยการเพิ่มประสิทธิภาพการใช้ทรัพยากร
- Improved Performance: Hardware Acceleration ผ่าน NIM ให้ Throughput ที่สูงขึ้นและ Latency ที่ต่ำลง ปรับปรุง User Experience
- Increased Flexibility: Standardized Deployment กับ NIM ให้ความยืดหยุ่นที่มากขึ้นและช่วยให้นักพัฒนาสามารถสลับระหว่าง AI Models ที่แตกต่างกันได้อย่างง่ายดาย
สรุป
ความร่วมมือที่ขยายตัวระหว่าง Google Cloud และ Nvidia บ่งชี้ถึงความก้าวหน้าที่โดดเด่นในการพัฒนา AI การบูรณาการ Google’s Gemini Models กับ Nvidia’s Blackwell GPUs สร้างมาตรฐานใหม่สำหรับ AI Workload Optimization ความร่วมมือครั้งนี้ไม่เพียงแต่เร่งนวัตกรรม แต่ยังช่วยเพิ่ม Security, Scalability และ Accessibility สำหรับนักพัฒนา และองค์กรที่เกี่ยวข้องกับ AI นอกจากนี้ การเปิดตัว Google’s A4 VMs และ Nvidia’s NIM Microservices ถือเป็นช่วงเวลาที่สำคัญในการเสริมศักยภาพให้กับ AI Applications ส่งเสริมอนาคตที่ AI Solutions ถูกปรับใช้ในวงกว้างอย่างมีประสิทธิภาพ