NVIDIA และ Microsoft: ขับเคลื่อน AI Agent

NVIDIA และ Microsoft กำลังเร่งความร่วมมือเพื่อผลักดันความก้าวหน้าในการประยุกต์ใช้ Agentic AI ซึ่งครอบคลุมตั้งแต่โซลูชันบนคลาวด์ไปจนถึงคอมพิวเตอร์ส่วนบุคคล ความร่วมมือที่ลึกซึ้งยิ่งขึ้นนี้พร้อมที่จะเร่งการค้นพบทางวิทยาศาสตร์และส่งเสริมนวัตกรรมในภาคส่วนต่างๆ

ยกระดับงานวิจัยทางวิทยาศาสตร์ด้วย AI

Microsoft Discovery เตรียมที่จะรวม NVIDIA’s ALCHEMI NIM microservice การผสานรวมนี้มีความสำคัญอย่างยิ่งต่อการเพิ่มประสิทธิภาพ AI inference สำหรับการจำลองทางเคมีที่ซับซ้อน ซึ่งจะช่วยเร่งการวิจัยในด้านวิทยาศาสตร์วัสดุได้อย่างมากผ่านการทำนายคุณสมบัติที่แม่นยำและคำแนะนำผู้สมัครที่มีประสิทธิภาพ การปรับปรุงนี้สัญญาว่าจะปรับปรุงการระบุวัสดุใหม่ที่มีลักษณะที่ต้องการ ลดเวลาและทรัพยากรที่ต้องใช้ตามธรรมเนียม

นอกจากนี้ Microsoft Discovery จะรวม NVIDIA BioNeMo NIM microservices ไมโครเซอร์วิสเหล่านี้ได้รับการออกแบบมาเพื่อควบคุมเวิร์กโฟลว์ AI ที่ได้รับการฝึกอบรมล่วงหน้า ซึ่งจะช่วยเร่งกระบวนการพัฒนาแบบจำลอง AI สำหรับการค้นพบยา ด้วยการใช้เครื่องมือเหล่านี้ นักวิจัยสามารถพัฒนาและปรับแต่งแบบจำลอง AI ที่ทำนายประสิทธิภาพของยาและผลข้างเคียงที่อาจเกิดขึ้นได้อย่างรวดเร็ว ซึ่งนำไปสู่กระบวนการพัฒนายาที่มีประสิทธิภาพและตรงเป้าหมายมากขึ้น

การผสานรวมเหล่านี้ได้รับการออกแบบอย่างพิถีพิถันเพื่อมอบประสิทธิภาพที่เร่งความเร็วแก่นักวิจัย ซึ่งช่วยลดเวลาที่ต้องใช้สำหรับการค้นพบทางวิทยาศาสตร์ พวกเขาทำให้แน่ใจว่านักวิจัยสามารถจัดการชุดข้อมูลขนาดใหญ่และการจำลองที่ซับซ้อนด้วยความเร็วและความแม่นยำที่ไม่เคยมีมาก่อน ทำให้พวกเขาสามารถจัดการกับปัญหาที่ท้าทายที่สุดในการวิจัยทางวิทยาศาสตร์ได้

การประยุกต์ใช้ในทางปฏิบัติของความก้าวหน้าเหล่านี้ได้รับการสาธิตโดยนักวิจัยของ Microsoft พวกเขาประสบความสำเร็จในการใช้ Microsoft Discovery เพื่อระบุต้นแบบสารหล่อเย็นใหม่ที่แสดงคุณสมบัติที่มีแนวโน้มดีสำหรับการระบายความร้อนแบบแช่ในศูนย์ข้อมูลในเวลาน้อยกว่า 200 ชั่วโมง ระยะเวลาดังกล่าวตรงกันข้ามอย่างสิ้นเชิงกับหลายเดือนหรือหลายปี แม้กระทั่งปีที่ต้องใช้โดยวิธีเดิมๆ การระบายความร้อนแบบแช่ ซึ่งเกี่ยวข้องกับการจุ่มส่วนประกอบอิเล็กทรอนิกส์ในสารหล่อเย็นที่เป็นของเหลวที่ไม่นำไฟฟ้า กำลังมีความสำคัญมากขึ้นสำหรับการจัดการความร้อนที่เกิดจากระบบคอมพิวเตอร์ประสิทธิภาพสูง

NVIDIA Blackwell GPUs ใน Azure Data Centers

เพื่อเพิ่มประสิทธิภาพและประสิทธิผล Microsoft กำลังปรับใช้ NVIDIA Blackwell GPUs หลายแสนตัวอย่างรวดเร็วภายใน Azure data centers ที่ปรับให้เหมาะสมกับ AI ทั่วโลก GPU เหล่านี้ถูกรวมเข้ากับ NVIDIA GB200 NVL72 rack-scale systems ซึ่งได้รับการออกแบบมาเพื่อจัดการกับปริมาณงาน AI ที่มีความต้องการมากที่สุด

ลูกค้าหลักหลายรายของ Microsoft รวมถึง OpenAI กำลังใช้งานปริมาณงานการผลิตบนโครงสร้างพื้นฐานขั้นสูงนี้ การใช้ NVIDIA Blackwell GPUs ช่วยให้องค์กรเหล่านี้สามารถดำเนินงาน AI ที่ซับซ้อนได้อย่างมีประสิทธิภาพและประสิทธิผลมากขึ้น การปรับใช้นี้เน้นย้ำถึงความมุ่งมั่นของ Microsoft ในการมอบความสามารถ AI ที่ทันสมัยให้แก่ลูกค้า

Azure’s ND GB200 v6 virtual machines แสดงถึงก้าวกระโดดครั้งสำคัญในด้านพลังการประมวลผล พวกเขาให้ปริมาณงาน inference มากขึ้นถึง 35 เท่าเมื่อเทียบกับ ND H100 v5 VMs รุ่นก่อนหน้า VMs รุ่นเก่าที่เร่งความเร็วโดย NVIDIA H100 GPUs แปดตัว ตอนนี้ดูด้อยกว่าเมื่อเทียบกับประสิทธิภาพที่ได้รับการปรับปรุงของรุ่นใหม่ ซึ่งถือเป็นเกณฑ์มาตรฐานใหม่สำหรับปริมาณงาน AI การปรับปรุงประสิทธิภาพในระดับนี้สามารถลดเวลาและค่าใช้จ่ายที่เกี่ยวข้องกับการรันแบบจำลอง AI ขนาดใหญ่ได้อย่างมาก

ขนาดที่น่าประทับใจและประสิทธิภาพสูงนี้ได้รับการสนับสนุนโดยการออกแบบเซิร์ฟเวอร์แบบกำหนดเอง, NVIDIA NVLink interconnects ความเร็วสูง และ NVIDIA Quantum InfiniBand networking เทคโนโลยีเหล่านี้อำนวยความสะดวกในการปรับขนาดที่ราบรื่นไปยัง Blackwell GPUs หลายพันตัว ซึ่งมีความสำคัญอย่างยิ่งสำหรับการจัดการกับ generative และ agentic AI applications ที่มีความต้องการ การเชื่อมต่อที่ซับซ้อนรับประกันการสื่อสารที่มีเวลาแฝงต่ำระหว่าง GPUs ซึ่งช่วยเพิ่มประสิทธิภาพของระบบโดยรวม

Satya Nadella ประธานและซีอีโอของ Microsoft และ Jensen Huang ผู้ก่อตั้งและซีอีโอของ NVIDIA เน้นย้ำว่าความร่วมมือของพวกเขากำลังสร้างผลกำไรด้านประสิทธิภาพอย่างมีนัยสำคัญผ่านการเพิ่มประสิทธิภาพซอฟต์แวร์อย่างต่อเนื่องในสถาปัตยกรรม NVIDIA ทั้งหมดบน Azure แนวทางนี้ได้รับการออกแบบมาเพื่อเพิ่มผลผลิตของนักพัฒนา ลดต้นทุนรวมในการเป็นเจ้าของ และเร่งปริมาณงานทั้งหมด รวมถึง AI และการประมวลผลข้อมูล ในท้ายที่สุด สิ่งนี้นำไปสู่ประสิทธิภาพที่มากขึ้นต่อดอลลาร์และต่อวัตต์สำหรับลูกค้า

ขยายขีดความสามารถด้วย NIM Integration

ต่อยอดจากการรวม NIM ใน Azure AI Foundry, Microsoft และ NVIDIA กำลังขยายแพลตฟอร์มด้วย NVIDIA Llama Nemotron family ของ open reasoning models และ NVIDIA BioNeMo NIM microservices สิ่งเหล่านี้ได้รับการออกแบบมาเพื่อส่งมอบ inferencing ที่บรรจุในคอนเทนเนอร์ระดับองค์กรสำหรับการตัดสินใจที่ซับซ้อนและปริมาณงาน AI ที่เจาะจงโดเมน

นักพัฒนาสามารถใช้ประโยชน์จาก NIM microservices ที่ปรับให้เหมาะสมเพื่อการให้เหตุผลขั้นสูงภายใน Azure AI Foundry ได้แล้ว สิ่งเหล่านี้รวมถึง NVIDIA Llama Nemotron Super and Nano models ซึ่งให้ความสามารถในการให้เหตุผลหลายขั้นตอน การเข้ารหัส และ Agentic ขั้นสูง พวกเขาให้ความแม่นยำสูงขึ้นถึง 20% และ inference เร็วกว่ารุ่นก่อนหน้าถึงห้าเท่า ช่วยให้นักพัฒนาสร้างแอปพลิเคชัน AI ที่ซับซ้อนและมีประสิทธิภาพมากขึ้น

BioNeMo NIM microservices ซึ่งปรับแต่งมาโดยเฉพาะสำหรับ healthcare applications ตอบสนองความต้องการที่สำคัญในด้าน digital biology, drug discovery และ medical imaging พวกเขาช่วยให้นักวิจัยและแพทย์สามารถเร่ง protein science, molecular modeling และ genomic analysis ซึ่งนำไปสู่การดูแลผู้ป่วยที่ดีขึ้นและนวัตกรรมทางวิทยาศาสตร์ที่เร็วขึ้น เครื่องมือเหล่านี้ช่วยให้ผู้เชี่ยวชาญด้านการดูแลสุขภาพสามารถตัดสินใจได้อย่างมีข้อมูลมากขึ้นและพัฒนาการรักษาที่มีประสิทธิภาพมากขึ้น

การผสานรวมที่ขยายออกไปนี้ช่วยให้องค์กรสามารถปรับใช้ AI agents ประสิทธิภาพสูงได้อย่างรวดเร็ว ด้วยการเชื่อมต่อกับแบบจำลองเหล่านี้และโซลูชันด้านการดูแลสุขภาพเฉพาะทางอื่นๆ องค์กรสามารถบรรลุความน่าเชื่อถือที่แข็งแกร่งและการปรับขนาดที่เรียบง่าย ซึ่งตอบสนองความต้องการที่หลากหลายของอุตสาหกรรมและแอปพลิเคชันต่างๆ

Generative AI บน RTX AI PCs

Generative AI กำลังปฏิวัติซอฟต์แวร์ PC โดยนำเสนอประสบการณ์ใหม่ทั้งหมด ตั้งแต่ digital humans ไปจนถึง writing assistants, intelligent agents และ creative tools NVIDIA RTX AI PCs อำนวยความสะดวกในการทดลองกับ generative AI และปรับปรุงประสิทธิภาพบน Windows 11 ทำให้ AI ที่ทันสมัยเข้าถึงได้ในวงกว้างยิ่งขึ้น

ในงาน Microsoft Build, NVIDIA และ Microsoft ได้เปิดตัว AI inferencing stack ที่ออกแบบมาเพื่อลดความซับซ้อนในการพัฒนาและเพิ่มประสิทธิภาพ inference สำหรับ Windows 11 PCs ชุดเครื่องมือนี้มีความสำคัญอย่างยิ่งต่อการเปิดใช้งานประสบการณ์ AI ที่ราบรื่นบนคอมพิวเตอร์ส่วนบุคคล ทำให้เครื่องมือ AI ตอบสนองและมีประสิทธิภาพมากขึ้น

NVIDIA TensorRT ได้รับการออกแบบใหม่โดยเฉพาะสำหรับ RTX AI PCs โดยรวมประสิทธิภาพ TensorRT เข้ากับการสร้างเอ็นจิ้นแบบ just-in-time บนอุปกรณ์ และขนาดแพ็กเกจที่เล็กลงแปดเท่าสำหรับการปรับใช้ AI ที่ราบรื่นกับ RTX AI PCs กว่า 100 ล้านเครื่อง การเพิ่มประสิทธิภาพนี้ช่วยให้การประมวลผล AI บน PCs เร็วขึ้นและมีประสิทธิภาพมากขึ้น ทำให้เกิดแอปพลิเคชันและความสามารถใหม่ๆ

ประกาศในงาน Microsoft Build ว่า TensorRT สำหรับ RTX ได้รับการสนับสนุนโดย Windows ML – inference stack ใหม่ที่มอบความเข้ากันได้ของฮาร์ดแวร์ในวงกว้างและประสิทธิภาพที่ทันสมัยสำหรับนักพัฒนาแอป TensorRT สำหรับ RTX มีให้ใช้งานใน Windows ML preview ตั้งแต่วันนี้ และจะพร้อมใช้งานเป็น software development kit แบบสแตนด์อโลนจาก NVIDIA Developer ในเดือนมิถุนายน การพัฒนานี้ช่วยลดความซับซ้อนของกระบวนการสำหรับนักพัฒนาที่ต้องการรวมความสามารถ AI เข้ากับแอปพลิเคชัน Windows ของพวกเขา ทำให้มั่นใจได้ว่า AI สามารถเข้าถึงได้ในโซลูชันซอฟต์แวร์ที่หลากหลาย

โดยพื้นฐานแล้ว ความร่วมมือระหว่าง NVIDIA และ Microsoft กำลังสร้างระบบนิเวศที่ส่งเสริมซึ่งกันและกัน ซึ่งความก้าวหน้าในเทคโนโลยี AI จะถูกแปลเป็นแอปพลิเคชันในโลกแห่งความเป็นจริงอย่างรวดเร็ว ซึ่งเป็นประโยชน์ต่อนักวิจัย นักพัฒนา และผู้ใช้ปลายทาง ความร่วมมือนี้อยู่ในตำแหน่งเชิงกลยุทธ์เพื่อรักษาความเป็นผู้นำในสาขาปัญญาประดิษฐ์ที่พัฒนาอย่างรวดเร็ว

รายละเอียดของความก้าวหน้า

เทคโนโลยีล้ำสมัย

ความร่วมมือระหว่าง NVIDIA และ Microsoft ใช้ประโยชน์จากเทคโนโลยีล้ำสมัยหลายอย่างเพื่อให้บรรลุความก้าวหน้าใน Agentic AI ที่นี่เราเจาะลึกส่วนประกอบสำคัญเหล่านี้

  • NVIDIA ALCHEMI NIM Microservice: ไมโครเซอร์วิสนี้เป็นเครื่องมือเฉพาะที่ได้รับการปรับให้เหมาะสมสำหรับ AI inference ในการจำลองทางเคมี หน้าที่หลักคือการเร่งการวิจัยด้านวิทยาศาสตร์วัสดุผ่านการทำนายคุณสมบัติที่แม่นยำและคำแนะนำผู้สมัครที่มีประสิทธิภาพ ด้วยการเปิดใช้งานการจำลองที่เร็วขึ้นและแม่นยำยิ่งขึ้น ทำให้ช่วยให้นักวิจัยสามารถระบุวัสดุที่มีแนวโน้มได้เร็วกว่าวิธีเดิมๆ มาก

  • NVIDIA BioNeMo NIM Microservices: ไมโครเซอร์วิสเหล่านี้ให้เวิร์กโฟลว์ AI ที่ได้รับการฝึกอบรมล่วงหน้าเพื่อเร่งการพัฒนาแบบจำลอง AI สำหรับการค้นพบยา นักวิจัยสามารถใช้สิ่งเหล่านี้เพื่อพัฒนาแบบจำลองที่ทำนายประสิทธิภาพของยาและผลข้างเคียงที่อาจเกิดขึ้นได้อย่างรวดเร็ว ซึ่งช่วยเร่งการพัฒนายาใหม่ได้อย่างมาก

  • NVIDIA Blackwell GPUs: GPU เหล่านี้ให้ประสิทธิภาพและประสิทธิ