Tăng cường Nghiên cứu Khoa học với AI
Microsoft Discovery sẽ tích hợp vi dịch vụ ALCHEMI NIM của NVIDIA. Sự tích hợp này rất quan trọng để tối ưu hóa suy luận AI cho các mô phỏng hóa học phức tạp, do đó đẩy nhanh đáng kể nghiên cứu trong khoa học vật liệu thông qua dự đoán thuộc tính chính xác và đề xuất ứng viên hiệu quả. Sự tăng cường này hứa hẹn sẽ hợp lý hóa việc xác định các vật liệu mới với các đặc tính mong muốn, giảm thời gian và tài nguyên theo yêu cầu truyền thống.
Hơn nữa, Microsoft Discovery sẽ kết hợp vi dịch vụ NVIDIA BioNeMo NIM. Các vi dịch vụ này được thiết kế để khai thác các quy trình làm việc AI được đào tạo trước, tăng tốc đáng kể quy trình phát triển mô hình AI cho khám phá thuốc. Bằng cách tận dụng các công cụ này, các nhà nghiên cứu có thể nhanh chóng phát triển và tinh chỉnh các mô hình AI dự đoán hiệu quả thuốc và các tác dụng phụ tiềm ẩn, dẫn đến các quy trình phát triển thuốc hiệu quả và có mục tiêu hơn.
Những tích hợp này được thiết kế tỉ mỉ để trao quyền cho các nhà nghiên cứu với hiệu suất được tăng tốc, cắt giảm thời gian cần thiết cho các khám phá khoa học. Chúng đảm bảo rằng các nhà nghiên cứu có thể xử lý các tập dữ liệu khổng lồ và các mô phỏng phức tạp với tốc độ và độ chính xác chưa từng có, cho phép họ giải quyết một số vấn đề khó khăn nhất trong nghiên cứu khoa học.
Một ứng dụng thực tế của những tiến bộ này đã được chứng minh bởi các nhà nghiên cứu của Microsoft. Họ đã sử dụng thành công Microsoft Discovery để xác định một nguyên mẫu chất làm mát mới thể hiện các đặc tính đầy hứa hẹn cho khả năng làm mát bằng chất lỏng trong các trung tâm dữ liệu trong vòng chưa đầy 200 giờ. Mốc thời gian này trái ngược hoàn toàn với nhiều tháng hoặc thậm chí nhiều năm thường được yêu cầu bởi các phương pháp thông thường. Làm mát bằng chất lỏng, bao gồm việc nhúng các thành phần điện tử vào chất làm mát lỏng không dẫn điện, ngày càng trở nên quan trọng để quản lý nhiệt do các hệ thống điện toán hiệu năng cao tạo ra.
GPU NVIDIA Blackwell trong Trung tâm Dữ liệu Azure
Để tăng cường hiệu suất và hiệu quả, Microsoft đang nhanh chóng triển khai hàng trăm nghìn GPU NVIDIA Blackwell trong các trung tâm dữ liệu Azure được tối ưu hóa AI trên toàn thế giới. Các GPU này được tích hợp vào các hệ thống quy mô tủ rack NVIDIA GB200 NVL72, được thiết kế để xử lý các khối lượng công việc AI đòi hỏi khắt khe nhất.
Một số khách hàng quan trọng của Microsoft, bao gồm OpenAI, hiện đang chạy các khối lượng công việc sản xuất trên cơ sở hạ tầng tiên tiến này. Việc sử dụng GPU NVIDIA Blackwell cho phép các tổ chức này thực hiện các tác vụ AI phức tạp một cách hiệu quả và hiệu quả hơn. Việc triển khai này nhấn mạnh cam kết của Microsoft trong việc cung cấp các khả năng AI tiên tiến cho khách hàng của mình.
Máy ảo ND GB200 v6 của Azure đại diện cho một bước tiến vượt bậc về sức mạnh tính toán. Chúng cung cấp thông lượng suy luận cao hơn tới 35 lần so với các máy ảo ND H100 v5 trước đây. Các máy ảo cũ hơn, được tăng tốc bởi tám GPU NVIDIA H100, giờ đây trở nên lu mờ so với hiệu suất nâng cao do thế hệ mới cung cấp, đánh dấu một chuẩn mực mới cho khối lượng công việc AI. Mức cải thiện hiệu suất này có thể giảm đáng kể thời gian và chi phí liên quan đến việc chạy các mô hình AI quy mô lớn.
Quy mô ấn tượng và hiệu suất cao này được hỗ trợ bởi các thiết kế máy chủ tùy chỉnh, kết nối liên kết NVIDIA NVLink tốc độ cao và mạng NVIDIA Quantum InfiniBand. Các công nghệ này tạo điều kiện thuận lợi cho việc mở rộng liền mạch lên hàng nghìn GPU Blackwell, rất quan trọng để xử lý các ứng dụng AI tạo sinh và đại lý đòi hỏi. Khả năng kết nối tinh vi đảm bảo giao tiếp độ trễ thấp giữa các GPU, nâng cao hiệu suất hệ thống tổng thể.
Satya Nadella, chủ tịch và CEO của Microsoft, và Jensen Huang, người sáng lập và CEO của NVIDIA, nhấn mạnh rằng sự hợp tác của họ đang tạo ra những cải tiến hiệu suất đáng kể thông qua các tối ưu hóa phần mềm liên tục trên tất cả các kiến trúc NVIDIA trên Azure. Cách tiếp cận này được thiết kế để tối đa hóa năng suất của nhà phát triển, giảm tổng chi phí sở hữu và tăng tốc tất cả các khối lượng công việc, bao gồm AI và xử lý dữ liệu. Cuối cùng, điều này dẫn đến hiệu quả lớn hơn trên mỗi đô la và trên mỗi watt cho khách hàng.
Mở rộng Khả năng với Tích hợp NIM
Dựa trên tích hợp NIM trong Azure AI Foundry, Microsoft và NVIDIA đang mở rộng nền tảng với dòng mô hình lý luận mở NVIDIA Llama Nemotron và vi dịch vụ NVIDIA BioNeMo NIM. Chúng được thiết kế để cung cấp suy luận đóng gói, cấp doanh nghiệp cho việc ra quyết định phức tạp và khối lượng công việc AI dành riêng cho miền.
Các nhà phát triển giờ đây có thể tận dụng các vi dịch vụ NIM được tối ưu hóa để suy luận nâng cao trong Azure AI Foundry. Chúng bao gồm các mô hình NVIDIA Llama Nemotron Super và Nano, cung cấp các tính năng lý luận đa bước, mã hóa và đại lý nâng cao. Chúng cung cấp độ chính xác cao hơn tới 20% và suy luận nhanh hơn năm lần so với các mô hình trước đây, cho phép các nhà phát triển tạo ra các ứng dụng AI tinh vi và hiệu quả hơn.
Vi dịch vụ BioNeMo NIM, được thiết kế đặc biệt cho các ứng dụng chăm sóc sức khỏe, giải quyết các nhu cầu quan trọng trong sinh học kỹ thuật số, khám phá thuốc và hình ảnh y tế. Chúng cho phép các nhà nghiên cứu và bác sĩ lâm sàng tăng tốc khoa học protein, mô hình hóa phân tử và phân tích bộ gen, dẫn đến cải thiện việc chăm sóc bệnh nhân và đổi mới khoa học nhanh hơn. Các công cụ này trao quyền cho các chuyên gia chăm sóc sức khỏe đưa ra các quyết định sáng suốt hơn và phát triển các phương pháp điều trị hiệu quả hơn.
Tích hợp mở rộng này cho phép các tổ chức nhanh chóng triển khai các tác nhân AI hiệu suất cao. Bằng cách kết nối với các mô hình này và các giải pháp chăm sóc sức khỏe chuyên biệt khác, các tổ chức có thể đạt được độ tin cậy mạnh mẽ và khả năng mở rộng đơn giản, do đó đáp ứng các nhu cầu đa dạng của các ngành và ứng dụng khác nhau.
AI Tạo sinh trên RTX AI PC
AI tạo sinh đang cách mạng hóa phần mềm PC bằng cách giới thiệu những trải nghiệm hoàn toàn mới, từ con người kỹ thuật số đến trợ lý viết, tác nhân thông minh và công cụ sáng tạo. NVIDIA RTX AI PC tạo điều kiện cho việc thử nghiệm với AI tạo sinh và cải thiện hiệu suất trên Windows 11, giúp AI hiện đại có thể tiếp cận được với nhiều đối tượng hơn.
Tại Microsoft Build, NVIDIA và Microsoft đã công bố một ngăn xếp suy luận AI được thiết kế để đơn giản hóa quá trình phát triển và nâng cao hiệu suất suy luận cho Windows 11 PC. Bộ công cụ này rất quan trọng để cho phép trải nghiệm AI liền mạch trên máy tính cá nhân, làm cho các công cụ AI phản hồi nhanh hơn và hiệu quả hơn.
NVIDIA TensorRT đã được thiết kế lại đặc biệt cho RTX AI PC. Nó kết hợp hiệu suất TensorRT với xây dựng công cụ just-in-time, trên thiết bị và kích thước gói nhỏ hơn tám lần để triển khai AI liền mạch cho hơn 100 triệu RTX AI PC. Tối ưu hóa này cho phép xử lý AI nhanh hơn và hiệu quả hơn trên PC, mở đường cho các ứng dụng và khả năng mới.
Được công bố tại Microsoft Build, TensorRT cho RTX được Windows ML hỗ trợ nguyên bản - một ngăn xếp suy luận mới cung cấp cho các nhà phát triển ứng dụng khả năng tương thích phần cứng rộng và hiệu suất hiện đại. TensorRT cho RTX có sẵn trong bản xem trước Windows ML bắt đầu từ hôm nay và sẽ có sẵn dưới dạng bộ phát triển phần mềm độc lập từ NVIDIA Developer vào tháng Sáu. Sự phát triển này đơn giản hóa quy trình cho các nhà phát triển muốn tích hợp các khả năng AI vào các ứng dụng Windows của họ, đảm bảo rằng AI có thể truy cập được vào một loạt các giải pháp phần mềm.
Về bản chất, sự hợp tác giữa NVIDIA và Microsoft đang tạo ra một hệ sinh thái hiệp đồng nơi những tiến bộ trong công nghệ AI nhanh chóng được chuyển thành các ứng dụng trong thế giới thực, mang lại lợi ích cho các nhà nghiên cứu, nhà phát triển và người dùng cuối. Quan hệ đối tác này có vị trí chiến lược để duy trì vị trí dẫn đầu của mình trong lĩnh vực trí tuệ nhân tạo đang phát triển nhanh chóng.
Phân tích Chi tiết về Tiến bộ
Các Công nghệ Tiên tiến
Sự hợp tác giữa NVIDIA và Microsoft tận dụng một số công nghệ tiên tiến để đạt được những tiến bộ trong AI đại lý. Ở đây, chúng ta đi sâu vào các thành phần chính này.
Vi Dịch vụ NVIDIA ALCHEMI NIM: Vi dịch vụ này là một công cụ chuyên dụng được tối ưu hóa cho suy luận AI trong các mô phỏng hóa học. Chức năng chính của nó là tăng tốc nghiên cứu khoa học vật liệu thông qua dự đoán thuộc tính chính xác và đề xuất ứng viên hiệu quả. Bằng cách cho phép các mô phỏng nhanh hơn và chính xác hơn, nó cho phép các nhà nghiên cứu xác định các vật liệu đầy hứa hẹn nhanh hơn nhiều so với các phương pháp truyền thống.
Vi Dịch vụ NVIDIA BioNeMo NIM: Các vi dịch vụ này cung cấp các quy trình làm việc AI được đào tạo trước để tăng tốc phát triển mô hình AI cho khám phá thuốc. Các nhà nghiên cứu có thể sử dụng chúng để nhanh chóng phát triển các mô hình dự đoán hiệu quả thuốc và các tác dụng phụ tiềm ẩn, tăng tốc đáng kể quá trình phát triển thuốc mới.
GPU NVIDIA Blackwell: Các GPU này cung cấp hiệu suất và hiệu quả nâng cao trong khối lượng công việc AI trong các trung tâm dữ liệu Azure. Được tích hợp vào các hệ thống quy mô tủ rack, chúng hỗ trợ các khách hàng như OpenAI chạy các tác vụ phức tạp một cách trơn tru và hiệu quả.
Liên Kết NVIDIA NVLink: Các liên kết tốc độ cao này phục vụ để đảm bảo giao tiếp độ trễ thấp giữa các GPU, nâng cao đáng kể hiệu suất hệ thống tổng thể. Kết quả là tính toán nhanh hơn và cải thiện hiệu quả trên các hoạt động AI khác nhau.
Mạng NVIDIA Quantum InfiniBand: Điều này hỗ trợ mở rộng liền mạch lên hàng nghìn GPU Blackwell, làm cho nó trở nên quan trọng để xử lý các khối lượng công việc AI tạo sinh và đại lý đòi hỏi. Các khả năng kết nối mạng đảm bảo rằng các mô hình AI quy mô lớn có thể được triển khai và quản lý hiệu quả.
Mô Hình NVIDIA Llama Nemotron: Các mô hình NVIDIA Llama Nemotron Super và Nano được thiết kế để cung cấp khả năng lý luận đa bước, mã hóa và đại lý nâng cao. Độ chính xác được cải thiện và tốc độ suy luận nhanh hơn cho phép các nhà phát triển tạo ra các ứng dụng AI tinh vi và hiệu quả hơn.
Tác động đến Nghiên cứu Khoa học
Việc tích hợp các công nghệ của NVIDIA vào các nền tảng của Microsoft có những tác động sâu sắc đến nghiên cứu khoa học trên nhiều lĩnh vực.
Khoa học Vật liệu: Vi dịch vụ NVIDIA ALCHEMI NIM giúp dự đoán thuộc tính chính xác và đề xuất ứng viên, cho phép xác định nhanh hơn các vật liệu mới với các đặc tính mong muốn.
Khám phá Thuốc: Các vi dịch vụ BioNeMo NIM tăng tốc phát triển mô hình AI, cho phép các nhà nghiên cứu phát triển các mô hình dự đoán hiệu quả thuốc và các tác dụng phụ tiềm ẩn.
Làm Mát Trung tâm Dữ liệu: Microsoft đã sử dụng Microsoft Discovery để phát hiện một nguyên mẫu chất làm mát mới lý tưởng cho khả năng làm mát bằng chất lỏng trong các trung tâm dữ liệu trong vòng chưa đầy 200 giờ thay vì nhiều tháng hoặc nhiều năm với các phương pháp truyền thống. Điều này làm nổi bật sự tăng tốc nhanh chóng của các khám phá khoa học.
Khoa học Protein, Mô hình Hóa Phân tử và Phân tích Bộ Gen: Các vi dịch vụ BioNeMo NIM cho phép tăng tốc trong các lĩnh vực này. Chúng dẫn đến cải thiện việc chăm sóc bệnh nhân và đổi mới khoa học nhanh hơn.
Cơ sở hạ tầng Azure AI
Azure AI Foundry của Microsoft và các trung tâm dữ liệu của nó đại diện cho các khoản đầu tư đáng kể vào việc tạo ra một môi trường tối ưu để chạy khối lượng công việc AI.
Máy Ảo ND GB200 v6: Chúng cung cấp thông lượng suy luận cao hơn tới 35 lần so với các máy ảo ND H100 v5 trước đây, đặt ra một chuẩn mực mới cho khối lượng công việc AI.
Thiết kế Máy chủ Tùy chỉnh: Thiết kế máy chủ tùy chỉnh được phát triển để tối đa hóa hiệu suất và hiệu quả, cho phép các GPU Blackwell hoạt động hết tiềm năng của chúng.
Tối Ưu Hóa NVIDIA trên Azure: Tối ưu hóa phần mềm liên tục trên tất cả các kiến trúc NVIDIA trên Azure tối đa hóa năng suất của nhà phát triển, giảm tổng chi phí sở hữu và tăng tốc tất cả khối lượng công việc, tăng cường hiệu quả trên mỗi đô la và trên mỗi watt cho khách hàng.
AI Tạo sinh trên Máy tính Cá nhân
Những tiến bộ trong công nghệ AI cũng đang tìm đường vào máy tính cá nhân, thúc đẩy các khả năng mới cho các ứng dụng phần mềm và trải nghiệm người dùng.
NVIDIA RTX AI PC: Thử nghiệm đơn giản với AI tạo sinh và tăng cường hiệu suất trên Windows 11 được tạo điều kiện bởi NVIDIA RTX AI PC. Chúng làm cho công nghệ AI hiện đại dễ tiếp cận hơn với nhiều đối tượng hơn.
NVIDIA TensorRT: Bộ phát triển phần mềm (SDK) này đã được tối ưu hóa cho RTX AI PC. Nó kết hợp hiệu suất cao với kích thước gói nhỏ hơn tám lần để triển khai AI liền mạch. Điều này giúp các nhà phát triển dễ dàng tích hợp các tính năng AI vào ứng dụng.
Hỗ Trợ Windows ML: Hỗ trợ nguyên bản cho TensorRT trong Windows ML đảm bảo khả năng tương thích phần cứng rộng và hiệu suất hiện đại. Điều này tạo điều kiện thuận lợi cho việc tích hợp liền mạch AI vào các ứng dụng Windows.
Trải Nghiệm Người Dùng Mới: Từ con người kỹ thuật số đến trợ lý viết, tác nhân thông minh và công cụ sáng tạo - AI tạo sinh đang định hình lại phần mềm PC và giới thiệu những trải nghiệm hoàn toàn mới. Người dùng có thể hưởng lợi từ các ứng dụng tương tác, thông minh và sáng tạo hơn.
Tầm nhìn Chiến lược
Sự hợp tác giữa NVIDIA và Microsoft được xây dựng trên một tầm nhìn chiến lược, nhằm mục đích dẫn đầu sự tiến bộ của công nghệ AI trên nhiều lĩnh vực khác nhau. Các nỗ lực và công nghệ hợp tác được thiết kế để tăng tốc việc áp dụng AI trên các miền khác nhau, mang lại lợi ích không chỉ cho các nhà nghiên cứu và nhà phát triển, mà cả người dùng cuối và các tổ chức trên toàn cầu.
Đổi Mới: Tiếp tục nhấn mạnh vào đổi mới và hợp tác tăng tốc những tiến bộ công nghệ. Điều này giúp duy trì vị trí dẫn đầu trong một lĩnh vực đang phát triển nhanh chóng.
Khả năng Tiếp cận: NVIDIA và Microsoft đang dân chủ hóa AI bằng cách làm cho nó có thể tiếp cận được với các nhà phát triển và người dùng thông qua các công cụ được tối ưu hóa, tích hợp với các nền tảng phổ biến và cải thiện hiệu quả chi phí.
Hiệu suất & Hiệu quả: Tập trung vào việc tăng cường cả hiệu suất và hiệu quả chi phí đảm bảo rằng những lợi ích của công nghệ AI có sẵn cho một loạt người dùng, từ các nhà nghiên cứu cá nhân đến các doanh nghiệp lớn.
Ứng dụng Thực tế: Bằng cách chuyển những tiến bộ AI thành các giải pháp thực tế, NVIDIA và Microsoft đang thúc đẩy các lợi ích hữu hình và chuyển đổi các ngành công nghiệp trên toàn cầu.