CoreWeave đã nổi lên như một người dẫn đầu trong lĩnh vực điện toán đám mây, cung cấp quyền truy cập rộng rãi vào các hệ thống NVIDIA GB200 NVL72. Các thực thể trí tuệ nhân tạo (AI) hàng đầu, bao gồm Cohere, IBM và Mistral AI, đã tận dụng các tài nguyên này để tinh chỉnh các mô hình và ứng dụng AI.
Là nhà cung cấp dịch vụ đám mây đầu tiên cung cấp NVIDIA Grace Blackwell nói chung, CoreWeave đã chứng minh kết quả điểm chuẩn MLPerf đáng chú ý bằng cách sử dụng NVIDIA GB200 NVL72. Nền tảng mạnh mẽ này, được thiết kế cho các tác nhân lý luận và AI, hiện có thể truy cập được vào khách hàng của CoreWeave, cung cấp quyền truy cập vào hàng ngàn GPU NVIDIA Blackwell.
‘Chúng tôi hợp tác chặt chẽ với NVIDIA để đảm bảo khách hàng của chúng tôi có các giải pháp tiên tiến nhất cho việc đào tạo và suy luận mô hình AI’, Mike Intrator, Giám đốc điều hành của CoreWeave, cho biết. ‘Với các hệ thống quy mô rack Grace Blackwell mới, khách hàng của chúng tôi là một trong những người đầu tiên trải nghiệm những lợi ích hiệu suất của đổi mới AI ở quy mô lớn.’
Việc triển khai hàng ngàn GPU NVIDIA Blackwell tạo điều kiện cho việc chuyển đổi nhanh chóng dữ liệu thô thành thông tin tình báo có thể hành động, với các kế hoạch mở rộng hơn nữa.
Các công ty sử dụng các nhà cung cấp dịch vụ đám mây như CoreWeave đang trong quá trình tích hợp các hệ thống được xây dựng trên NVIDIA Grace Blackwell. Các hệ thống này sẵn sàng chuyển đổi các trung tâm dữ liệu thành các nhà máy AI, tạo ra thông tin tình báo ở quy mô lớn và chuyển đổi dữ liệu thô thành thông tin chi tiết với tốc độ, độ chính xác và hiệu quả cao hơn.
Các nhà lãnh đạo AI toàn cầu đang khai thác khả năng của GB200 NVL72 cho các ứng dụng khác nhau, bao gồm các tác nhân AI và phát triển mô hình nâng cao.
Tác Nhân AI Cá Nhân Hóa
Cohere đang sử dụng Grace Blackwell Superchips để tăng cường phát triển các ứng dụng AI doanh nghiệp an toàn, tận dụng các phương pháp nghiên cứu và phát triển mô hình tiên tiến. Nền tảng AI doanh nghiệp của nó, North, cho phép các nhóm tạo ra các tác nhân AI cá nhân hóa để tự động hóa an toàn các quy trình công việc của doanh nghiệp và thông tin chi tiết theo thời gian thực.
Bằng cách sử dụng NVIDIA GB200 NVL72 trên CoreWeave, Cohere đã thấy hiệu suất tăng gấp ba lần trong việc đào tạo các mô hình 100 tỷ tham số so với GPU NVIDIA Hopper thế hệ trước, ngay cả khi không có các tối ưu hóa cụ thể cho Blackwell.
Các tối ưu hóa hơn nữa tận dụng bộ nhớ hợp nhất, độ chính xác FP4 và miền NVIDIA NVLink 72 GPU của GB200 NVL72 giúp tăng cường thông lượng. Mọi GPU hoạt động đồng bộ, mang lại thông lượng lớn hơn với thời gian ngắn hơn cho mã thông báo đầu tiên và tiếp theo để suy luận hiệu quả hơn về chi phí và hiệu suất.
‘Với quyền truy cập vào một số hệ thống NVIDIA GB200 NVL72 đầu tiên trên đám mây, chúng tôi hài lòng với cách các khối lượng công việc của chúng tôi dễ dàng chuyển sang kiến trúc NVIDIA Grace Blackwell’, Autumn Moulder, phó chủ tịch kỹ thuật tại Cohere, cho biết. ‘Điều này mở ra hiệu quả hiệu suất đáng kinh ngạc trên toàn bộ ngăn xếp của chúng tôi — từ ứng dụng North tích hợp theo chiều dọc của chúng tôi chạy trên một GPU Blackwell duy nhất đến việc mở rộng quy mô các công việc đào tạo trên hàng ngàn GPU. Chúng tôi mong muốn đạt được hiệu suất thậm chí còn lớn hơn với các tối ưu hóa bổ sung sớm.’
Mô Hình AI Cho Doanh Nghiệp
IBM đang sử dụng một trong những lần triển khai hệ thống NVIDIA GB200 NVL72 ban đầu, mở rộng quy mô lên hàng ngàn GPU Blackwell trên CoreWeave, để đào tạo các mô hình Granite thế hệ tiếp theo của mình. Các mô hình AI nguồn mở, sẵn sàng cho doanh nghiệp này mang lại hiệu suất hiện đại đồng thời đảm bảo an toàn, tốc độ và hiệu quả về chi phí. Dòng mô hình Granite được hỗ trợ bởi một hệ sinh thái đối tác mạnh mẽ, bao gồm các công ty phần mềm hàng đầu nhúng các mô hình ngôn ngữ lớn vào công nghệ của họ.
Các mô hình Granite đóng vai trò là nền tảng cho các giải pháp như IBM watsonx Orchestrate, cho phép các doanh nghiệp phát triển và triển khai các tác nhân AI tự động hóa và tăng tốc quy trình công việc.
Việc triển khai NVIDIA GB200 NVL72 của CoreWeave cho IBM cũng sử dụng Hệ Thống IBM Storage Scale, cung cấp bộ nhớ hiệu suất cao cho AI. Khách hàng của CoreWeave có thể truy cập nền tảng IBM Storage trong môi trường chuyên dụng và nền tảng đám mây AI của CoreWeave.
‘Chúng tôi rất vui mừng khi thấy sự tăng tốc mà NVIDIA GB200 NVL72 có thể mang lại cho việc đào tạo dòng mô hình Granite của chúng tôi’, Sriram Raghavan, phó chủ tịch AI tại IBM Research, cho biết. ‘Sự hợp tác này với CoreWeave sẽ tăng cường khả năng của IBM để giúp xây dựng các mô hình hiệu suất cao và hiệu quả về chi phí tiên tiến để cung cấp năng lượng cho các ứng dụng AI doanh nghiệp và đại diện với IBM watsonx.’
Tài Nguyên Tính Toán Ở Quy Mô Lớn
Mistral AI hiện đang tích hợp nghìn GPU Blackwell đầu tiên của mình để xây dựng thế hệ mô hình AI nguồn mở tiếp theo.
Mistral AI, một công ty hàng đầu có trụ sở tại Paris về AI nguồn mở, đang tận dụng cơ sở hạ tầng của CoreWeave, hiện được trang bị GB200 NVL72, để đẩy nhanh quá trình phát triển các mô hình ngôn ngữ của mình. Với các mô hình như Mistral Large cung cấp khả năng lý luận mạnh mẽ, Mistral yêu cầu tài nguyên tính toán nhanh ở quy mô lớn.
Để đào tạo và triển khai các mô hình này một cách hiệu quả, Mistral AI cần một nhà cung cấp dịch vụ đám mây cung cấp các cụm GPU lớn, hiệu suất cao với mạng NVIDIA Quantum InfiniBand và quản lý cơ sở hạ tầng đáng tin cậy. Chuyên môn của CoreWeave trong việc triển khai GPU NVIDIA ở quy mô lớn, kết hợp với độ tin cậy và khả năng phục hồi hàng đầu trong ngành thông qua các công cụ như CoreWeave Mission Control, đáp ứng những nhu cầu này.
‘Ngay khi xuất xưởng và không cần bất kỳ tối ưu hóa nào nữa, chúng tôi đã thấy hiệu suất cải thiện gấp 2 lần đối với việc đào tạo mô hình dày đặc’, Thimothee Lacroix, đồng sáng lập và giám đốc công nghệ tại Mistral AI, cho biết. ‘Điều thú vị về NVIDIA GB200 NVL72 là những khả năng mới mà nó mở ra cho việc phát triển và suy luận mô hình.’
Mở Rộng Khả Năng Sử Dụng Các Phiên Bản Blackwell
CoreWeave không chỉ cung cấp các giải pháp khách hàng dài hạn mà còn cung cấp các phiên bản với NVIDIA NVLink quy mô rack trên 72 GPU NVIDIA Blackwell và 36 CPU NVIDIA Grace, mở rộng lên đến 110.000 GPU với mạng NVIDIA Quantum-2 InfiniBand.
Các phiên bản này, được tăng tốc bởi nền tảng điện toán tăng tốc quy mô rack NVIDIA GB200 NVL72, mang lại quy mô và hiệu suất cần thiết để phát triển và triển khai làn sóng mô hình và tác nhân lý luận AI tiếp theo.
Tìm Hiểu Sâu Hơn Về Cơ Sở Hạ Tầng Công Nghệ Của CoreWeave
CoreWeave đã tự khẳng định mình là một người chơi then chốt trong lĩnh vực điện toán đám mây, phần lớn là do cam kết cung cấp các giải pháp phần cứng tiên tiến và cơ sở hạ tầng mạnh mẽ phù hợp với nhu cầu của khối lượng công việc AI và học máy. Việc tích hợp các hệ thống NVIDIA GB200 NVL72 nhấn mạnh sự cống hiến này. Các hệ thống này không chỉ đơn thuần là những nâng cấp gia tăng; chúng đại diện cho một bước nhảy vọt đáng kể về sức mạnh và hiệu quả tính toán, cho phép các tổ chức giải quyết những thách thức trước đây được coi là không thể vượt qua.
Kiến trúc của NVIDIA GB200 NVL72 được thiết kế tỉ mỉ để tối đa hóa hiệu suất trên một loạt các ứng dụng AI. Bằng cách tích hợp 72 GPU NVIDIA Blackwell với 36 CPU NVIDIA Grace, nền tảng này cung cấp một môi trường tính toán cân bằng và mạnh mẽ. Sự cân bằng này rất quan trọng đối với các khối lượng công việc yêu cầu cả tính toán chuyên sâu và khả năng xử lý dữ liệu đáng kể. Việc sử dụng công nghệ NVLink của NVIDIA tiếp tục nâng cao hiệu quả của hệ thống bằng cách cho phép giao tiếp tốc độ cao giữa các GPU, do đó giảm thiểu độ trễ và tối đa hóa thông lượng.
Cơ sở hạ tầng của CoreWeave cũng được đặc trưng bởi khả năng mở rộng của nó. Khả năng mở rộng lên đến 110.000 GPU bằng cách sử dụng mạng NVIDIA Quantum-2 InfiniBand cho phép nền tảng hỗ trợ ngay cả các dự án AI khắt khe nhất. Khả năng mở rộng này không chỉ là về sức mạnh tính toán thô; nó cũng liên quan đến việc đảm bảo rằng cơ sở hạ tầng mạng có thể xử lý các luồng dữ liệu lớn liên quan đến đào tạo và suy luận AI quy mô lớn. Mạng NVIDIA Quantum-2 InfiniBand cung cấp băng thông cần thiết và độ trễ thấp để duy trì hiệu suất tối ưu khi hệ thống mở rộng.
Tầm Quan Trọng Chiến Lược Của Việc Áp Dụng Sớm
Cách tiếp cận chủ động của CoreWeave đối với việc áp dụng các công nghệ mới như GPU NVIDIA Grace Blackwell đã định vị nó như một đối tác chiến lược cho các công ty đi đầu trong đổi mới AI. Bằng cách là một trong những nhà cung cấp dịch vụ đám mây đầu tiên cung cấp các tài nguyên tiên tiến này, CoreWeave cho phép khách hàng của mình có được lợi thế cạnh tranh trên thị trường tương ứng của họ. Quyền truy cập sớm này cho phép các công ty thử nghiệm các mô hình mới, tối ưu hóa quy trình làm việc hiện có và cuối cùng là tăng tốc thời gian đưa sản phẩm ra thị trường của họ.
Những lợi ích của việc áp dụng sớm vượt ra ngoài việc chỉ truy cập vào phần cứng tiên tiến. Nó cũng liên quan đến sự hợp tác chặt chẽ với các nhà cung cấp công nghệ như NVIDIA, cho phép CoreWeave tinh chỉnh cơ sở hạ tầng và ngăn xếp phần mềm của mình để tận dụng tối đa khả năng của phần cứng mới. Sự hợp tác này mang lại một nền tảng được tối ưu hóa và hiệu quả hơn, giúp cải thiện hiệu suất và tiết kiệm chi phí cho khách hàng của CoreWeave.
Hơn nữa, chiến lược áp dụng sớm của CoreWeave thúc đẩy một nền văn hóa đổi mới trong công ty. Bằng cách liên tục đẩy lùi các ranh giới của những gì có thể với điện toán đám mây, CoreWeave thu hút những tài năng hàng đầu và khẳng định mình là một người dẫn đầu trong ngành. Đổi lại, điều này củng cố khả năng cung cấp các giải pháp tiên tiến và duy trì lợi thế cạnh tranh của mình.
Ảnh Hưởng Đối Với Phát Triển Mô Hình AI
Việc triển khai GPU NVIDIA Grace Blackwell trên nền tảng của CoreWeave có tác động sâu sắc đến sự phát triển của các mô hình AI. Sức mạnh và hiệu quả tính toán được nâng cao của các GPU này cho phép các nhà nghiên cứu và kỹ sư đào tạo các mô hình lớn hơn, phức tạp hơn trong một khoảng thời gian ngắn hơn so với các thế hệ phần cứng trước đây. Sự tăng tốc của quá trình đào tạo này là rất quan trọng để luôn đi trước trong lĩnh vực AI đang phát triển nhanh chóng.
Hơn nữa, các hệ thống NVIDIA GB200 NVL72 tạo điều kiện cho sự phát triển của các mô hình AI phức tạp hơn có thể thực hiện các tác vụ phức tạp hơn. Ví dụ: các hệ thống này đặc biệt phù hợp để đào tạo các mô hình yêu cầu khả năng lý luận mở rộng, chẳng hạn như các mô hình được sử dụng trong xử lý ngôn ngữ tự nhiên và thị giác máy tính. Khả năng xử lý lượng lớn dữ liệu và thực hiện các tính toán phức tạp giúp các mô hình này chính xác hơn, đáng tin cậy hơn và có khả năng xử lý các tình huống thực tế.
Tác động đối với các ứng dụng cụ thể là rất lớn. Trong xử lý ngôn ngữ tự nhiên, phần cứng mới cho phép tạo ra các mô hình ngôn ngữ mạnh mẽ hơn có thể hiểu và tạo ra văn bản giống con người với độ trôi chảy và mạch lạc cao hơn. Điều này dẫn đến những cải tiến trong các ứng dụng như chatbot, trợ lý ảo và dịch máy. Trong thị giác máy tính, sức mạnh tính toán được nâng cao cho phép phát triển các hệ thống nhận dạng đối tượng chính xác hơn, điều này rất cần thiết cho các ứng dụng như xe tự hành, hình ảnh y tế và giám sát.
Vai Trò Của CoreWeave Trong Việc Dân Chủ Hóa AI
Những nỗ lực của CoreWeave để làm cho các tài nguyên tính toán tiên tiến có thể tiếp cận được với nhiều đối tượng hơn đóng một vai trò quan trọng trong việc dân chủ hóa AI. Bằng cách cung cấp quyền truy cập hiệu quả về chi phí vào phần cứng tiên tiến, CoreWeave cho phép các công ty nhỏ hơn và các tổ chức nghiên cứu cạnh tranh với các tổ chức lớn hơn, những tổ chức theo truyền thống thống trị bối cảnh AI. Sự dân chủ hóa AI này thúc đẩy sự đổi mới và thúc đẩy một loạt các quan điểm đa dạng hơn trong sự phát triển của các công nghệ AI.
Sự sẵn có của các tài nguyên dựa trên đám mây mạnh mẽ cũng làm giảm rào cản gia nhập đối với các cá nhân và công ty khởi nghiệp quan tâm đến việc khám phá AI. Bằng cách loại bỏ nhu cầu đầutư lớn trả trước vào phần cứng, CoreWeave cho phép những nhà phát triển AI đầy tham vọng tập trung vào ý tưởng và đổi mới của họ. Điều này có thể dẫn đến việc tạo ra các ứng dụng và giải pháp mới mà nếu không thì không thể thực hiện được.
Hơn nữa, cam kết của CoreWeave trong việc cung cấp một nền tảng thân thiện với người dùng và các dịch vụ hỗ trợ toàn diện góp phần hơn nữa vào việc dân chủ hóa AI. Bằng cách giúp người dùng dễ dàng truy cập và sử dụng các tài nguyên tính toán tiên tiến hơn, CoreWeave cho phép họ đạt được mục tiêu của mình và đóng góp vào sự tiến bộ của AI.
Chuyển Đổi Các Ngành Với AI
Những tiến bộ được kích hoạt bởi việc triển khai GPU NVIDIA Grace Blackwell của CoreWeave sẵn sàng chuyển đổi các ngành khác nhau. Sức mạnh và hiệu quả tính toán được nâng cao của các hệ thống này sẽ thúc đẩy sự đổi mới và tạo ra các cơ hội mới trong các lĩnh vực từ chăm sóc sức khỏe đến tài chính.
Trong lĩnh vực chăm sóc sức khỏe, AI đang được sử dụng để phát triển các công cụ chẩn đoán chính xác hơn, cá nhân hóa kế hoạch điều trị và tăng tốc khám phá thuốc. Sự sẵn có của các tài nguyên tính toán tiên tiến cho phép các nhà nghiên cứu phân tích lượng lớn dữ liệu y tế và xác định các mẫu mà không thể phát hiện thủ công. Điều này có thể dẫn đến những đột phá trong điều trị bệnh và cải thiện kết quả cho bệnh nhân.
Trong tài chính, AI đang được sử dụng để phát hiện gian lận, quản lý rủi ro và tự động hóa các quy trình giao dịch. Khả năng xử lý khối lượng lớn dữ liệu tài chính trong thời gian thực cho phép các công ty đưa ra quyết định sáng suốt hơn và phản ứng nhanh chóng với các điều kiện thị trường thay đổi. Điều này có thể dẫn đến tăng hiệu quả, giảm chi phí và cải thiện lợi nhuận.
Các ngành khác có khả năng được chuyển đổi bởi AI bao gồm sản xuất, vận tải và bán lẻ. Trong sản xuất, AI đang được sử dụng để tối ưu hóa quy trình sản xuất, cải thiện kiểm soát chất lượng và giảm lãng phí. Trong vận tải, AI đang cho phép phát triển xe tự hành và các hệ thống hậu cần hiệu quả hơn. Trong bán lẻ, AI đang được sử dụng để cá nhân hóa trải nghiệm của khách hàng, tối ưu hóa giá cả và cải thiện quản lý chuỗi cung ứng.
Tầm Nhìn Của CoreWeave Cho Tương Lai
Việc triển khai GPU NVIDIA Grace Blackwell của CoreWeave không chỉ là một sự kiện một lần; nó là một phần của tầm nhìn rộng lớn hơn cho tương lai của điện toán đám mây và AI. CoreWeave cam kết liên tục đầu tư vào các công nghệ mới và mở rộng cơ sở hạ tầng của mình để đáp ứng nhu cầu ngày càng tăng của khách hàng. Điều này bao gồm việc khám phá các kiến trúc mới, phát triển phần mềm hiệu quả hơn và thúc đẩy sự hợp tác với các nhà cung cấp công nghệ hàng đầu.
Tầm nhìn của CoreWeave không chỉ đơn thuần là cung cấp các tài nguyên tính toán tiên tiến. Nó cũng liên quan đến việc tạo ra một hệ sinh thái sôi động gồm các nhà phát triển, nhà nghiên cứu và các công ty đang nỗ lực để đẩy lùi các ranh giới của AI. Bằng cách thúc đẩy sự đổi mới và hợp tác, CoreWeave hướng đến việc tăng tốc sự phát triển và áp dụng các công nghệ AI trong các ngành.
Cam kết của công ty đối với tính bền vững cũng là một phần quan trọng trong tầm nhìn của nó. CoreWeave đang tích cực làm việc để giảm tác động đến môi trường bằng cách sử dụng các nguồn năng lượng tái tạo và triển khai các công nghệ tiết kiệm năng lượng. Điều này phản ánh nhận thức ngày càng tăng về tầm quan trọng của tính bền vững trong ngành công nghệ và cam kết tạo ra một tương lai có trách nhiệm hơn với môi trường.