Nvidia cân nhắc mua Lepton AI, vào mảng cho thuê máy chủ AI

Trong đấu trường trí tuệ nhân tạo đầy cạnh tranh, nơi sức mạnh tính toán ngự trị tối cao, Nvidia đứng vững như một vị vua không thể tranh cãi, với các đơn vị xử lý đồ họa (GPU) là nền tảng cho phần lớn cuộc cách mạng AI hiện tại. Tuy nhiên, những lời đồn đoán từ các hành lang công nghệ cho thấy gã khổng lồ bán dẫn này có thể đang nhắm đến việc mở rộng chiến lược vượt ra ngoài hoạt động kinh doanh cốt lõi là silicon. Các báo cáo chỉ ra rằng Nvidia đang trong quá trình thảo luận sâu sắc để có khả năng mua lại Lepton AI, một startup non trẻ hoạt động trong thị trường ngày càng quan trọng là cho thuê máy chủ AI. Động thái này, nếu được hoàn tất, có thể báo hiệu một sự tiến hóa đáng kể trong chiến lược của Nvidia, đẩy công ty lên cao hơn trong chuỗi giá trị và có khả năng làm thay đổi động lực tiếp cận cơ sở hạ tầng AI.

Thỏa thuận tiềm năng, được các nguồn tin trích dẫn trên The Information định giá lên tới vài trăm triệu đô la, tập trung vào một công ty mới chỉ hai năm tuổi. Lepton AI đã tạo ra một thị trường ngách cụ thể: công ty cho thuê các máy chủ chứa đầy chip AI đáng mơ ước của Nvidia, chủ yếu lấy nguồn năng lực này từ các nhà cung cấp đám mây lớn, và sau đó cho các công ty khác thuê lại sức mạnh tính toán này, thường là những người chơi nhỏ hơn hoặc những người cần quyền truy cập linh hoạt mà không cần cam kết dài hạn với các gã khổng lồ đám mây. Mô hình kinh doanh này định vị Lepton AI như một bên trung gian, một người hỗ trợ trong hệ sinh thái phức tạp cung cấp sức mạnh xử lý thô thúc đẩy sự phát triển và triển khai AI.

Giải mã Lepton AI: Người trung gian trong cơn sốt GPU

Được thành lập chỉ hai năm trước, Lepton AI đại diện cho sự nhiệt tình kinh doanh xung quanh sự bùng nổ cơ sở hạ tầng AI. Đề xuất cốt lõi của nó xoay quanh khả năng tiếp cận và tính linh hoạt. Mặc dù các nhà cung cấp đám mây siêu quy mô như Amazon Web Services (AWS), Microsoft Azure và Google Cloud Platform (GCP) cung cấp quyền truy cập trực tiếp vào các phiên bản GPU Nvidia, việc điều hướng các dịch vụ của họ, đảm bảo dung lượng và quản lý cơ sở hạ tầng có thể phức tạp và tốn kém, đặc biệt đối với các startup hoặc các nhóm có nhu cầu biến động.

Lepton AI bước vào khoảng trống này. Bằng cách tổng hợp dung lượng máy chủ – về cơ bản là mua sỉ từ các nhà cung cấp đám mây – và sau đó cung cấp nó với các điều khoản có thể linh hoạt hơn hoặc với các dịch vụ giá trị gia tăng phù hợp với khối lượng công việc AI, công ty nhằm mục đích đơn giản hóa việc tiếp cận điện toán hiệu năng cao. Mô hình này phát triển mạnh nhờ sự khan hiếm dai dẳng và nhu cầu quá lớn đối với các GPU tiên tiến của Nvidia, chẳng hạn như H100 và các phiên bản tiền nhiệm. Các công ty không thể đảm bảo phân bổ trực tiếp từ Nvidia hoặc đối mặt với danh sách chờ đợi dài với các nhà cung cấp đám mây có thể tìm đến các bên trung gian như Lepton AI để truy cập nhanh hơn hoặc phù hợp hơn.

Startup này đã huy động được một khoản tài trợ hạt giống khiêm tốn 11 triệu đô la vào tháng 5 năm 2023, do CRV và Fusion Fund dẫn đầu. Khoản vốn ban đầu này có khả năng thúc đẩy các nỗ lực xây dựng nền tảng, thiết lập mối quan hệ với các nhà cung cấp đám mây và thu hút cơ sở khách hàng ban đầu. Hoạt động trong không gian này đòi hỏi nguồn vốn đáng kể, không chỉ cho chi phí hoạt động mà còn có khả năng cam kết trước các hợp đồng thuê máy chủ để đảm bảo tính sẵn có của dung lượng cho khách hàng của mình. Do đó, mức giá mua lại được báo cáo cho thấy hoặc là sự tăng trưởng nhanh chóng và sức hút đầy hứa hẹn mà Lepton AI đạt được trong thời gian tồn tại ngắn ngủi của mình, hoặc có lẽ quan trọng hơn, là giá trị chiến lược to lớn mà Nvidia đặt vào việc kiểm soát hoặc ảnh hưởng đến quyền truy cập hạ nguồn vào phần cứng của chính mình.

Lepton AI về cơ bản hoạt động như một đại lý bán lẻ chuyên biệt và lớp dịch vụ, loại bỏ một số phức tạp khi giao dịch trực tiếp với cơ sở hạ tầng đám mây lớn. Đối tượng khách hàng mục tiêu của nó có thể bao gồm:

  • Các Startup AI: Các công ty cần điện toán mạnh mẽ để huấn luyện mô hình hoặc suy luận nhưng thiếu quy mô hoặc nguồn lực cho các hợp đồng đám mây lớn.
  • Các phòng thí nghiệm nghiên cứu: Các nhóm nghiên cứu học thuật hoặc doanh nghiệp yêu cầu các đợt bùng nổ điện toán hiệu năng cao cho các thí nghiệm.
  • Các doanh nghiệp: Các công ty lớn hơn khám phá các dự án AI cụ thể cần dung lượng bổ sung ngoài các thỏa thuận đám mây hiện có của họ.

Tính khả thi của mô hình này phụ thuộc vào khả năng của Lepton AI trong việc đảm bảo dung lượng GPU một cách đáng tin cậy và hiệu quả về chi phí, quản lý cơ sở hạ tầng của mình một cách hiệu quả và cung cấp giá cả hoặc dịch vụ hấp dẫn so với việc đi trực tiếp đến nguồn. Đó là một hành động cân bằng tinh tế trong một thị trường bị thống trị bởi những người khổng lồ.

Tính toán chiến lược của Nvidia: Vượt ra ngoài Silicon

Tại sao Nvidia, một công ty có thành công phi thường bắt nguồn từ việc thiết kế và bán các chip AI được săn đón nhất trong ngành, lại mạo hiểm tham gia vào lĩnh vực cho thuê máy chủ, cạnh tranh hiệu quả, mặc dù gián tiếp, với chính những khách hàng lớn nhất của mình – các nhà cung cấp dịch vụ đám mây? Các động cơ tiềm năng rất đa dạng và nói lên nhiều điều về bối cảnh AI đang phát triển.

1. Tích hợp dọc và Nắm bắt Giá trị: Chuỗi giá trị AI kéo dài từ thiết kế và sản xuất chip qua tích hợp máy chủ, vận hành trung tâm dữ liệu, nền tảng đám mây và cuối cùng là đến các ứng dụng AI. Hiện tại, Nvidia nắm bắt giá trị khổng lồ ở cấp độ chip. Tuy nhiên, giá trị đáng kể cũng được tạo ra ở hạ nguồn trong lớp cơ sở hạ tầng dưới dạng dịch vụ (IaaS), nơi các công ty trả phí bảo hiểm để truy cập vào điện toán tăng tốc bằng GPU. Bằng cách mua lại một người chơi như Lepton AI, Nvidia có khả năng nắm bắt một phần lớn hơn trong tổng chi tiêu cho cơ sở hạ tầng AI, vượt ra ngoài việc bán linh kiện để cung cấp dịch vụ.

2. Thông tin thị trường và Phản hồi trực tiếp từ khách hàng: Vận hành một dịch vụ cho thuê, ngay cả ở khoảng cách xa, sẽ cung cấp cho Nvidia những hiểu biết vô giá, theo thời gian thực về cách GPU của họ đang được sử dụng, khối lượng công việc nào phổ biến nhất, ngăn xếp phần mềm nào được ưa chuộng và những nút thắt cổ chai mà khách hàng phải đối mặt. Vòng phản hồi trực tiếp này có thể cung cấp thông tin cho thiết kế chip trong tương lai, phát triển phần mềm (như nền tảng CUDA của họ) và chiến lược thị trường tổng thể hiệu quả hơn nhiều so với việc chỉ dựa vào phản hồi được lọc qua các đối tác đám mây lớn.

3. Định hình thị trường và Đảm bảo quyền truy cập: Mặc dù các nhà cung cấp siêu quy mô là đối tác quan trọng, Nvidia có thể mong muốn có ảnh hưởng trực tiếp hơn đến cách công nghệ của mình tiếp cận thị trường rộng lớn hơn, đặc biệt là những nhà đổi mới nhỏ hơn. Một nhánh cho thuê có thể đóng vai trò là kênh để đảm bảo các phân khúc khách hàng cụ thể hoặc các sáng kiến chiến lược có quyền truy cập được đảm bảo vào phần cứng Nvidia mới nhất, có khả năng thúc đẩy sự đổi mới mà cuối cùng sẽ thúc đẩy nhu cầu nhiều hơn đối với chip của họ. Nó cũng có thể đóng vai trò là nơi thử nghiệm cho các dịch vụ phần cứng hoặc phần mềm mới trước khi phát hành rộng rãi thông qua các đối tác đám mây lớn.

4. Động lực cạnh tranh: Động thái này cũng có thể được hiểu là mang tính phòng thủ. Khi các đối thủ cạnh tranh (như AMD và Intel) cố gắng giành chỗ đứng trong thị trường chip AI và khi các nhà cung cấp siêu quy mô phát triển silicon AI tùy chỉnh của riêng họ, Nvidia có thể coi việc sở hữu một kênh trực tiếp đến người dùng cuối là một cách để củng cố sự thống trị và lòng trung thành của khách hàng đối với hệ sinh thái của mình. Nó cung cấp một nền tảng để giới thiệu hiệu suất và tính dễ sử dụng của toàn bộ ngăn xếp của Nvidia (phần cứng cộng với phần mềm).

5. Khám phá các mô hình kinh doanh mới: Nhu cầu không ngừng về tính toán AI có thể đang thúc đẩy Nvidia khám phá các mô hình doanh thu định kỳ ngoài việc bán phần cứng. Mặc dù doanh thu dịch vụ ban đầu có thể vẫn còn nhỏ so với doanh số bán chip, nhưng nó đại diện cho một động thái đa dạng hóa và gia nhập vào một phân khúc đang có tốc độ tăng trưởng bùng nổ.

Tuy nhiên, việc tham gia vào thị trường cho thuê máy chủ không phải là không có rủi ro. Nó đặt Nvidia vào tình thế ‘hợp tác cạnh tranh’ tiềm năng với các khách hàng lớn nhất của mình, các nhà cung cấp đám mây, những người mua GPU trị giá hàng tỷ đô la của họ. Nvidia sẽ cần phải điều hướng các mối quan hệ này một cách cẩn thận để tránh làm mất lòng các đối tác quan trọng này. Hơn nữa, việc điều hành một doanh nghiệp dịch vụ đòi hỏi các năng lực hoạt động khác với việc thiết kế và bán phần cứng – tập trung vào thời gian hoạt động, hỗ trợ khách hàng và quản lý cơ sở hạ tầng.

Thị trường bùng nổ cho thuê sức mạnh AI

Bối cảnh cho sự quan tâm tiềm năng của Nvidia đối với Lepton AI là cơn sốt vàng chưa từng có đối với các tài nguyên tính toán AI. Việc huấn luyện các mô hình ngôn ngữ lớn (LLM) như những mô hình cung cấp năng lượng cho ChatGPT hoặc phát triển các ứng dụng AI phức tạp trong các lĩnh vực như khám phá thuốc, lái xe tự hành và mô hình tài chính đòi hỏi sức mạnh xử lý khổng lồ, chủ yếu do GPU cung cấp.

Các yếu tố chính thúc đẩy thị trường cho thuê bao gồm:

  • Chi phí phần cứng quá cao: Việc mua các máy chủ AI tiên tiến hoàn toàn đại diện cho một khoản chi tiêu vốn khổng lồ, thường nằm ngoài tầm với của các startup và thậm chí nhiều doanh nghiệp đã thành lập. Các GPU hàng đầu của Nvidia, như H100, có thể có giá hàng chục nghìn đô la mỗi chiếc và một máy chủ được trang bị đầy đủ có thể lên tới hàng trăm nghìn đô la.
  • Sự khan hiếm phần cứng: Nhu cầu về các GPU tiên tiến của Nvidia liên tục vượt xa nguồn cung. Ngay cả các nhà cung cấp đám mây lớn cũng phải đối mặt với những thách thức trong việc đảm bảo đủ hàng tồn kho, dẫn đến danh sách chờ đợi và hạn chế về dung lượng. Sự khan hiếm này tạo cơ hội cho các bên trung gian quản lý để đảm bảo phân bổ.
  • Nhu cầu về tính linh hoạt và khả năng mở rộng: Phát triển AI thường liên quan đến nhu cầu tính toán không thể đoán trước. Các nhóm có thể yêu cầu tài nguyên khổng lồ cho các lần chạy huấn luyện kéo dài hàng tuần, sau đó là các giai đoạn sử dụng thấp hơn. Các mô hình cho thuê cung cấp tính đàn hồi để tăng hoặc giảm quy mô tài nguyên khi cần, chuyển đổi chi tiêu vốn thành chi tiêu hoạt động.
  • Lỗi thời công nghệ nhanh chóng: Tốc độ đổi mới trong phần cứng AI rất nhanh. Việc thuê cho phép các công ty tiếp cận công nghệ mới nhất mà không có rủi ro sở hữu tài sản khấu hao nhanh chóng.

Các startup như Lepton AI và đối thủ cạnh tranh lớn hơn, lâu đời hơn một chút của nó, Together AI, đã nổi lên để tận dụng những động lực này. Together AI, đã huy động được hơn nửa tỷ đô la vốn đầu tư mạo hiểm, hoạt động trên một tiền đề tương tự nhưng có khả năng ở quy mô lớn hơn, làm nổi bật niềm tin của nhà đầu tư vào mô hình cho thuê GPU và đám mây AI chuyên dụng. Các công ty này tạo sự khác biệt so với các nhà cung cấp siêu quy mô bằng cách tập trung hoàn toàn vào khối lượng công việc AI/ML, có khả năng cung cấp các ngăn xếp phần mềm được tối ưu hóa, hỗ trợ chuyên biệt hoặc cấu trúc giá cả dễ dự đoán hơn cho các trường hợp sử dụng nhất định. Chúng đại diện cho một lớp chuyên môn hóa ngày càng tăng trong thị trường cơ sở hạ tầng đám mây rộng lớn hơn.

Điều hướng Đấu trường Cạnh tranh: Startup vs. Người khổng lồ

Bối cảnh cạnh tranh cho thuê tính toán AI rất phức tạp, bao gồm sự kết hợp của những người khổng lồ đã thành danh và các startup nhanh nhẹn.

  • Các nhà cung cấp siêu quy mô (AWS, Azure, GCP): Đây là những người chơi thống trị, cung cấp một loạt các dịch vụ, bao gồm cả các phiên bản GPU. Họ được hưởng lợi từ quy mô kinh tế, phạm vi toàn cầu và hệ sinh thái tích hợp. Họ cũng là những khách hàng lớn nhất của Nvidia. Tuy nhiên, quy mô của họ đôi khi có thể chuyển thành sự phức tạp, hỗ trợ ít cá nhân hóa hơn cho các khách hàng nhỏ hơn và cạnh tranh gay gắt về dung lượng GPU hạn chế trong thời gian cao điểm.
  • Các nhà cung cấp đám mây AI chuyên dụng (ví dụ: CoreWeave, Lambda Labs): Các công ty này tập trung đặc biệt vào việc cung cấp điện toán hiệu năng cao cho AI/ML, thường tự hào về đội ngũ GPU lớn và chuyên môn phù hợp với các khối lượng công việc này. Họ cạnh tranh trực tiếp với cả các nhà cung cấp siêu quy mô và các startup cho thuê nhỏ hơn.
  • Các startup cho thuê (ví dụ: Lepton AI, Together AI): Những người chơi này thường tập trung vào các thị trường ngách cụ thể, tính linh hoạt hoặc tính dễ sử dụng. Mô hình của họ thường liên quan đến việc thuê dung lượng từ các nhà cung cấp siêu quy mô hoặc các nhà cung cấp chuyên dụng và bán lại, thêm một lớp quản lý, tối ưu hóa hoặc công cụ cụ thể. Sự tồn tại của họ nhấn mạnh sự kém hiệu quả của thị trường và nhu cầu chưa được đáp ứng về quyền truy cập phù hợp.

Việc mua lại Lepton AI sẽ đưa Nvidia trực tiếp vào cuộc cạnh tranh này, mặc dù có thể bắt đầu ở quy mô nhỏ. Nó sẽ cạnh tranh, theo một nghĩa nào đó, với các nhà cung cấp chuyên dụng khác và gián tiếp với các dịch vụ cho thuê GPU của chính các nhà cung cấp siêu quy mô. Câu hỏi quan trọng là Nvidia sẽ định vị dịch vụ như vậy như thế nào. Liệu nó có nhắm đến sự hấp dẫn của thị trường đại chúng, hay tập trung vào các thị trường ngách chiến lược, có lẽ hỗ trợ các startup AI trong chương trình Inception của riêng mình hoặc tạo điều kiện cho các sáng kiến nghiên cứu?

Mối quan hệ với các nhà cung cấp siêu quy mô sẽ là tối quan trọng. Nvidia có thể định vị một Lepton AI được mua lại như một dịch vụ bổ sung, nhắm mục tiêu vào các phân khúc chưa được phục vụ bởi những người khổng lồ hoặc cung cấp các tối ưu hóa phần mềm độc đáo được xây dựng trên ngăn xếp của chính Nvidia (CUDA, cuDNN, TensorRT, v.v.). Nó thậm chí có thể được đóng khung như một cách để thúc đẩy nhiều hơn việc tiêu thụ đám mây một cách gián tiếp, bằng cách cho phép những người chơi nhỏ hơn mở rộng quy mô đến mức cuối cùng họ di chuyển khối lượng công việc lớn hơn sang AWS, Azure hoặc GCP. Tuy nhiên, tiềm năng xung đột kênh là có thật và sẽ đòi hỏi sự quản lý cẩn thận.

Tin đồn về thỏa thuận và Tín hiệu định giá

Mức định giá được báo cáo là ‘vài trăm triệu đô la’ cho Lepton AI là đáng chú ý. Đối với một công ty hai năm tuổi chỉ với 11 triệu đô la tài trợ hạt giống được tiết lộ, điều này thể hiện một sự tăng giá đáng kể. Một số yếu tố có thể góp phần vào mức giá tiềm năng này:

  • Phí bảo hiểm chiến lược: Nvidia có thể sẵn sàng trả phí bảo hiểm không chỉ cho hoạt động kinh doanh hiện tại của Lepton AI, mà còn cho lợi thế chiến lược khi tham gia thị trường cho thuê, thu thập thông tin thị trường và đảm bảo một kênh trực tiếp đến người dùng.
  • Đội ngũ và Công nghệ: Việc mua lại có thể một phần là ‘acqui-hire’ (mua lại để có nhân tài), đánh giá cao chuyên môn của đội ngũ Lepton AI trong việc quản lý cơ sở hạ tầng GPU và phục vụ khách hàng AI. Họ cũng có thể sở hữu phần mềm độc quyền hoặc hiệu quả hoạt động được coi là có giá trị.
  • Xác nhận thị trường: Thành công và định giá cao của đối thủ cạnh tranh Together AI có thể cung cấp một tiêu chuẩn, cho thấy tiềm năng thị trường đáng kể và biện minh cho mức giá cao hơn cho Lepton AI, ngay cả ở giai đoạn đầu.
  • Kiểm soát quyền truy cập phần cứng: Trong môi trường khan hiếm GPU cực độ, bất kỳ thực thể nào đã đảm bảo quyền truy cập vào phần cứng Nvidia – ngay cả thông qua hợp đồng thuê – đều nắm giữ giá trị đáng kể. Nvidia có thể đang trả tiền, một phần, để kiểm soát hoặc chuyển hướng dung lượng đó.

Nếu thỏa thuận diễn ra với mức định giá như vậy, nó sẽ gửi một tín hiệu mạnh mẽ về giá trị được nhận thức bị khóa trong lớp dịch vụ cơ sở hạ tầng AI, ngoài bản thân phần cứng. Nó cho thấy rằng việc tạo điều kiện truy cập và quản lý tài nguyên GPU một cách hiệu quả là một đề xuất có giá trị cao trong môi trường thị trường hiện tại.

Những gợn sóng lan tỏa trong hệ sinh thái: Nhà cung cấp đám mây và hơn thế nữa

Việc Nvidia mua lại Lepton AI, ngay cả khi được định vị cẩn thận, chắc chắn sẽ tạo ra những gợn sóng lan tỏa trong hệ sinh thái công nghệ.

  • Các nhà cung cấp dịch vụ đám mây: AWS, Azure và GCP sẽ theo dõi chặt chẽ. Mặc dù Lepton AI hiện là khách hàng (thuê máy chủ từ họ), một Lepton thuộc sở hữu của Nvidia có thể trở thành đối thủ cạnh tranh trực tiếp hơn, đặc biệt nếu Nvidia đầu tư mạnh vào việc mở rộng quy mô hoạt động của mình. Nó có thể thúc đẩy các nhà cung cấp đám mây đánh giá lại các dịch vụ GPU, chiến lược giá cả và quan hệ đối tác với Nvidia. Họ có thể đẩy nhanh nỗ lực phát triển các bộ tăng tốc AI tùy chỉnh của riêng mình để giảm sự phụ thuộc vào Nvidia.
  • Các nhà sản xuất phần cứng khác: Các đối thủ cạnh tranh như AMD và Intel, những người đang cố gắng thách thức sự thống trị của Nvidia, có thể coi đây là nỗ lực của Nvidia nhằm khóa chặt hơn nữa hệ sinh thái của mình bằng cách kiểm soát không chỉ phần cứng mà còn cả các nền tảng truy cập. Nó có thể làm tăng tính cấp thiết đối với họ trong việc xây dựng các ngăn xếp phần mềm của riêng mình và thúc đẩy các nền tảng cơ sở hạ tầng thay thế.
  • Các startup cơ sở hạ tầng khác: Đối với các công ty như Together AI, CoreWeave hoặc Lambda Labs, một đối thủ cạnh tranh được Nvidia hậu thuẫn sẽ thay đổi cục diện. Một mặt, nó xác nhận thị trường của họ; mặt khác, nó giới thiệu một đối thủ tiềm năng đáng gờm với túi tiền sâu và ảnh hưởng vô song đối với công nghệ cốt lõi.
  • Người dùng cuối: Đối với các nhà phát triển AI và các công ty tìm kiếm tài nguyên GPU, động thái này có thể tích cực nếu nó dẫn đến nhiều lựa chọn hơn, các dịch vụ có khả năng được tối ưu hóa tốt hơn hoặc quyền truy cập dễ dàng hơn, đặc biệt đối với những người chơi nhỏ hơn. Tuy nhiên, nó cũng có thể dẫn đến lo ngại về sự tập trung thị trường nếu Nvidia lạm dụng vị thế của mình một cách không công bằng.

Hiệu ứng bao trùm có thể là sự tăng tốc của các xu hướng tích hợp dọc trong ngăn xếp AI, khi những người chơi lớn tìm cách kiểm soát nhiều mảnh ghép hơn, từ thiết kế silicon đến dịch vụ đám mây và nền tảng phần mềm.

Một mô hình mua lại? Kết nối các điểm

Động thái tiềm năng của Nvidia đối với Lepton AI không xảy ra trong chân không. Nó diễn ra ngay sau các báo cáo rằng Nvidia gần đây cũng đã mua lại Gretel AI, một startup chuyên tạo dữ liệu tổng hợp. Dữ liệu tổng hợp rất quan trọng để huấn luyện các mô hình AI, đặc biệt là khi dữ liệu thực tế khan hiếm, nhạy cảm hoặc sai lệch.

Kết hợp hai thương vụ mua lại tiềm năng này cho thấy một định hướng chiến lược rộng lớn hơn cho Nvidia:

  • Gretel (Dữ liệu): Giải quyết khía cạnh đầu vào của việc phát triển mô hình AI – cung cấp dữ liệu chất lượng cao cần thiết cho việc huấn luyện.
  • Lepton AI (Tính toán): Giải quyết khía cạnh xử lý – cung cấp cơ sở hạ tầng để huấn luyện và chạy các mô hình.

Sự kết hợp này có thể cho thấy tham vọng của Nvidia trong việc cung cấp một nền tảng hoặc bộ công cụ tích hợp hơn hỗ trợ toàn bộ vòng đời phát triển AI. Bằng cách kiểm soát các yếu tố chính của cả việc tạo/quản lý dữ liệu và quyền truy cập cơ sở hạ tầng tính toán, Nvidia có thể củng cố đáng kể hệ sinh thái của mình, khiến nó trở nên không thể thiếu hơn đối với các nhà phát triển AI. Nó gợi ý về một tương lai nơi Nvidia không chỉ cung cấp ‘cuốc và xẻng’ (GPU) cho cơn sốt vàng AI, mà còn cả một số ‘khu vực khai thác’ (cho thuê tính toán) và ‘dịch vụ thẩm định’ (công cụ dữ liệu).

Chiến lược này phù hợp với các khoản đầu tư lớn của Nvidia vào ngăn xếp phần mềm của mình (CUDA, thư viện, framework) được thiết kế để làm cho phần cứng của họ trở nên không thể thiếu. Việc bổ sung các dịch vụ liên quan đến dữ liệu và quyền truy cập tính toán sẽ là một phần mở rộng hợp lý của chiến lược nền tảng này.

Bối cảnh phát triển của việc truy cập tính toán AI

Cách các tổ chức truy cập sức mạnh tính toán cần thiết cho trí tuệ nhân tạo đang thay đổi liên tục. Việc Nvidia có khả năng mua lại Lepton AI phù hợp với một số xu hướng rộng lớn hơn đang định hình bối cảnh này.

Ban đầu, việc truy cập chủ yếu thông qua việc mua và quản lý phần cứng tại chỗ. Sự trỗi dậy của điện toán đám mây đã chuyển mô hình sang IaaS, với các nhà cung cấp siêu quy mô cung cấp các phiên bản GPU theo yêu cầu. Bây giờ, chúng ta đang chứng kiến sự chuyên môn hóa và đa dạng hóa hơn nữa:

  • Đám mây AI chuyên dụng: Cung cấp môi trường được tối ưu hóa đặc biệt cho khối lượng công việc AI/ML.
  • Trung gian cho thuê: Cung cấp quyền truy cập linh hoạt, thường bằng cách tận dụng dung lượng từ các nhà cung cấp lớn hơn.
  • GPU không máy chủ (Serverless GPUs): Các nền tảng nhằm mục đích loại bỏ hoàn toàn việc quản lý máy chủ, cho phép người dùng chỉ trả tiền cho mỗi lần tính toán hoặc suy luận.
  • Điện toán biên (Edge Computing): Triển khai khả năng suy luận AI gần hơn với nơi dữ liệu được tạo ra, sử dụng phần cứng nhỏ hơn, tiết kiệm năng lượng hơn.

Việc Nvidia có khả năng tham gia vào thị trường cho thuê thông qua Lepton AI biểu thị sự thừa nhận rằng cần có các mô hình truy cập đa dạng. Mặc dù các nhà cung cấp siêu quy mô sẽ vẫn chiếm ưu thế đối với các nhu cầu đám mây tích hợp, quy mô lớn, nhưng rõ ràng có một thị trường cho các dịch vụ tính toán chuyên biệt hơn, linh hoạt hơn hoặc tập trung vào nhà phát triển. Nvidia dường như sẵn sàng đảm bảo rằng họ có cổ phần trong hệ sinh thái đang phát triển này, ngăn chặn vai trò của mình bị giới hạn chỉ là nhà cung cấp linh kiện, dù linh kiện đó có quan trọng đến đâu.

Động thái này, nếu thành hiện thực, nhấn mạnh quyết tâm của Nvidia trong việc duy trì vị trí trung tâm của cuộc cách mạng AI, không chỉ bằng cách cung cấp phần cứng nền tảng mà còn bằng cách tích cực định hình cách phần cứng đó được truy cập và sử dụng trong toàn ngành. Nó đại diện cho một canh bạc có tính toán về nhu cầu lâu dài đối với tính toán AI linh hoạt, dễ tiếp cận và tham vọng của Nvidia trong việc nắm bắt giá trị trên một phổ rộng hơn của thị trường cơ sở hạ tầng AI. Những tháng tới sẽ tiết lộ liệu các cuộc đàm phán này có thành hiện thực hay không và Nvidia dự định tích hợp một dịch vụ như vậy vào đế chế công nghệ rộng lớn của mình như thế nào.