Tham vọng AI của Google: Phản chiếu chiến lược Apple

Google ngày càng có những tham vọng giống với Apple, đặc biệt trong lĩnh vực mô hình lớn AI tạo sinh (GenAI). Hội nghị Google Cloud Next gần đây đã trình bày tầm nhìn đầy tham vọng của Google. Điều này bao gồm các đổi mới từ chip TPU v7 Ironwood, được thiết kế để cạnh tranh với GB200 của Nvidia, đến giao thức Agent2Agent (A2A) nhằm vượt qua MCP của Anthropic và môi trường thời gian chạy Pathways để triển khai GenAI.

Google cũng đang tích cực phát triển các công cụ như ADK và Agentspace để trao quyền cho các nhà phát triển trong việc tạo ra AI Agents. Trọng tâm của nỗ lực này là Vertex AI, nền tảng phát triển và triển khai gốc đám mây AI của Google. Vertex AI hiện cung cấp một loạt các dịch vụ tạo nội dung đa dạng, bao gồm Veo 2 cho video, Imagen 3 cho hình ảnh, Chirp 3 cho âm thanh và Lyria cho âm nhạc. Rõ ràng là Google Cloud đang định vị mình để cung cấp cho các nhà phát triển và người dùng một bộ ứng dụng phát triển mô hình lớn GenAI toàn diện.

Mặc dù tính khả dụng thực tế của các dịch vụ và trải nghiệm này vẫn còn phải xem xét, nhưng Google đã thiết lập một hệ sinh thái phần cứng và phần mềm AI đa phương thức hoàn chỉnh, tự phát triển, nguồn đóng và sẵn sàng sử dụng.

Cách tiếp cận toàn diện này vẽ nên một bức tranh về Google như là Apple của kỷ nguyên AI.

Ironwood TPU: Một đối thủ mạnh mẽ

Việc ra mắt chip TPU thế hệ thứ bảy, Ironwood, đặc biệt đáng chú ý.

  • Mỗi TPU được trang bị 192GB bộ nhớ HBM, với băng thông từ 7,2 đến 7,4TB/s, có khả năng sử dụng công nghệ HBM3E. Điều này so sánh tốt với chip B200 của Nvidia, cung cấp băng thông 8TB/s.
  • Mỗi TPU v7 được làm mát bằng chất lỏng có thể đạt được 4,6 Petaflops sức mạnh tính toán FP8 dày đặc. Điều này thấp hơn một chút so với 20 Petaflops của B200.
  • Tuy nhiên, mạng trung tâm dữ liệu Jupiter của Google cho phép mở rộng quy mô để hỗ trợ tối đa 400.000 chip hoặc 43 cụm TPU v7x. Chuyên môn về công nghệ máy chủ của Google cho phép nó giảm bớt các số liệu hiệu suất chip đơn.
  • Điều quan trọng là, Google đã giới thiệu Pathways, một môi trường thời gian chạy AI chuyên dụng giúp tăng cường tính linh hoạt của việc triển khai mô hình GenAI, củng cố hơn nữa lợi thế của nó trong lĩnh vực cụm dịch vụ.
  • Ironwood có sẵn trong hai cấu hình cụm: 256 chip hoặc 9216 chip, phù hợp với khối lượng công việc cụ thể. Một cụm duy nhất có thể đạt được sức mạnh tính toán 42,5 Exaflops. Google tuyên bố hiệu suất này vượt qua siêu máy tính lớn nhất thế giới, El Capitan, với hệ số 24. Tuy nhiên, con số này được đo ở độ chính xác FP8 và El Capitan của AMD vẫn chưa cung cấp dữ liệu độ chính xác FP8. Google đã thừa nhận điều này, gây khó khăn cho việc so sánh trực tiếp.

Chấp nhận một hệ sinh thái GenAI nguồn đóng

Google đang theo đuổi một hệ sinh thái nguồn đóng toàn diện trong lĩnh vực GenAI. Mặc dù Gemma nguồn mở có những ưu điểm của nó, nhưng Google đang hướng các nguồn lực vào các giải pháp nguồn đóng của mình.

Với sự gia tăng quan tâm đến AI Agent, Google đã công bố giao thức A2A tại hội nghị, thu hút 50 nhà cung cấp chính thống để cạnh tranh với MCP của Anthropic.

Trong khi OpenAI đã mở nguồn Agents SDK của mình, tích hợp các khả năng mô hình lớn của nó, Google đang mở rộng Vertex AI với ADK, Agentspace, AutoML, AIPlatform và Kubeflow, bổ sung các khả năng mô hình khác nhau.

Tuy nhiên, khi so sánh khả năng tạo hình ảnh của GPT-4o với các tính năng tương đương của Gemini 2.0 Flash, các sản phẩm của Google, mặc dù đầy tham vọng, có thể thiếu sự trau chuốt. Việc tích hợp nhiều mô hình, dịch vụ và công cụ, mặc dù có lợi cho cạnh tranh, có vẻ hơi sớm. Thị trường cần các mô hình lớn đa phương thức tích hợp tốt, trưởng thành và các dịch vụ trong mô hình.

Sao chép mô hình Gmail, Chrome và Google trong AI

Thành công của Google với Gmail, Chrome và cách tiếp cận ‘tên lửa ba tầng’ đã cho phép nó thống trị thị trường công nghệ toàn cầu. Chiến lược này đang được triển khai nhanh chóng trong lĩnh vực GenAI. Tuy nhiên, không giống như sự ủng hộ trước đây của nó đối với nguồn mở, Google ngày càng chấp nhận phát triển nguồn đóng.

Google đang chuyển đổi hiệu quả nguồn mở thành một dạng nguồn đóng bằng cách củng cố các nguồn lực của mình để thiết lập một hệ sinh thái thống trị trong một lĩnh vực cụ thể, sau đó áp dụng các khoản phí. Cách tiếp cận này đang phải đối mặt với sự chỉ trích ngày càng tăng từ các nhà phát triển.

Các khuôn khổ máy học nguồn mở của Google, TensorFlow và Jax, đã đạt được thành công trên toàn cầu. Tuy nhiên, môi trường thời gian chạy Pathways mới là nguồn đóng, thậm chí cô lập các công cụ phát triển CUDA của Nvidia.

Google vs. Nvidia: Cuộc chiến giành quyền thống trị AI

Khi Nvidia bảo vệ AI vật lý và giới thiệu mô hình chung robot hình người nguồn mở Isaac GR00T N1, Google DeepMind đang tham gia thị trường với Gemini Robotics và Gemini Robotics-ER, dựa trên Gemini 2.0.

Hiện tại, sự hiện diện của Google chỉ thiếu trong thị trường máy tính AI để bàn. DGX Spark (trước đây là Project DIGITS) và DGX Station của Nvidia, cùng với Mac Studio của Apple, sẽ cạnh tranh như thế nào với các dịch vụ đám mây của Google? Câu hỏi này đã trở thành tâm điểm trong ngành sau hội nghị.

Sự phụ thuộc của Apple vào Google Cloud và Chip M3 Ultra

Apple được cho là đang sử dụng các cụm TPU của Google Cloud để đào tạo các mô hình lớn của mình, thậm chí từ bỏ các giải pháp đào tạo chip Nvidia do cân nhắc về chi phí! Mặc dù phải đối mặt với những điểm yếu về phần mềm, Apple đang tập trung vào các chip dòng M của mình. Mac Studio mới nhất, được trang bị chip M3 Ultra, hiện có bộ nhớ thống nhất lên đến 512GB. Việc Apple có khả năng sớm áp dụng công nghệ Pathways của Google có thể đã giúp nó liên kết với Google.

Yếu tố chống độc quyền

Vấn đề cơ bản xoay quanh các lo ngại về chống độc quyền. Hiện tại, mô hình kinh doanh của Apple có vị trí duy nhất để điều hướng các vụ kiện chống độc quyền toàn cầu, không giống như Microsoft và Google, những công ty phải đối mặt với khả năng bị chia tách. Quy mô của Google khiến nó có nguy cơ bị buộc phải thoái vốn hệ điều hành Android cốt lõi và các doanh nghiệp trình duyệt Chrome.

Google gần đây đã ngừng bảo trì Dự án nguồn mở Android (AOSP), khiến việc chuyển đổi sang mô hình Apple trở nên không thể tránh khỏi trong kỷ nguyên AI. Khi những đột phá về AI xuất hiện, sự thay đổi chiến lược của Google ngày càng trở nên rõ ràng.

Mở rộng về Google’s TPU v7 Ironwood

Đi sâu hơn vào các thông số kỹ thuật của TPU v7 Ironwood cho thấy một phần cứng được thiết kế tỉ mỉ. Bộ nhớ băng thông cao (HBM) 192GB là một thành phần quan trọng, cho phép truy cập dữ liệu nhanh chóng, điều này cần thiết cho việc đào tạo và chạy các mô hình AI phức tạp. Việc sử dụng công nghệ HBM3E được dự kiến nhấn mạnh cam kết của Google trong việc tận dụng những tiến bộ vượt trội trong công nghệ bộ nhớ. Băng thông 7,2-7,4TB/s không chỉ là một con số ấn tượng; nó chuyển trực tiếp thành thời gian xử lý nhanh hơn và khả năng xử lý các tập dữ liệu lớn hơn, phức tạp hơn.

Việc so sánh với B200 của Nvidia là không thể tránh khỏi, do sự thống trị của Nvidia trên thị trường GPU. Mặc dù B200 cung cấp băng thông cao hơn một chút là 8TB/s, nhưng kiến trúc hệ thống tổng thể và tích hợp trong hệ sinh thái của Google là nơi Ironwood nhắm đến sự khác biệt.

4,6 Petaflops sức mạnh tính toán FP8 dày đặc là thước đo khả năng của chip để thực hiện các phép toán dấu phẩy động, vốn là nền tảng cho các phép tính AI. Sự khác biệt so với 20 Petaflops của B200 làm nổi bật các triết lý thiết kế khác biệt. Google nhấn mạnh khả năng mở rộng và tích hợp các TPU của mình trong cơ sở hạ tầng trung tâm dữ liệu của nó, trong khi Nvidia tập trung vào sức mạnh tính toán thô ở cấp độ chip.

Tầm quan trọng của Mạng trung tâm dữ liệu Jupiter của Google

Mạng trung tâm dữ liệu Jupiter của Google là một tài sản quan trọng, cho phép kết nối liền mạch một số lượng lớn chip TPU. Khả năng hỗ trợ tối đa 400.000 chip hoặc 43 cụm TPU v7x nhấn mạnh quy mô hoạt động của Google. Khả năng mở rộng này là một yếu tố khác biệt chính, vì nó cho phép Google phân phối khối lượng công việc trên một cơ sở hạ tầng khổng lồ, tối ưu hóa hiệu suất và hiệu quả.

Chuyên môn của Google về công nghệ máy chủ là một yếu tố quan trọng trong chiến lược AI của nó. Bằng cách ưu tiên hiệu suất cấp hệ thống hơn thông số kỹ thuật chip riêng lẻ, Google có thể tận dụng cơ sở hạ tầng của mình để đạt được kết quả vượt trội. Cách tiếp cận này đặc biệt phù hợp trong bối cảnh đào tạo mô hình AI quy mô lớn, nơi khả năng phân phối các tính toán trên một mạng lưới các bộ xử lý được kết nối với nhau là rất cần thiết.

Tiết lộ Môi trường thời gian chạy AI Pathways

Việc giới thiệu Pathways là một động thái chiến lược giúp tăng cường tính linh hoạt và hiệu quả của việc triển khai mô hình GenAI. Môi trường thời gian chạy AI chuyên dụng này cho phép các nhà phát triển tối ưu hóa các mô hình của họ cho cơ sở hạ tầng của Google, tận dụng tối đa các tài nguyên phần cứng và phần mềm có sẵn.

Pathways thể hiện một khoản đầu tư đáng kể vào ngăn xếp phần mềm AI, cung cấp một nền tảng thống nhất để triển khai và quản lý các mô hình AI. Bằng cách hợp lý hóa quy trình triển khai, Google nhằm mục đích giảm rào cản gia nhập cho các nhà phát triển và khuyến khích việc áp dụng các dịch vụ AI của mình. Đổi lại, điều này sẽ thúc đẩy sự đổi mới và tạo ra một hệ sinh thái sôi động xung quanh nền tảng AI của Google.

Cái nhìn sâu sắc hơn về Chiến lược Nguồn đóng của Google

Việc Google chấp nhận một chiến lược nguồn đóng trong lĩnh vực GenAI là một lựa chọn có chủ ý phản ánh tầm nhìn dài hạn của nó đối với AI. Mặc dù Gemma nguồn mở là một đóng góp có giá trị cho cộng đồng AI, nhưng Google rõ ràng đang ưu tiên các giải pháp nguồn đóng của mình, nhận ra rằng chúng mang lại khả năng kiểm soát và tùy chỉnh cao hơn.

Bằng cách tập trung vào phát triển nguồn đóng, Google có thể tối ưu hóa các mô hình và cơ sở hạ tầng AI của mình cho các tác vụ cụ thể, đảm bảo hiệu suất và hiệu quả tối đa. Cách tiếp cận này cũng cho phép Google bảo vệ tài sản trí tuệ của mình và duy trì lợi thế cạnh tranh trong bối cảnh AI đang phát triển nhanh chóng.

Cách tiếp cận nguồn đóng không phải là không có những người chỉ trích, những người cho rằng nó kìm hãm sự đổi mới và hạn chế sự hợp tác. Tuy nhiên, Google duy trì rằng điều đó là cần thiết để đảm bảo chất lượng, bảo mật và độ tin cậy của các dịch vụ AI của nó.

Giao thức A2A và Cuộc chiến giành Quyền thống trị AI Agent

Sự xuất hiện của AI Agents đã tạo ra một chiến trường mới trong ngành AI và Google quyết tâm trở thành người dẫn đầu trong không gian này. Việc công bố giao thức A2A tại hội nghị Google Cloud Next là một dấu hiệu rõ ràng cho thấy tham vọng của Google.

Bằng cách thu hút 50 nhà cung cấp chính thống hỗ trợ giao thức A2A, Google đang cố gắng tạo ra một tiêu chuẩn thống nhất cho giao tiếp AI Agent. Điều này sẽ cho phép AI Agents từ các nền tảng khác nhau tương tác liền mạch, tạo ra một hệ sinh thái AI được kết nối và hợp tác hơn.

Sự cạnh tranh với MCP của Anthropic là một khía cạnh quan trọng trong chiến lược AI Agent của Google. Anthropic là một công ty nghiên cứu AI được kính trọng và giao thức MCP của nó đã đạt được sức hút trong ngành. Giao thức A2A của Google thể hiện một thách thức trực tiếp đối với MCP và kết quả của cuộc cạnh tranh này sẽ có tác động đáng kể đến tương lai của AI Agents.

Vertex AI: Một nền tảng phát triển AI toàn diện

Vertex AI của Google là một nền tảng phát triển AI toàn diện cung cấp cho các nhà phát triển một loạt các công cụ và dịch vụ. Bằng cách tích hợp ADK, Agentspace, AutoML, AIPlatform và Kubeflow, Google đang tạo ra một cửa hàng duy nhất để phát triển AI.

Vertex AI nhằm mục đích đơn giản hóa quy trình phát triển AI, giúp các nhà phát triển dễ dàng xây dựng, đào tạo và triển khai các mô hình AI. Nền tảng này cũng cung cấp quyền truy cập vào một thư viện rộng lớn các mô hình được đào tạo trước, cho phép các nhà phát triển nhanh chóng kết hợp các khả năng AI vào các ứng dụng của họ.

Việc tích hợp các khả năng mô hình khác nhau là một lợi thế chính của Vertex AI. Bằng cách cung cấp một loạt các mô hình đa dạng, Google đang phục vụ một loạt các trường hợp sử dụng, từ nhận dạng hình ảnh đến xử lý ngôn ngữ tự nhiên. Cách tiếp cận toàn diện này làm cho Vertex AI trở thành một lựa chọn hấp dẫn cho các nhà phát triển đang tìm kiếm một nền tảng phát triển AI linh hoạt và mạnh mẽ.

Tích hợp mô hình của Google: Tham vọng so với Thực thi

Mặc dù tham vọng của Google trong việc tích hợp nhiều mô hình, dịch vụ và công cụ là đáng khen ngợi, nhưng việc thực thi có thể cần được tinh chỉnh thêm. Thị trường đang yêu cầu các mô hình lớn đa phương thức tích hợp tốt, trưởng thành và các dịch vụ trong mô hình. Các sản phẩm hiện tại của Google, mặc dù đầy hứa hẹn, có thể cần được trau chuốt thêm để đáp ứng những kỳ vọng này.

Việc tích hợp các khả năng AI khác nhau là một cam kết phức tạp và Google phải đối mặt với thách thức đảm bảo rằng các mô hình và dịch vụ khác nhau của mình hoạt động liền mạch với nhau. Điều này đòi hỏi sự chú ý cẩn thận đến chi tiết và cam kết cải tiến liên tục.

Cuối cùng, thành công của các nỗ lực tích hợp mô hình của Google sẽ phụ thuộc vào khả năng cung cấp trải nghiệm người dùng vừa mạnh mẽ vừa trực quan. Điều này sẽ đòi hỏi sự hiểu biết sâu sắc về nhu cầu của người dùng và sự tập trung không ngừng vào chất lượng.