Cơn địa chấn ban đầu: DeepSeek và ảo ảnh hiệu quả
Sự xuất hiện của DeepSeek AI của Trung Quốc vào đầu năm nay đã gây ra những làn sóng chấn động trong giới đầu tư công nghệ. Cách tiếp cận có vẻ đột phá của nó, hứa hẹn trí tuệ nhân tạo mạnh mẽ với chi phí tính toán thấp hơn đáng kể, đã ngay lập tức làm dấy lên những đồn đoán. Một câu chuyện nhanh chóng được hình thành: có lẽ việc mở rộng không ngừng, tốn kém của cơ sở hạ tầng AI, đặc trưng bởi việc mua sắm hàng loạt các chip và hệ thống chuyên dụng, sắp chậm lại. Thị trường đã phản ứng, phản ánh niềm tin rằng một kỷ nguyên mới của AI hiệu quả về chi phí có thể làm giảm đáng kể sự bùng nổ chi tiêu được dự đoán trước.
Tuy nhiên, những hiểu biết sâu sắc từ một cuộc họp cấp cao gần đây của các bộ óc trong ngành lại vẽ nên một bức tranh hoàn toàn khác. Một hội nghị về AI tạo sinh do Bloomberg Intelligence tổ chức tại New York cho thấy rằng cách giải thích ban đầu, chỉ tập trung vào tiềm năng tiết kiệm chi phí, đã bỏ lỡ câu chuyện lớn hơn. Thay vì báo hiệu sự chậm lại trong chi tiêu, sự kiện này nhấn mạnh một cơn khát gần như vô độ đối với năng lực AI lớn hơn. Sự đồng thuận không phải là cắt giảm; đó là tìm cách đáp ứng nhu cầu ngày càng tăng theo cấp số nhân đối với các hệ thống thông minh, ngay cả khi rất mong muốn thực đơn bớt đắt đỏ hơn.
Tiếng nói từ chiến hào: Cơn khát năng lực không thể thỏa mãn
Các cuộc thảo luận trong suốt sự kiện kéo dài một ngày, quy tụ các nhà phát triển, chiến lược gia và nhà đầu tư, liên tục xoay quanh chủ đề nhu cầu leo thang thúc đẩy đầu tư khổng lồ. Mandeep Singh, một nhà phân tích công nghệ cấp cao của Bloomberg Intelligence và là một trong những người tổ chức sự kiện, đã nắm bắt được tình cảm phổ biến một cách ngắn gọn. Suy ngẫm về nhiều hội thảo và thảo luận của chuyên gia, ông lưu ý một điệp khúc phổ biến: không ai tham gia cảm thấy họ sở hữu đủ năng lực AI. Cảm giác áp đảo là cần nhiều hơn, chứ không phải có quá nhiều.
Điều quan trọng là, Singh nói thêm, bóng ma của một ‘bong bóng cơ sở hạ tầng’, một nỗi sợ hãi phổ biến trong các lĩnh vực công nghệ mở rộng nhanh chóng, đã vắng mặt đáng kể trong cuộc trò chuyện. Trọng tâm vẫn tập trung hoàn toàn vào thách thức nền tảng mà toàn bộ ngành công nghiệp phải đối mặt. Anurag Rana, đồng nghiệp của Singh và là nhà phân tích cấp cao về dịch vụ và phần mềm CNTT của Bloomberg Intelligence, đã định hình nó như câu hỏi tối quan trọng: ‘Chúng ta đang ở đâu trong chu kỳ [xây dựng cơ sở hạ tầng AI] đó?’
Trong khi thừa nhận rằng việc xác định chính xác giai đoạn của quá trình xây dựng quy mô lớn này vẫn còn khó nắm bắt (‘Không ai biết’ chắc chắn, Rana thừa nhận), hiện tượng DeepSeek không thể phủ nhận đã thay đổi quan điểm. Nó đã tiêm một liều hy vọng mạnh mẽ rằng các khối lượng công việc AI đáng kể có thể được xử lý một cách kinh tế hơn. ‘DeepSeek đã làm rung chuyển rất nhiều người’, Rana nhận xét. Hàm ý rất rõ ràng: nếu các mô hình AI phức tạp thực sự có thể chạy hiệu quả trên phần cứng ít đòi hỏi hơn, có lẽ các dự án khổng lồ, như các sáng kiến trị giá hàng trăm tỷ đô la được đồn đại là do các tập đoàn liên quan đến các công ty công nghệ lớn lên kế hoạch, có thể được đánh giá lại hoặc điều chỉnh quy mô khác đi.
Ước mơ, được lặp lại trong toàn ngành theo Rana, là chi phí vận hành AI, đặc biệt là cho inference (giai đoạn mà các mô hình đã được huấn luyện tạo ra dự đoán hoặc nội dung), sẽ theo quỹ đạo giảm mạnh như đã thấy trong lưu trữ điện toán đám mây trong thập kỷ qua. Ông nhớ lại cách kinh tế của việc lưu trữ lượng lớn dữ liệu trên các nền tảng như Amazon Web Services (AWS) đã cải thiện đáng kể trong khoảng tám năm. ‘Sự sụt giảm đó trong đường cong chi phí… kinh tế học đã tốt’, ông nói. ‘Và đó là điều mọi người đang hy vọng, rằng về phía inference… nếu đường cong giảm xuống mức đó, trời ơi, tỷ lệ chấp nhận AI… sẽ rất ngoạn mục’. Singh đồng tình, lưu ý rằng sự xuất hiện của DeepSeek về cơ bản đã ‘thay đổi tư duy của mọi người về việc đạt được hiệu quả’.
Khát vọng về hiệu quả này có thể cảm nhận được trong suốt các phiên họp của hội nghị. Trong khi nhiều hội thảo đi sâu vào tính thực tiễn của việc chuyển các dự án AI doanh nghiệp từ giai đoạn ý tưởng sang sản xuất trực tiếp, một cuộc thảo luận song song liên tục nhấn mạnh sự cần thiết phải cắt giảm chi phí liên quan đến việc triển khai và chạy các mô hình AI này. Mục tiêu rất rõ ràng: dân chủ hóa quyền truy cập bằng cách làm cho AI khả thi về mặt kinh tế cho một phạm vi ứng dụng và người dùng rộng lớn hơn. Shawn Edwards, giám đốc công nghệ của chính Bloomberg, cho rằng DeepSeek không nhất thiết là một bất ngờ hoàn toàn, mà là một minh chứng mạnh mẽ cho một mong muốn phổ quát. ‘Điều đó khiến tôi nghĩ rằng sẽ thật tuyệt nếu bạn có thể vẫy một cây đũa thần và khiến những mô hình này chạy cực kỳ hiệu quả’, ông nhận xét, mở rộng mong muốn đến toàn bộ phổ mô hình AI, chứ không chỉ một đột phá cụ thể.
Nguyên tắc phổ biến: Thúc đẩy nhu cầu tính toán
Một trong những lý do chính khiến các chuyên gia dự đoán đầu tư đáng kể, liên tục vào cơ sở hạ tầng AI, bất chấp việc tìm kiếm hiệu quả, nằm ở sự gia tăng chóng mặt của các mô hình AI. Một chủ đề lặp đi lặp lại trong suốt hội nghị ở New York là sự chuyển hướng dứt khoát khỏi khái niệm về một mô hình AI duy nhất, nguyên khối có khả năng xử lý mọi tác vụ.
- Một gia đình mô hình: Như Edwards của Bloomberg đã nói, ‘Chúng tôi sử dụng một gia đình các mô hình. Không có cái gọi là mô hình tốt nhất’. Điều này phản ánh sự hiểu biết ngày càng tăng rằng các kiến trúc AI khác nhau vượt trội ở các nhiệm vụ khác nhau – tạo ngôn ngữ, phân tích dữ liệu, nhận dạng hình ảnh, hoàn thành mã, v.v.
- Tùy chỉnh doanh nghiệp: Các tham luận viên đồng ý rộng rãi rằng trong khi các mô hình ‘nền tảng’ hoặc ‘tiên phong’ lớn, đa năng sẽ tiếp tục được phát triển và tinh chỉnh bởi các phòng thí nghiệm AI lớn, hành động thực sự trong các doanh nghiệp liên quan đến việc triển khai tiềm năng hàng trăm hoặc thậm chí hàng nghìn mô hình AI chuyên biệt.
- Tinh chỉnh (Fine-Tuning) và Dữ liệu độc quyền: Nhiều mô hình doanh nghiệp này sẽ được điều chỉnh từ các mô hình cơ sở thông qua một quy trình gọi là fine-tuning. Điều này liên quan đến việc đào tạo lại một mạng nơ-ron đã được đào tạo trước trên dữ liệu cụ thể, thường là độc quyền của công ty. Điều này cho phép AI hiểu bối cảnh kinh doanh độc đáo, thuật ngữ và tương tác khách hàng, mang lại kết quả phù hợp và có giá trị hơn nhiều so với một mô hình chung chung có thể làm được.
- Dân chủ hóa phát triển: Jed Dougherty, đại diện cho nền tảng khoa học dữ liệu Dataiku, nhấn mạnh sự cần thiết của ‘tính tùy chọn giữa các mô hình’ cho các tác nhân AI doanh nghiệp. Ông nhấn mạnh tầm quan trọng của việc trao cho các công ty quyền kiểm soát, khả năng tạo và khả năng kiểm toán đối với các công cụ AI của họ. ‘Chúng tôi muốn trao công cụ để xây dựng những thứ này vào tay mọi người’, Dougherty khẳng định. ‘Chúng tôi không muốn mười tiến sĩ xây dựng tất cả các tác nhân’. Động lực hướng tới khả năng tiếp cận rộng rãi hơn trong chính quá trình phát triển ngụ ý nhu cầu về nhiều cơ sở hạ tầng cơ bản hơn để hỗ trợ các nỗ lực sáng tạo phân tán này.
- AI dành riêng cho thương hiệu: Các ngành công nghiệp sáng tạo đưa ra một ví dụ điển hình. Hannah Elsakr, người đứng đầu các dự án kinh doanh mới tại Adobe, giải thích chiến lược của họ đặt cược vào các mô hình tùy chỉnh như một yếu tố khác biệt chính. ‘Chúng tôi có thể đào tạo các phần mở rộng mô hình tùy chỉnh cho thương hiệu của bạn có thể giúp ích cho một chiến dịch quảng cáo mới’, bà minh họa, cho thấy cách AI có thể được điều chỉnh để duy trì tính thẩm mỹ và thông điệp thương hiệu cụ thể.
Ngoài sự đa dạng hóa của các mô hình, việc triển khai ngày càng tăng các tác nhân AI (AI agents) trong quy trình làm việc của công ty là một động lực quan trọng khác thúc đẩy nhu cầu xử lý. Các tác nhân này được hình dung không chỉ là công cụ thụ động mà còn là những người tham gia tích cực có khả năng thực hiện các tác vụ nhiều bước.
Ray Smith, người đứng đầu các nỗ lực về tác nhân và tự động hóa của Microsoft Copilot Studio, dự đoán một tương lai nơi người dùng tương tác với hàng trăm tác nhân chuyên biệt tiềm năng thông qua một giao diện thống nhất như Copilot. ‘Bạn sẽ không nhồi nhét toàn bộ quy trình vào một tác nhân, bạn sẽ chia nhỏ nó thành các phần’, ông giải thích. Các tác nhân này, ông gợi ý, về cơ bản là ‘các ứng dụng trong thế giới lập trình mới’. Tầm nhìn là nơi người dùng chỉ cần nêu mục tiêu của họ – ‘nói cho nó biết chúng ta muốn hoàn thành điều gì’ – và tác nhân sẽ điều phối các bước cần thiết. ‘Các ứng dụng tác nhân chỉ là một cách làm việc mới’, Smith nói, nhấn mạnh rằng việc hiện thực hóa tầm nhìn này ít phụ thuộc vào khả năng công nghệ (‘tất cả đều có thể thực hiện được về mặt công nghệ’) mà nhiều hơn vào ‘tốc độ chúng ta xây dựng nó’.
Sự thúc đẩy này để nhúng các tác nhân AI sâu hơn vào các quy trình tổ chức hàng ngày càng làm tăng áp lực giảm chi phí và triển khai hiệu quả. James McNiven, người đứng đầu bộ phận quản lý sản phẩm tại gã khổng lồ vi xử lý ARM Holdings, đã định hình thách thức về mặt khả năng tiếp cận. ‘Làm thế nào để chúng ta cung cấp quyền truy cập trên ngày càng nhiều thiết bị?’ ông suy ngẫm. Quan sát các mô hình đạt được khả năng gần như ‘cấp tiến sĩ’ trong các nhiệm vụ cụ thể, ông đã vẽ ra một sự tương đồng với tác động biến đổi của việc đưa hệ thống thanh toán di động đến các quốc gia đang phát triển nhiều năm trước. Câu hỏi cốt lõi vẫn là: ‘Làm thế nào để chúng ta đưa [khả năng AI] đó đến những người có thể sử dụng khả năng đó?’ Việc cung cấp các tác nhân AI phức tạp sẵn sàng như những trợ lý cho một bộ phận lớn lực lượng lao động đòi hỏi không chỉ phần mềm thông minh mà còn cả phần cứng hiệu quả và, không thể tránh khỏi, đầu tư nhiều hơn vào cơ sở hạ tầng cơ bản, ngay cả khi hiệu quả trên mỗi phép tính được cải thiện.
Rào cản về quy mô: Silicon, Năng lượng và những gã khổng lồ đám mây
Ngay cả những mô hình nền tảng chung, được sử dụng rộng rãi nhất cũng đang nhân lên với tốc độ đáng kinh ngạc, gây áp lực rất lớn lên cơ sở hạ tầng hiện có. Dave Brown, người giám sát điện toán và mạng cho Amazon Web Services (AWS), tiết lộ rằng chỉ riêng nền tảng của họ đã cung cấp cho khách hàng quyền truy cập vào khoảng 1.800 mô hình AI khác nhau. Ông nhấn mạnh sự tập trung cao độ của AWS vào việc ‘làm rất nhiều để giảm chi phí’ vận hành các công cụ mạnh mẽ này.
Một chiến lược quan trọng đối với các nhà cung cấp đám mây như AWS liên quan đến việc phát triển silicon tùy chỉnh (custom silicon) của riêng họ. Brown nhấn mạnh việc sử dụng ngày càng tăng các chip do AWS thiết kế, chẳng hạn như bộ xử lý Trainium của họ được tối ưu hóa cho việc đào tạo AI, nói rằng, ‘AWS đang sử dụng nhiều bộ xử lý của riêng chúng tôi hơn là bộ xử lý của các công ty khác’. Động thái hướng tới phần cứng chuyên dụng, nội bộ này nhằm mục đích giành quyền kiểm soát hiệu suất và chi phí, giảm sự phụ thuộc vào các nhà cung cấp chip đa năng như Nvidia, AMD và Intel. Bất chấp những nỗ lực này, Brown thẳng thắn thừa nhận thực tế cơ bản: ‘Khách hàng sẽ làm nhiều hơn nếu chi phí thấp hơn’. Trần nhu cầu hiện tại được xác định nhiều hơn bởi các ràng buộc ngân sách hơn là do thiếu các ứng dụng tiềm năng.
Quy mô tài nguyên cần thiết của các nhà phát triển AI hàng đầu là rất lớn. Brown lưu ý sự hợp tác hàng ngày của AWS với Anthropic, những người tạo ra dòng mô hình ngôn ngữ Claude phức tạp. Michael Gerstenhaber, người đứng đầu bộ phận giao diện lập trình ứng dụng của Anthropic, phát biểu cùng với Brown, đã chỉ ra cường độ tính toán của AI hiện đại, đặc biệt là các mô hình được thiết kế để suy luận phức tạp hoặc ‘suy nghĩ’. Các mô hình này thường tạo ra các giải thích chi tiết từng bước cho câu trả lời của chúng, tiêu tốn năng lượng xử lý đáng kể. ‘Các mô hình suy nghĩ gây ra việc sử dụng rất nhiều dung lượng’, Gerstenhaber nói.
Trong khi Anthropic tích cực làm việc với AWS về các kỹ thuật tối ưu hóa như ‘prompt caching’ (lưu trữ và tái sử dụng các phép tính từ các tương tác trước đó để tiết kiệm tài nguyên), yêu cầu phần cứng cơ bản vẫn rất lớn. Gerstenhaber thẳng thắn tuyên bố rằng Anthropic cần ‘hàng trăm nghìn bộ tăng tốc (accelerators)’ – các chip AI chuyên dụng – được phân phối ‘trên nhiều trung tâm dữ liệu’ chỉ để chạy bộ mô hình hiện tại của mình. Điều này cung cấp một cảm nhận cụ thể về quy mô tuyệt đối của tài nguyên tính toán làm nền tảng cho chỉ một công ty AI lớn.
Làm phức tạp thêm thách thức trong việc mua sắm và quản lý đội ngũ silicon khổng lồ là mức tiêu thụ năng lượng tăng vọt liên quan đến AI. Brown nhấn mạnh đây là một mối quan tâm quan trọng và đang leo thang nhanh chóng. Các trung tâm dữ liệu hiện tại hỗ trợ khối lượng công việc AI chuyên sâu đã tiêu thụ điện năng được đo bằng hàng trăm megawatt. Các dự báo cho thấy các yêu cầu trong tương lai chắc chắn sẽ leo lên phạm vi gigawatt – sản lượng của các nhà máy điện lớn. ‘Năng lượng mà nó tiêu thụ’, Brown cảnh báo, đề cập đến AI, ‘là rất lớn, và dấu chân của nó rất lớn trong nhiều trung tâm dữ liệu’. Nhu cầu năng lượng leo thang này không chỉ đặt ra chi phí vận hành khổng lồ mà còn cả những thách thức đáng kể về môi trường và hậu cần cho việc định vị và cung cấp năng lượng cho thế hệ cơ sở hạ tầng AI tiếp theo.
Yếu tố kinh tế bất định: Một bóng đen bao phủ các kế hoạch tăng trưởng
Bất chấp triển vọng lạc quan được thúc đẩy bởi những tiến bộ công nghệ và các trường hợp sử dụng đang phát triển, một biến số quan trọng đang bao trùm lên tất cả các dự báo về đầu tư AI: môi trường kinh tế vĩ mô rộng lớn hơn. Khi hội nghị của Bloomberg Intelligence kết thúc, những người tham dự đã quan sát thấy sự biến động của thị trường bắt nguồn từ các gói thuế quan toàn cầu mới được công bố, được cho là sâu rộng hơn dự kiến.
Đây là một lời nhắc nhở mạnh mẽ rằng các lộ trình công nghệ đầy tham vọng có thể nhanh chóng bị phá vỡ bởi những cơn gió ngược kinh tế vĩ mô. Rana của Bloomberg cảnh báo rằng trong khi chi tiêu cho AI có thể phần nào được bảo vệ ban đầu, các lĩnh vực đầu tư CNTT truyền thống của doanh nghiệp, chẳng hạn như máy chủ và lưu trữ không liên quan đến AI, có thể là những nạn nhân đầu tiên trong một cuộc suy thoái kinh tế. ‘Điều lớn khác mà chúng tôi đang tập trung vào là chi tiêu công nghệ không phải AI’, ông lưu ý, bày tỏ lo ngại về tác động tiềm tàng đối với các nhà cung cấp dịch vụ công nghệ lớn trước mùa báo cáo thu nhập, ngay cả trước khi xem xét cụ thể ngân sách AI.
Tuy nhiên, có một lý thuyết phổ biến cho rằng AI có thể chứng tỏ khả năng phục hồi độc đáo. Rana gợi ý rằng các Giám đốc Tài chính (CFO) tại các tập đoàn lớn, đối mặt với những hạn chế về ngân sách do bất ổn kinh tế hoặc thậm chí suy thoái, có thể chọn ưu tiên các sáng kiến AI. Họ có khả năng chuyển vốn từ các lĩnh vực ít quan trọng hơn để bảo vệ các khoản đầu tư AI chiến lược được coi là quan trọng cho khả năng cạnh tranh trong tương lai.
Tuy nhiên, quan điểm lạc quan này còn lâu mới được đảm bảo. Thử nghiệm cuối cùng, theo Rana, sẽ là liệu các tập đoàn lớn có duy trì các mục tiêu chi tiêu vốn tích cực của họ hay không, đặc biệt là để xây dựng các trung tâm dữ liệu AI, khi đối mặt với sự bất ổn kinh tế ngày càng tăng. Câu hỏi quan trọng vẫn là: ‘Liệu họ có nói, ‘Bạn biết không? Tình hình quá bất ổn’’. Câu trả lời sẽ quyết định liệu động lực dường như không thể ngăn cản đằng sau chi tiêu cơ sở hạ tầng AI có tiếp tục leo thang không ngừng hay đối mặt với một sự tạm dừng bất ngờ do thực tế kinh tế toàn cầu quyết định.