Các Công Ty AI Đột Phá Nhất 2025

1. Nvidia

Cuộc tìm kiếm các hệ thống AI ngày càng tinh vi tiếp tục thúc đẩy đầu tư đáng kể từ các nhà phát triển mô hình ngôn ngữ lớn. Tuy nhiên, một công ty đã gặt hái được thành quả của cuộc cách mạng AI này: Nvidia. Đã khơi mào cuộc đua AI bằng các bộ xử lý đồ họa (GPU) thống trị của mình, Nvidia hiện đang ở vị trí hoàn hảo với bộ xử lý và nền tảng Blackwell đột phá để hỗ trợ việc theo đuổi trí thông minh cấp độ con người.

Blackwell vượt trội hơn so với phiên bản tiền nhiệm, H100, cung cấp sức mạnh gấp 2,5 lần cho các tác vụ đào tạo mô hình chung, đồng thời tiêu thụ năng lượng ít hơn đáng kể. Các nhà khai thác trung tâm dữ liệu và phòng thí nghiệm AI lớn, bao gồm những gã khổng lồ trong ngành như Google, Meta, Microsoft, OpenAI, Tesla và xAI, đã cam kết mua hàng trăm nghìn GPU Blackwell.

Trong khi các mô hình gần đây từ các công ty Trung Quốc như DeepSeek và Alibaba đã chứng minh khả năng ấn tượng khi sử dụng GPU Nvidia cũ hơn, kém mạnh mẽ hơn, Nvidia không hề tự mãn. Công ty đang tích cực phát triển các nền tảng cho các ứng dụng đa dạng, từ khám phá thuốc (Clara for Biopharma) và xe tự hành (Drive AGX) đến sản xuất video (Holoscan) và bản sao kỹ thuật số (Omniverse). Bằng cách thúc đẩy tiến bộ AI trên một loạt các kịch bản trong thế giới thực, Nvidia đang định vị chiến lược để tăng trưởng bền vững, ngay cả khi các mô hình trong tương lai cho thấy sự phụ thuộc giảm vào sức mạnh tính toán tuyệt đối.

2. OpenAI

Kể từ năm 2019, OpenAI đã liên tục cải tiến các mô hình của mình bằng cách mở rộng dữ liệu đào tạo và tài nguyên tính toán, một chiến lược đã được áp dụng rộng rãi trong toàn ngành. Tuy nhiên, khi lợi nhuận giảm dần từ phương pháp mở rộng quy mô này trở nên rõ ràng, OpenAI đã nhận ra sự cần thiết của một con đường mới để đạt được AGI – các mô hình vượt trội trí thông minh của con người trong hầu hết các nhiệm vụ.

Giải pháp của OpenAI đã đến dưới dạng mô hình o1. Thay vì chỉ tập trung vào việc mở rộng quy mô tài nguyên trong quá trình đào tạo trước, OpenAI đã thiết kế o1 để phân bổ nhiều thời gian và sức mạnh tính toán hơn trong quá trình suy luận, giai đoạn mà mô hình được triển khai tích cực và phản hồi các câu hỏi của người dùng. Trong quá trình này, o1 thu thập và giữ lại thông tin ngữ cảnh, cả từ người dùng và các nguồn dữ liệu liên quan. Nó sử dụng phương pháp thử và sai để xác định con đường tối ưu để có câu trả lời. Kết quả là tạo ra các câu trả lời ở cấp độ tiến sĩ cho các câu hỏi phức tạp, đưa o1 lên đầu bảng xếp hạng hiệu suất.

OpenAI cung cấp các phiên bản ‘thử nghiệm’ và ‘mini’ của o1 cho người đăng ký ChatGPT Plus. Ngoài ra, một dịch vụ cao cấp có tên ChatGPT Pro cung cấp quyền truy cập không giới hạn vào mô hình o1 đầy đủ với giá 200 đô la mỗi tháng. Vào tháng 12 năm 2024, OpenAI đã tiết lộ phiên bản kế nhiệm của o1, o3 và vào tháng 2 năm 2025, đã cấp cho người dùng trả phí quyền truy cập vào o3-mini, một biến thể nhỏ hơn, nhanh hơn được tối ưu hóa cho khoa học, toán học và mã hóa. Tác động sâu sắc nhất của các mô hình suy luận mới của OpenAI là việc xác nhận việc mở rộng quy mô tính toán tại thời điểm suy luận như một con đường đầy hứa hẹn để đạt được những đột phá hơn nữa về trí thông minh trên con đường hướng tới AGI.

3. Google DeepMind

Nghiên cứu nền tảng mở đường cho các chatbot ngày nay bắt nguồn từ Google vào cuối những năm 2010. Google đã phát triển một chatbot được hỗ trợ bởi mô hình ngôn ngữ lớn trước khi ChatGPT xuất hiện. Tuy nhiên, những lo ngại về an toàn, quyền riêng tư và các tác động pháp lý được cho là đã dẫn đến một cách tiếp cận thận trọng, trì hoãn việc phát hành công khai. Sự do dự này đã khiến Google ban đầu bị tụt lại phía sau trong cuộc đua AI sau đó được kích hoạt bởi sự ra mắt của ChatGPT.

Việc phát hành Gemini 2.0 của Google DeepMind vào năm 2024 đã báo hiệu sự hồi sinh dứt khoát của Google. Gemini 2.0 đại diện cho mô hình AI thị trường đại chúng đầu tiên vốn có đa phương thức, có khả năng xử lý và tạo ra hình ảnh, video, âm thanh và mã máy tính với sự trôi chảy tương tự như văn bản. Khả năng này cho phép mô hình phân tích và suy luận về các video clip, hoặc thậm chí các nguồn cấp dữ liệu video trực tiếp từ máy ảnh điện thoại, với tốc độ và độ chính xác đáng kinh ngạc.

Gemini cũng nổi bật với khả năng kiểm soát các dịch vụ khác của Google, chẳng hạn như Maps và Search. Sự tích hợp này thể hiện lợi thế chiến lược của Google, kết hợp nghiên cứu AI của mình với các công cụ thông tin và năng suất đã được thiết lập. Gemini là một trong những mô hình AI đầu tiên thể hiện khả năng hoạt động tự động và khả năng suy luận thông qua các vấn đề phức tạp thay mặt người dùng. Mô hình Gemini 2.0 Flash Thinking Experimental thậm chí còn cung cấp cho người dùng cái nhìn sâu sắc về quá trình suy nghĩ được sử dụng để đi đến câu trả lời. Hơn nữa, vào tháng 12, Google đã giới thiệu Project Mariner, một tính năng AI tác nhân dựa trên Gemini được thiết kế để thực hiện các tác vụ như mua sắm hàng tạp hóa trực tuyến một cách tự động.

4. Anthropic

Các ứng dụng chính của AI tạo sinh cho đến nay tập trung vào viết văn bản, tóm tắt và tạo hình ảnh. Bước tiến hóa tiếp theo liên quan đến việc trang bị cho các mô hình ngôn ngữ lớn khả năng suy luận và khả năng sử dụng các công cụ. Mô hình ‘Computer Use’ của Anthropic đã cung cấp một cái nhìn sơ bộ về tương lai này.

Bắt đầu với Claude 3.5 Sonnet vào năm 2024, mô hình của Anthropic có thể nhận biết hoạt động trên màn hình, bao gồm cả nội dung internet. Nó có thể thao tác con trỏ, nhấp vào các nút và nhập văn bản. Một video trình diễn cho thấy khả năng của Claude trong việc hoàn thành một biểu mẫu bằng cáchsử dụng thông tin có sẵn trên các trang web đang mở trong các tab trình duyệt. Nó có thể hoàn thành các tác vụ như tạo một trang web cá nhân hoặc tổ chức hậu cần cho một chuyến đi trong ngày. Các hành động tự động của AI, chẳng hạn như mở các tab mới, tiến hành tìm kiếm và điền dữ liệu vào các trường, thực sự đáng chú ý.

Mặc dù mô hình hiện đang hoạt động với tốc độ chậm hơn và có thể không phải lúc nào cũng đưa ra câu trả lời đúng, nhưng những cải tiến nhanh chóng được dự đoán khi Anthropic xác định và giải quyết các hạn chế của nó. Project Mariner đã nói ở trên của Google đã theo sau sự dẫn đầu của Anthropic vào tháng 12 và OpenAI đã giới thiệu mô hình sử dụng máy tính của riêng mình, Operator, vào tháng 1 năm 2025. Vào tháng 2 năm 2025, Anthropic đã tiết lộ phiên bản chính tiếp theo của mình, Claude 3.7 Sonnet, một mô hình lớn hơn có khả năng tự động tham gia chế độ suy luận cho các truy vấn khó.

5. Microsoft

Sự phát triển của các mô hình Phi của Microsoft bắt nguồn từ một câu hỏi cơ bản được đặt ra bởi các nhà nghiên cứu của công ty vào năm 2023: ‘Kích thước mô hình nhỏ nhất có thể thể hiện các dấu hiệu của trí thông minh mới nổi là bao nhiêu?’. Câu hỏi này đánh dấu một thời điểm quan trọng trong quá trình phát triển của ‘mô hình ngôn ngữ nhỏ’, các mô hình được thiết kế để có hiệu suất tối ưu trong các tình huống có bộ nhớ, sức mạnh xử lý hoặc kết nối hạn chế, trong đó thời gian phản hồi nhanh là rất quan trọng.

Trong suốt năm 2024, Microsoft đã phát hành hai thế hệ mô hình nhỏ thể hiện khả năng suy luận và logic không được tích hợp rõ ràng trong quá trình đào tạo. Vào tháng 4, công ty đã tiết lộ một loạt các mô hình Phi-3 vượt trội về ngôn ngữ, suy luận, mã hóa và các tiêu chuẩn toán học, có thể là do chúng được đào tạo trên dữ liệu tổng hợp được tạo ra bởi các LLM lớn hơn và có khả năng hơn đáng kể. Các biến thể của Phi-3 nguồn mở đã được tải xuống hơn 4,5 triệu lần trên Hugging Face trong năm 2024.

Vào cuối năm 2024, Microsoft đã ra mắt các mô hình ngôn ngữ nhỏ Phi-4, vượt quacác mô hình Phi-3 trong các tác vụ tập trung vào suy luận và thậm chí còn vượt trội hơn GPT-4o của OpenAI trên các tiêu chuẩn GPQA (câu hỏi khoa học) và MATH. Microsoft đã phát hành mô hình theo giấy phép nguồn mở và trọng số mở, trao quyền cho các nhà phát triển tạo các mô hình biên hoặc ứng dụng cho điện thoại hoặc máy tính xách tay. Trong vòng chưa đầy một tháng, Phi-4 đã thu hút được 375.000 lượt tải xuống trên Hugging Face.

6. Amazon

Amazon AWS gần đây đã giới thiệu Trainium2, một phiên bản mới của bộ xử lý Trainium dành cho AI, có khả năng thách thức sự thống trị của GPU Nvidia trong các cài đặt cụ thể. Trainium2 được thiết kế để cung cấp sức mạnh tính toán khổng lồ cần thiết để đào tạo các mô hình AI tạo sinh lớn nhất và cho các hoạt động thời gian suy luận sau khi triển khai mô hình. AWS tuyên bố rằng Trainium có hiệu quả chi phí cao hơn 30% đến 40% so với GPU cho các tác vụ tương đương.

Trainium2 giải quyết các thiếu sót về tích hợp phần mềm và năng lượng được quan sát thấy trong chip Trainium đầu tiên, định vị Amazon có khả năng thu hẹp khoảng cách với Nvidia. (Điều đáng chú ý là bản thân AWS vẫn phụ thuộc rất nhiều vào Nvidia cho GPU.) Việc thay thế Nvidia là một thách thức lớn do khách hàng bị khóa với lớp phần mềm CUDA của Nvidia, cung cấp cho các nhà nghiên cứu quyền kiểm soát chi tiết về cách mô hình của họ sử dụng tài nguyên của chip. Amazon cung cấp lớp phần mềm kiểm soát hạt nhân của riêng mình, Neuron Kernel Interface (NKI), tương tự như CUDA, cấp cho các nhà nghiên cứu quyền kiểm soát chi tiết đối với các tương tác hạt nhân chip.

Điều quan trọng cần lưu ý là Trainium2 vẫn chưa được thử nghiệm ở quy mô lớn. AWS hiện đang xây dựng một cụm máy chủ với 400.000 chip Trainium2 cho Anthropic, có thể cung cấp những hiểu biết có giá trị về việc tối ưu hóa hiệu suất của chip AI của mình trong các triển khai quy mô lớn.

7. Arm

Nhà thiết kế chất bán dẫn của Anh Arm từ lâu đã là nhà cung cấp chính kiến trúc được sử dụng trong chip cung cấp năng lượng cho các thiết bị nhỏ như điện thoại, cảm biến và phần cứng IoT. Vai trò này có ý nghĩa quan trọng hơn trong kỷ nguyên mới nổi, nơi chip thiết bị biên sẽ thực thi các mô hình AI. Các trung tâm dữ liệu cũng sẽ đóng một vai trò quan trọng trong quá trình phát triển này, thường xử lý một số hoặc tất cả các quá trình AI đòi hỏi khắt khe nhất và cung cấp kết quả cho các thiết bị biên.

Khi các trung tâm dữ liệu phát triển trên toàn cầu, mức tiêu thụ điện năng của chúng sẽ trở thành một mối quan tâm ngày càng cấp bách. Yếu tố này góp phần vào việc nhấn mạnh vào hiệu quả trong kiến trúc CPU Neoverse mới nhất của Arm. Nó tự hào có hiệu suất cải thiện 50% so với các thế hệ trước và hiệu suất trên mỗi watt tốt hơn 20% so với các bộ xử lý sử dụng kiến trúc x86 cạnh tranh, theo công ty.

Arm báo cáo rằng Amazon, Microsoft, Google và Oracle đều đã áp dụng Arm Neoverse cho cả điện toán đa năng và suy luận và đào tạo AI dựa trên CPU. Ví dụ, vào năm 2024, Microsoft đã thông báo rằng silicon tùy chỉnh đầu tiên của họ được thiết kế cho đám mây, bộ xử lý Cobalt 100, được xây dựng trên Arm Neoverse. Một số trung tâm dữ liệu AI lớn nhất sẽ dựa vào Grace Hopper Superchip của NVIDIA, kết hợp GPU Hopper và CPU Grace dựa trên Neoverse. Arm dự kiến sẽ ra mắt CPU của riêng mình trong năm nay, với Meta là một trong những khách hàng ban đầu.

8. Gretel

Trong năm qua, các công ty AI đã trải qua lợi nhuận giảm dần từ việc đào tạo mô hình của họ với khối lượng dữ liệu ngày càng tăng được thu thập từ web. Do đó, họ đã chuyển trọng tâm từ số lượng tuyệt đối của dữ liệu đào tạo sang chất lượng của nó. Điều này đã dẫn đến việc tăng cường đầu tư vào nội dung không công khai và chuyên biệt được cấp phép từ các đối tác nhà xuất bản. Các nhà nghiên cứu AI cũng cần giải quyết các khoảng trống hoặc điểm mù trong dữ liệu đào tạo do con người tạo ra hoặc do con người chú thích. Với mục đích này, họ ngày càng chuyển sang dữ liệu đào tạo tổng hợp được tạo ra bởi các mô hình AI chuyên biệt.

Gretel đã trở nên nổi bật vào năm 2024 bằng cách chuyên về việc tạo và quản lý dữ liệu đào tạo tổng hợp. Công ty đã công bố tính khả dụng chung của sản phẩm chủ lực của mình, Gretel Navigator, cho phép các nhà phát triển sử dụng ngôn ngữ tự nhiên hoặc lời nhắc SQL để tạo, tăng cường, chỉnh sửa và quản lý các tập dữ liệu đào tạo tổng hợp để tinh chỉnh và thử nghiệm. Nền tảng này đã thu hút một cộng đồng hơn 150.000 nhà phát triển, những người đã tổng hợp hơn 350 tỷ phần dữ liệu đào tạo.

Những người chơi khác trong ngành đã chú ý đến khả năng của Gretel. Gretel đã hợp tác với Google để làm cho dữ liệu đào tạo tổng hợp của mình có thể truy cập dễ dàng cho khách hàng của Google Cloud. Một quan hệ đối tác tương tự với Databricks đã được công bố vào tháng 6, cấp cho khách hàng doanh nghiệp của Databricks quyền truy cập vào dữ liệu đào tạo tổng hợp cho các mô hình của họ chạy trong đám mây Databricks.

9. Mistral AI

Mistral AI, đối thủ của Pháp trong lĩnh vực AI tạo sinh, đã liên tục gây áp lực lên OpenAI, Anthropic và Google ở vị trí hàng đầu trong việc phát triển mô hình AI tiên phong. Mistral AI đã phát hành một loạt các mô hình mới kết hợp những tiến bộ công nghệ đáng kể vào năm 2024, chứng minh sự tăng trưởng kinh doanh nhanh chóng thông qua cả tiếp thị trực tiếp API của mình và quan hệ đối tác chiến lược.

Đầu năm nay, công ty đã giới thiệu một cặp mô hình nguồn mở có tên Mixtral, đáng chú ý vì sử dụng sáng tạo kiến trúc ‘hỗn hợp chuyên gia’, trong đó chỉ một tập hợp con chuyên biệt của các tham số của mô hình được tham gia để xử lý một truy vấn, nâng cao hiệu quả. Vào tháng 7 năm 2024, Mistral đã công bố Mistral Large 2, với 123 tỷ tham số, đã cho thấy những cải tiến đáng kể trong việc tạo mã, toán học, suy luận và gọi hàm. Công ty Pháp cũng đã phát hành Ministral 3B và Ministral 8B, các mô hình nhỏ hơn được thiết kế để thực thi trên máy tính xách tay hoặc điện thoại, có khả năng lưu trữ khoảng 50 trang văn bản thông tin ngữ cảnh do người dùng cung cấp.

Mistral đã đạt được thành công ở châu Âu bằng cách định vị mình là một giải pháp thay thế chi phí thấp và linh hoạt cho các công ty AI của Hoa Kỳ như OpenAI. Nó cũng tiếp tục mở rộng sang thị trường doanh nghiệp Hoa Kỳ trong năm 2024. Vào tháng 6, công ty đã bảo đảm một vòng tài trợ trị giá 640 triệu đôla, do công ty đầu tư mạo hiểm General Catalyst dẫn đầu, nâng mức định giá của Mistral lên khoảng 6,2 tỷ đô la.

10. Fireworks AI

Fireworks cung cấp một môi trường thời gian chạy tùy chỉnh giúp hợp lý hóa công việc kỹ thuật thường phức tạp liên quan đến việc xây dựng cơ sở hạ tầng cho việc triển khai AI. Sử dụng nền tảng Fireworks, các doanh nghiệp có thể tích hợp bất kỳ mô hình nào trong số hơn 100 mô hình AI và sau đó tùy chỉnh và tinh chỉnh chúng cho các trường hợp sử dụng cụ thể của họ.

Công ty đã giới thiệu các sản phẩm mới trong năm 2024 sẽ định vị nó để tận dụng các xu hướng chính trong ngành AI. Đầu tiên, các nhà phát triển ngày càng tập trung vào khả năng phản hồi của các mô hình và ứng dụng được hỗ trợ bởi AI. Fireworks đã ra mắt FireAttention V2, phần mềm tối ưu hóa và lượng tử hóa giúp tăng tốc hiệu suất mô hình và giảm độ trễ mạng. Thứ hai, các hệ thống AI ngày càng phát triển thành ‘đường ống’ gọi các mô hình và công cụ khác nhau thông qua API. Phần mềm FireFunction V2 mới hoạt động như một người điều phối cho tất cả các thành phần trong các hệ thống ngày càng phức tạp này, đặc biệt là khi các doanh nghiệp triển khai nhiều ứng dụng AI tự động hơn.

Fireworks báo cáo mức tăng trưởng doanh thu 600% vào năm 2024. Cơ sở khách hàng của nó bao gồm các công ty nổi tiếng như Verizon, DoorDash, Uber, Quora và Upwork.

11. Snorkel AI

Các doanh nghiệp đã nhận ra rằng hiệu quả của hệ thống AI của họ gắn liền trực tiếp với chất lượng dữ liệu của họ. Snorkel AI đã xây dựng một doanh nghiệp phát triển mạnh bằng cách hỗ trợ các doanh nghiệp chuẩn bị dữ liệu độc quyền của họ để sử dụng trong các mô hình AI. Nền tảng phát triển dữ liệu AI Snorkel Flow của công ty cung cấp một phương pháp hiệu quả về chi phí để các công ty dán nhãn và quản lý dữ liệu độc quyền của họ, cho phép sử dụng nó trong việc tùy chỉnh và đánh giá các mô hình AI cho các nhu cầu kinh doanh cụ thể của họ.

Vào năm 2024, Snorkel đã mở rộng hỗ trợ của mình để bao gồm hình ảnh, cho phép các công ty đào tạo các mô hình AI đa phương thức và trình tạo hình ảnh bằng cách sử dụng hình ảnh độc quyền của riêng họ. Nó cũng kết hợp tạo tăng cường truy xuất (RAG) vào nền tảng của mình, cho phép khách hàng chỉ truy xuất các phân đoạn thông tin có liên quan nhất từ các tài liệu dài, chẳng hạn như nội dung cơ sở kiến thức độc quyền, để sử dụng trong đào tạo AI. Snorkel Custom, một cấp độ dịch vụ mới, cảm ứng cao hơn, liên quan đến các chuyên gia học máy của Snorkel cộng tác trực tiếp với khách hàng trong các dự án.

Snorkel tuyên bố rằng doanh số hàng năm của họ đã tăng gấp đôi trong năm 2024, với mức tăng trưởng ba chữ số trong doanh số hàng năm trong ba năm qua. Sáu trong số các ngân hàng lớn nhất hiện đang sử dụng Snorkel Flow, theo công ty, cùng với các thương hiệu như Chubb, Wayfair và Experian.

12. CalypsoAI

Khi AI đóng vai trò ngày càng quan trọng trong các quy trình ra quyết định quan trọng, các doanh nghiệp đang tìm kiếm khả năng hiển thị nâng cao về hoạt động bên trong của các mô hình. Nhu cầu này đặc biệt rõ rệt trong các ngành được quản lý phải liên tục theo dõi sự thiên vị và các đầu ra không mong muốn khác. CalypsoAI là một trong những công ty đầu tiên nhận ra yêu cầu mới nổi này và nhanh chóng đáp ứng bằng các tính năng giải thích nâng cao trong nền tảng cơ sở hạ tầng AI của mình.

Điều làm nên sự khác biệt của Calypso là bề rộng của công nghệ quan sát của nó. Vào năm 2024, công ty đã ra mắt Nền tảng bảo mật AI, bảo vệ dữ liệu doanh nghiệp bằng cách bảo mật, kiểm tra và giám sát tất cả các mô hình AI tạo sinh đang hoạt động mà một công ty có thể đang sử dụng, bất kể nhà cung cấp mô hình hay mô hình được lưu trữ nội bộ hay bên ngoài. Calypso cũng giới thiệu các công cụ trực quan hóa mới cho phép người dùng quan sát logic cơ bản của các quyết định AI trong thời gian thực.

Thị trường đang phản ứng tích cực với sự nhấn mạnh của Calypso vào khả năng quan sát AI. Công ty báo cáo doanh thu tăng gấp 10 lần trong năm 2024 và dự kiến sẽ tăng gấp 5 lần nữa vào năm 2025.

13. Galileo

Mặc dù các hệ thống AI thể hiện ít trường hợp ảo giác thực tế và sai lệch hơn so với một năm trước, chúng vẫn dễ bị các vấn đề này. Điều này đặt ra một mối quan tâm đáng kể cho bất kỳ doanh nghiệp nào sử dụng AI, đặc biệt là những doanh nghiệp trong các lĩnh vực được quản lý như chăm sóc sức khỏe và ngân hàng. Các nhóm phát triển AI sử dụng nền tảng AI của Galileo để đo lường, tối ưu hóa và giám sát độ chính xác của các mô hình và ứng dụng của họ.

Vào đầu năm 2024, sau hai năm nghiên cứu, Galileo đã phát hành Luna, một bộ mô hình đánh giá được đào tạo để xác định các đầu ra có hại. Các mô hình này cho phép nền tảng của Galileo nhanh chóng xem xét và chấm điểm công việc của LLM khi nó tập hợp các mã thông báo tạo thành phản hồi của nó. Quá trình này mất khoảng 200 mili giây, cho phép đủ thời gian để gắn cờ và ngăn đầu ra của AI hiển thị cho người dùng. Mặc dù một LLM tiêu chuẩn có thể thực hiện tác vụ này, nhưng nó sẽ đắt hơn đáng kể. Các mô hình được xây dựng có mục đích của Galileo cung cấp độ chính xác, hiệu quả chi phí và quan trọng là tốc độ vượt trội.

Galileo báo cáo số lượng khách hàng của mình tăng gấp bốn lần vào năm 2024, với các khách hàng bao gồm Twilio, Reddit, Chegg, Comcast và JPMorgan Chase. Công ty khởi nghiệp này cũng đã bảo đảm một vòng tài trợ trị giá 68 triệu đô la từ các nhà đầu tư như Giám đốc điều hành Hugging Face Clément Delangue.

14. Runway

Một trong những khát vọng—và lo lắng—lớn nhất xung quanh AI là tiềm năng tạo ra video có chất lượng đủ để cách mạng hóa nghệ thuật và kinh tế của việc làm phim. Công nghệ này đã có những bước tiến đáng kể hướng tới tương lai này vào năm 2024, với Runway, một công ty khởi nghiệp tạo video có trụ sở tại New York, đóng vai trò hàng đầu. Việc phát hành mô hình Gen-3 Alpha của Runway vào tháng 6 năm 2024 đã nhận được sự hoan nghênh rộng rãi trong cộng đồng AI vì tính chân thực được cải thiện đáng kể của video được tạo.

Runway cũng đã thực hiện những cải tiến lớn đối với các công cụ của mình để kiểm soát tính thẩm mỹ của video AI. Mô hình này được đào tạo trên cả hình ảnh và video và có thể tạo video dựa trên đầu vào văn bản hoặc hình ảnh. Công ty sau đó đã phát hành Gen-3 Alpha Turbo, một phiên bản hiệu quả hơn về chi phí và nhanh hơn của Gen-3.

Hollywood đã theo dõi chặt chẽ sự tiến bộ của AI tạo sinh và Runway báo cáo rằng họ đã bắt đầu sản xuất các phiên bản tùy chỉnh của các mô hình của mình cho những người chơi trong ngành giải trí. Nó đã tham gia vào một quan hệ đối tác chính thức với Lionsgate Studios vào tháng 9 năm 2024. Runway đã phát triển một mô hình tùy chỉnh cho công ty sản xuất và đào tạo nó trên danh mục phim của Lionsgate. Runway tuyên bố rằng mô hình này nhằm hỗ trợ các nhà làm phim, đạo diễn và các nhà sáng tạo khác của Lionsgate trong việc ‘tăng cường’ công việc của họ trong khi ‘tiết kiệm thời gian, tiền bạc và tài nguyên’. Runway tin rằng sự sắp xếp của mình với Lionsgate có thể đóng vai trò là một kế hoạch chi tiết cho sự hợp tác tương tự với các công ty sản xuất khác.

15. Cerebras Systems

Các hệ thống AI, đặc biệt là các mô hình biên giới lớn, đòi hỏi sức mạnh tính toán khổng lồ để hoạt động ở quy mô lớn. Điều này đòi hỏi sự kết nối của hàng nghìn hoặc hàng triệu chip để phân phối khối lượng công việc. Tuy nhiên, các kết nối mạng giữa các chip có thể gây ra tắc nghẽn hiệu suất. Công nghệ của Cerebras Systems được thiết kế để khai thác các lợi thế về tốc độ và hiệu quả của việc tích hợp một lượng lớn sức mạnh tính toán vào một chip duy nhất, đặc biệt lớn.

Ví dụ, chip WSE-3 (Wafer Scale Engine thế hệ thứ ba) mới nhất của công ty có kích thước 814 mm vuông, bằng kích thước của một chiếc đĩa ăn tối và lớn hơn 56 lần so với chip H100 hàng đầu thị trường của Nvidia. Chip này kết hợp 4 nghìn tỷ bóng bán dẫn đáng kinh ngạc và cung cấp 44 gigabit bộ nhớ. Các chip này có thể được nhóm lại để tạo thành siêu máy tính, chẳng hạn như Condor Galaxy, một ‘chòm sao’ của các siêu máy tính được kết nối với nhau mà Cerebras đang phát triển với sự hợp tác của khách hàng lớn nhất của mình, G42, một công ty điện toán đám mây và AI có trụ sở tại UAE.

Cho đến nay, Cerebras đã tìm thấy một thị trường ngách trong các tổ chức nghiên cứu lớn, bao gồm Mayo Clinic, Sandia National Laboratories, Lawrence Livermore National Laboratory và Los Alamos National Laboratory. Công ty đã nộp đơn IPO vào tháng 9 năm 2024. Bản cáo bạch chỉ ra rằng doanh số của công ty đã tăng hơn gấp ba lần lên 78,7 triệu đô la vào năm 2023 và tăng lên 136,4 triệu đô la trong nửa đầu năm 2024.