Meta Ra Mắt Llama 4: Thế Hệ AI Mới Vào Cuộc

Tốc độ phát triển không ngừng của trí tuệ nhân tạo vẫn tiếp diễn, với các ông lớn công nghệ tranh giành vị thế dẫn đầu trong việc tạo ra các mô hình mạnh mẽ hơn, hiệu quả hơn và linh hoạt hơn. Trong bối cảnh cạnh tranh khốc liệt này, Meta đã tung ra một thách thức mới với việc công bố dòng Llama 4, một bộ sưu tập các mô hình AI nền tảng được thiết kế để thúc đẩy đáng kể trình độ hiện tại và cung cấp năng lượng cho một loạt các ứng dụng, từ công cụ dành cho nhà phát triển đến trợ lý hướng tới người tiêu dùng. Sự ra mắt này đánh dấu một thời điểm quan trọng đối với tham vọng AI của Meta, giới thiệu không chỉ một, mà là hai mô hình riêng biệt có sẵn ngay lập tức, đồng thời hé lộ một mô hình thứ ba, một ‘gã khổng lồ’ tiềm năng đột phá hiện đang trải qua quá trình huấn luyện nghiêm ngặt. Gia đình Llama 4 đại diện cho một sự tiến hóa chiến lược, kết hợp các lựa chọn kiến trúc tiên tiến và nhằm mục đích thách thức các tiêu chuẩn đã được thiết lập bởi các đối thủ như OpenAI, Google và Anthropic. Sáng kiến này nhấn mạnh cam kết của Meta trong việc định hình tương lai của AI, cả bằng cách đóng góp cho cộng đồng nghiên cứu mở (mặc dù có một số cảnh báo nhất định) và bằng cách tích hợp trực tiếp các khả năng tiên tiến này vào hệ sinh thái rộng lớn của các nền tảng truyền thông xã hội và liên lạc của mình.

Llama 4 Scout: Sức mạnh trong một Gói nhỏ gọn

Dẫn đầu là Llama 4 Scout, một mô hình được thiết kế với hiệu quả và khả năng tiếp cận làm cốt lõi. Meta nhấn mạnh khả năng đáng chú ý của Scout trong việc hoạt động hiệu quả trong khi đủ nhỏ gọn để ‘vừa vặn trong một GPU Nvidia H100 duy nhất’. Đây là một thành tựu kỹ thuật đáng kể và là một lợi thế chiến lược. Trong thời đại mà tài nguyên tính toán, đặc biệt là các GPU cao cấp như H100, vừa đắt đỏ vừa có nhu cầu cao, một mô hình mạnh mẽ có thể chạy trên một đơn vị duy nhất làm giảm đáng kể rào cản gia nhập cho các nhà phát triển, nhà nghiên cứu và các tổ chức nhỏ hơn. Nó mở ra khả năng triển khai các khả năng AI phức tạp trong môi trường hạn chế tài nguyên, có khả năng cho phép xử lý AI cục bộ hơn hoặc trên thiết bị, giảm độ trễ và tăng cường quyền riêng tư.

Meta không ngần ngại định vị Scout đối đầu với các đối thủ cạnh tranh. Công ty khẳng định rằng Scout vượt trội hơn một số mô hình đáng chú ý trong cùng hạng cân, bao gồm Gemma 3 và Gemini 2.0 Flash-Lite của Google, cũng như mô hình mã nguồn mở được đánh giá cao Mistral 3.1. Những tuyên bố này dựa trên hiệu suất ‘trên một loạt các tiêu chuẩn được báo cáo rộng rãi’. Mặc dù kết quả benchmark luôn cần được xem xét cẩn thận – vì chúng có thể không nắm bắt được tất cả các khía cạnh của hiệu suất trong thế giới thực – việc liên tục vượt trội hơn các mô hình đã được thiết lập cho thấy Scout sở hữu sự cân bằng hấp dẫn giữa sức mạnh và hiệu quả. Các benchmark này thường đánh giá các khả năng như hiểu ngôn ngữ, suy luận, giải quyết vấn đề toán học và tạo mã. Việc xuất sắc trên nhiều lĩnh vực đa dạng cho thấy Scout không phải là một mô hình chuyên biệt mà là một công cụ linh hoạt có khả năng xử lý hiệu quả nhiều loại tác vụ.

Hơn nữa, Llama 4 Scout tự hào có một cửa sổ ngữ cảnh 10 triệu token ấn tượng. Cửa sổ ngữ cảnh về cơ bản xác định lượng thông tin mà một mô hình AI có thể ‘ghi nhớ’ hoặc xem xét tại bất kỳ thời điểm nào trong một cuộc trò chuyện hoặc tác vụ. Một cửa sổ ngữ cảnh lớn hơn cho phép mô hình duy trì sự mạch lạc trong các tương tác dài hơn, hiểu các tài liệu phức tạp, tuân theo các hướng dẫn phức tạp và nhớ lại các chi tiết từ phần đầu của đầu vào. Dung lượng 10 triệu token là đáng kể, cho phép các ứng dụng như tóm tắt các báo cáo dài, phân tích các codebase mở rộng hoặc tham gia vào các cuộc đối thoại kéo dài, nhiều lượt mà không bị mất dấu dòng tường thuật. Tính năng này tăng cường đáng kể tiện ích của Scout cho các tác vụ phức tạp, đòi hỏi nhiều thông tin, khiến nó không chỉ là một giải pháp thay thế nhẹ nhàng. Sự kết hợp giữa khả năng tương thích với một GPU duy nhất và cửa sổ ngữ cảnh lớn làm cho Scout trở thành một đề xuất đặc biệt hấp dẫn đối với các nhà phát triển đang tìm kiếm AI mạnh mẽ mà không yêu cầu đầu tư cơ sở hạ tầng khổng lồ.

Maverick: Đối thủ Cạnh tranh Chính thống

Được định vị là người anh em mạnh mẽ hơn trong đợt phát hành Llama 4 ban đầu là Llama 4 Maverick. Mô hình này được thiết kế để cạnh tranh trực tiếp với những đối thủ nặng ký trong thế giới AI, được so sánh với các mô hình đáng gờm như GPT-4o của OpenAI và Gemini 2.0 Flash của Google. Maverick đại diện cho nỗ lực của Meta nhằm giành vị trí dẫn đầu trong lĩnh vực AI quy mô lớn, hiệu suất cao, nhằm cung cấp các khả năng có thể xử lý các tác vụ AI tạo sinh đòi hỏi khắt khe nhất. Nó là động cơ dự định cung cấp năng lượng cho các tính năng phức tạp nhất trong trợ lý Meta AI, hiện có thể truy cập trên web và được tích hợp vào các ứng dụng liên lạc cốt lõi của công ty: WhatsApp, Messenger và Instagram Direct.

Meta nhấn mạnh sức mạnh của Maverick bằng cách so sánh hiệu suất của nó một cách thuận lợi với các đối thủ chính. Công ty tuyên bố Maverick giữ vững vị thế của mình, và trong một số trường hợp có khả năng vượt trội hơn, so với khả năng của GPT-4o và Gemini 2.0 Flash. Những so sánh này rất quan trọng, vì GPT-4o và gia đình Gemini đại diện cho đỉnh cao của các mô hình AI phổ biến hiện có. Thành công ở đây ngụ ý Maverick có khả năng tạo ngôn ngữ tinh tế, suy luận phức tạp, giải quyết vấn đề tinh vi và có khả năng tương tác đa phương thức (mặc dù bản phát hành ban đầu tập trung nhiều vào các benchmark dựa trên văn bản).

Điều thú vị là Meta cũng nhấn mạnh hiệu quả của Maverick so với các mô hình hiệu suất cao khác, đặc biệt đề cập đến DeepSeek-V3 trong các lĩnh vực mã hóa và tác vụ suy luận. Meta tuyên bố rằng Maverick đạt được kết quả tương đương trong khi sử dụng ‘ít hơn một nửa số tham số hoạt động’. Tuyên bố này chỉ ra những tiến bộ đáng kể trong kiến trúc mô hình và kỹ thuật huấn luyện. Tham số, nói một cách lỏng lẻo, là các biến mà mô hình học được trong quá trình huấn luyện để lưu trữ kiến thức của nó. ‘Tham số hoạt động’ thường liên quan đến các kiến trúc như Mixture of Experts (MoE), nơi chỉ một tập hợp con của tổng số tham số được sử dụng cho bất kỳ đầu vào nào. Đạt được hiệu suất tương tự với ít tham số hoạt động hơn cho thấy Maverick có thể rẻ hơn về mặt tính toán để chạy (chi phí suy luận) và có khả năng nhanh hơn các mô hình có số lượng tham số hoạt động lớn hơn, mang lại tỷ lệ hiệu suất trên watt hoặc hiệu suất trên đô la tốt hơn. Hiệu quả này rất quan trọng để triển khai AI ở quy mô mà Meta hoạt động, nơi ngay cả những cải tiến nhỏ cũng có thể chuyển thành tiết kiệm chi phí đáng kể và cải thiện trải nghiệm người dùng. Do đó, Maverick nhằm mục đích đạt được sự cân bằng giữa hiệu suất hàng đầu và hiệu quả hoạt động, làm cho nó phù hợp cho cả các ứng dụng đòi hỏi của nhà phát triển và tích hợp vào các sản phẩm phục vụ hàng tỷ người dùng.

Behemoth: Người khổng lồ Được mong đợi

Trong khi Scout và Maverick hiện đã có sẵn, Meta cũng đã thông báo trước về việc phát triển một mô hình thậm chí còn lớn hơn và có khả năng mạnh mẽ hơn: Llama 4 Behemoth. Như tên gọi cho thấy, Behemoth được hình dung như một người khổng lồ trong bối cảnh AI. CEO Meta Mark Zuckerberg đã công khai tuyên bố tham vọng cho mô hình này, mô tả nó có khả năng là ‘mô hình cơ sở hiệu suất cao nhất thế giới’ sau khi hoàn thành quá trình huấn luyện. Điều này báo hiệu ý định của Meta là đẩy lùi các giới hạn tuyệt đối của khả năng AI.

Quy mô của Behemoth thật đáng kinh ngạc. Meta đã tiết lộ nó sở hữu 288 tỷ tham số hoạt động, được lấy từ một nhóm khổng lồ gồm 2 nghìn tỷ tham số tổng cộng. Điều này cho thấy mạnh mẽ việc sử dụng kiến trúc Mixture of Experts (MoE) phức tạp ở quy mô chưa từng có. Kích thước tuyệt đối của mô hình cho thấy nó đang được huấn luyện trên các bộ dữ liệu khổng lồ và được thiết kế để nắm bắt các mẫu và kiến thức cực kỳ phức tạp. Mặc dù việc huấn luyện một mô hình như vậy là một công việc khổng lồ, đòi hỏi tài nguyên tính toán và thời gian khổng lồ, nhưng lợi ích tiềm năng cũng không kém phần quan trọng.

Mặc dù Behemoth chưa được phát hành, Meta đã đặt kỳ vọng cao vào hiệu suất của nó. Công ty tuyên bố rằng, dựa trên quá trình huấn luyện và đánh giá đang diễn ra, Behemoth đang chứng tỏ tiềm năng vượt trội hơn các đối thủ hàng đầu như GPT-4.5 dự kiến của OpenAI và Claude Sonnet 3.7 của Anthropic, đặc biệt là ‘trên một số benchmark STEM’. Thành công trong các benchmark Khoa học, Công nghệ, Kỹ thuật và Toán học (STEM) thường được coi là một chỉ số quan trọng về khả năng suy luận và giải quyết vấn đề tiên tiến. Các mô hình xuất sắc trong các lĩnh vực này có thể mở khóa những đột phá trong nghiên cứu khoa học, đẩy nhanh quy trình thiết kế kỹ thuật và giải quyết các thách thức phân tích phức tạp hiện nằm ngoài tầm với của AI. Việc tập trung vào STEM cho thấy Meta coi Behemoth không chỉ là một mô hình ngôn ngữ, mà còn là một động cơ mạnh mẽ cho sự đổi mới và khám phá. Sự phát triển của Behemoth nhấn mạnh chiến lược dài hạn của Meta: không chỉ cạnh tranh ở cấp độ cao nhất mà còn có khả năng xác định lại trần hiệu suất cho các mô hình AI nền tảng. Việc phát hành cuối cùng của nó sẽ được toàn bộ cộng đồng AI theo dõi chặt chẽ.

Bên trong: Lợi thế của Mixture of Experts

Một thay đổi công nghệ quan trọng làm nền tảng cho dòng Llama 4 là việc Meta áp dụng kiến trúc ‘mixture of experts’ (MoE). Điều này đại diện cho một sự tiến hóa đáng kể so với các thiết kế mô hình nguyên khối, nơi toàn bộ mô hình xử lý mọi đầu vào. MoE cung cấp một con đường để xây dựng các mô hình lớn hơn và có khả năng hơn nhiều mà không làm tăng tương ứng chi phí tính toán trong quá trình suy luận (quá trình sử dụng mô hình để tạo ra đầu ra).

Trong mô hình MoE, hệ thống bao gồm nhiều mạng ‘chuyên gia’ nhỏ hơn, chuyên biệt. Khi nhận được một đầu vào (như một lời nhắc văn bản), một mạng cổng hoặc cơ chế định tuyến sẽ phân tích đầu vào và xác định tập hợp con các chuyên gia nào phù hợp nhất để xử lý tác vụ cụ thể hoặc loại thông tin đó. Chỉ những chuyên gia được chọn này mới được kích hoạt để xử lý đầu vào, trong khi phần còn lại không hoạt động. Tính toán có điều kiện này là lợi thế cốt lõi của MoE.

Lợi ích có hai mặt:

  1. Khả năng mở rộng: Nó cho phép các nhà phát triển tăng đáng kể tổng số tham số trong một mô hình (như 2 nghìn tỷ trong Behemoth) bởi vì chỉ một phần nhỏ trong số chúng (các tham số hoạt động, ví dụ: 288 tỷ cho Behemoth) được tham gia vào bất kỳ suy luận đơn lẻ nào. Điều này cho phép mô hình lưu trữ một lượng kiến thức lớn hơn rất nhiều và học các chức năng chuyên biệt hơn trong các mạng chuyên gia của nó.
  2. Hiệu quả: Bởi vì chỉ một phần của mô hình hoạt động tại bất kỳ thời điểm nào, chi phí tính toán và mức tiêu thụ năng lượng cần thiết cho suy luận có thể thấp hơn đáng kể so với một mô hình dày đặc có tổng kích thước tham số tương tự. Điều này làm cho việc chạy các mô hình rất lớn trở nên thiết thực và kinh tế hơn, đặc biệt là ở quy mô lớn.

Việc Meta đề cập rõ ràng đến việc chuyển sang MoE cho Llama 4 cho thấy kiến trúc này là trung tâm để đạt được các mục tiêu về hiệu suất và hiệu quả đặt ra cho Scout, Maverick và đặc biệt là Behemoth khổng lồ. Mặc dù kiến trúc MoE giới thiệu những phức tạp riêng, đặc biệt là trong việc huấn luyện mạng cổng hiệu quả và quản lý giao tiếp giữa các chuyên gia, việc các ông lớn như Meta áp dụng chúng báo hiệu tầm quan trọng ngày càng tăng của chúng trong việc thúc đẩy các giới hạn của phát triển AI. Lựa chọn kiến trúc này có khả năng là yếu tố chính đằng sau hiệu quả được tuyên bố của Maverick so với DeepSeek-V3 và quy mô tuyệt đối được hình dung cho Behemoth.

Chiến lược Phân phối: Truy cập Mở và Trải nghiệm Tích hợp

Meta đang theo đuổi một chiến lược hai mũi nhọn để phổ biến và sử dụng các mô hình Llama 4 của mình, phản ánh mong muốn vừa nuôi dưỡng một hệ sinh thái nhà phát triển rộng lớn vừa tận dụng cơ sở người dùng khổng lồ của chính mình.

Thứ nhất, Llama 4 Scout và Llama 4 Maverick đang được cung cấp để tải xuống. Các nhà phát triển và nhà nghiên cứu có thể lấy các mô hình trực tiếp từ Meta hoặc thông qua các nền tảng phổ biến như Hugging Face, một trung tâm cho cộng đồng học máy. Cách tiếp cận này khuyến khích thử nghiệm, cho phép các bên bên ngoài xây dựng ứng dụng trên nền tảng Llama 4, và tạo điều kiện cho việc xem xét và xác nhận độc lập về khả năng của các mô hình. Bằng cách cung cấp các mô hình để tải xuống, Meta đóng góp vào bối cảnh AI rộng lớn hơn, cho phép đổi mới vượt ra ngoài các nhóm sản phẩm của riêng mình. Điều này phù hợp, ít nhất là một phần, với tinh thần nghiên cứu và phát triển mở đã thúc đẩy tiến bộ trong lĩnh vực này trong lịch sử.

Thứ hai, và đồng thời, Meta đang tích hợp sâu sắc các khả năng của Llama 4 vào các sản phẩm của riêng mình. Trợ lý Meta AI, được cung cấp bởi các mô hình mới này, đang được triển khai trên toàn bộ sự hiện diện web của công ty và, có lẽ quan trọng hơn, trong các ứng dụng liên lạc được sử dụng rộng rãi của nó: WhatsApp, Messenger và Instagram Direct. Điều này ngay lập tức đưa các công cụ AI tiên tiến vào tay hàng tỷ người dùng tiềm năng trên toàn thế giới. Sự tích hợp này phục vụ nhiều mục đích chiến lược: nó cung cấp giá trị tức thì cho người dùng các nền tảng của Meta, tạo ra lượng lớn dữ liệu tương tác trong thế giới thực (có thể vô giá để tinh chỉnh mô hình hơn nữa, tùy thuộc vào các cân nhắc về quyền riêng tư) và định vị các ứng dụng của Meta là các nền tảng tiên tiến được tích hợp trí thông minh AI. Nó tạo ra một vòng phản hồi mạnh mẽ và đảm bảo Meta trực tiếp hưởng lợi từ những tiến bộ AI của chính mình bằng cách nâng cao các dịch vụ cốt lõi của mình.

Chiến lược kép này tương phản với các cách tiếp cận được thực hiện bởi một số đối thủ cạnh tranh. Trong khi OpenAI chủ yếu cung cấp quyền truy cập thông qua API (như đối với GPT-4) và Google tích hợp sâu Gemini vào các dịch vụ của mình đồng thời cung cấp quyền truy cập API, thì việc Meta nhấn mạnh vào việc cung cấp chính các mô hình để tải xuống (với các điều kiện cấp phép) đại diện cho một cách tiếp cận riêng biệt nhằm thu hút sự chú ý trong cả cộng đồng nhà phát triển và thị trường người dùng cuối.

Câu hỏi về Mã nguồn Mở: Một Vấn đề nan giải về Cấp phép

Meta liên tục đề cập đến các bản phát hành mô hình Llama của mình, bao gồm cả Llama 4, là ‘mã nguồn mở’. Tuy nhiên, sự chỉ định này đã là một điểm gây tranh cãi lặp đi lặp lại trong cộng đồng công nghệ, chủ yếu là do các điều khoản cụ thể của giấy phép Llama. Mặc dù các mô hình thực sự được cung cấp cho người khác sử dụng và sửa đổi, giấy phép áp đặt một số hạn chế đi chệch khỏi các định nghĩa tiêu chuẩn về mã nguồn mở được các tổ chức như Open Source Initiative (OSI) ủng hộ.

Hạn chế đáng kể nhất liên quan đến việc sử dụng thương mại quy mô lớn. Giấy phép Llama 4 quy định rằng các thực thể thương mại có hơn 700 triệu người dùng hoạt động hàng tháng (MAU) phải xin phép rõ ràng từ Meta trước khi triển khai hoặc sử dụng các mô hình Llama 4. Ngưỡng này ngăn chặn hiệu quả các công ty công nghệ lớn nhất – những đối thủ cạnh tranh trực tiếp tiềm năng với Meta – tự do sử dụng Llama 4 để nâng cao dịch vụ của chính họ mà không có sự đồng ý của Meta.

Hạn chế này đã khiến Open Source Initiative, một người quản lý được công nhận rộng rãi về các nguyên tắc mã nguồn mở, trước đây đã tuyên bố (liên quan đến Llama 2, có các điều khoản tương tự) rằng các điều kiện như vậy đưa giấy phép ‘ra khỏi danh mục ‘Mã nguồn mở’’. Giấy phép mã nguồn mở thực sự, theo định nghĩa của OSI, không được phân biệt đối xử với các lĩnh vực nỗ lực hoặc cá nhân hoặc nhóm cụ thể, và chúng thường cho phép sử dụng thương mại rộng rãi mà không yêu cầu sự cho phép đặc biệt dựa trên quy mô hoặc vị thế thị trường của người dùng.

Cách tiếp cận của Meta có thể được xem là một dạng giấy phép ‘nguồn có sẵn’ hoặc ‘cộng đồng’ thay vì hoàn toàn là mã nguồn mở. Lý do đằng sau chiến lược cấp phép này có thể có nhiều mặt. Nó cho phép Meta thu hút thiện chí và thúc đẩy sự đổi mới trong cộng đồng nhà phát triển và nghiên cứu rộng lớn hơn bằng cách cung cấp quyền truy cập vào các mô hình mạnh mẽ. Đồng thời, nó bảo vệ lợi ích chiến lược của Meta bằng cách ngăn chặn các đối thủ lớn nhất của mình trực tiếp tận dụng các khoản đầu tư AI đáng kể của mình để chống lại nó. Mặc dù cách tiếp cận thực dụng này có thể phục vụ các mục tiêu kinh doanh của Meta, việc sử dụng thuật ngữ ‘mã nguồn mở’ vẫn còn gây tranh cãi, vì nó có thể tạo ra sự nhầm lẫn và có khả năng làm loãng ý nghĩa của một thuật ngữ mang hàm ý cụ thể về tự do và quyền truy cập không hạn chế trong thế giới phát triển phần mềm. Cuộc tranh luận đang diễn ra này nhấn mạnh sự giao thoa phức tạp giữa hợp tác mở, chiến lược công ty và sở hữu trí tuệ trong lĩnh vực trí tuệ nhân tạo đang phát triển nhanh chóng.

Meta có kế hoạch chia sẻ thêm chi tiết về lộ trình AI của mình và tương tác với cộng đồng tại hội nghị LlamaCon sắp tới, dự kiến diễn ra vào ngày 29 tháng 4. Sự kiện này có khả năng cung cấp thêm thông tin chi tiết về nền tảng kỹ thuật của Llama 4, các phiên bản tiềm năng trong tương lai và tầm nhìn rộng lớn hơn của công ty về vai trò của AI trong hệ sinh thái của mình và hơn thế nữa. Việc phát hành Llama 4 Scout và Maverick, cùng với lời hứa về Behemoth, rõ ràng báo hiệu quyết tâm của Meta là trở thành một lực lượng hàng đầu trong cuộc cách mạng AI, định hình quỹ đạo của nó thông qua cả đổi mới công nghệ và phổ biến chiến lược.