Llama 2 của Meta, không phải Grok, dùng giảm biên chế chính phủ

Một tiết lộ bất ngờ chỉ ra rằng các sáng kiến ​​được xem xét kỹ lưỡng của Bộ Hiệu quả Chính phủ (Department of Government Efficiency - DOGE) nhằm hợp lý hóa lực lượng lao động liên bang đã sử dụng một mô hình AI cũ hơn của Meta, cụ thể là Llama 2, thay vì Grok, sản phẩm AI của Elon Musk.

Bản Ghi Nhớ “Ngã Ba Đường (Fork in the Road)” và Vai Trò của Llama 2

Theo một đánh giá được thực hiện bởi Wired, các chi nhánh của DOGE thuộc Elon Musk, hoạt động trong Văn phòng Quản lý Nhân sự (Office of Personnel Management), đã sử dụng mô hình Llama 2 của Meta để phân tích và phân loại tỉ mỉ các phản hồi từ nhân viên liên bang cho email “Ngã Ba Đường” gây tranh cãi được gửi đi khắp chính phủ vào cuối tháng Giêng.

Bản ghi nhớ “Ngã Ba Đường”, tương tự đến kinh ngạc với một thông báo trước đó mà Musk đã gửi cho nhân viên Twitter, đã đưa ra cho nhân viên liên bang một lựa chọn: thể hiện “lòng trung thành” bằng cách chấp nhận chính sách quay trở lại văn phòng (return-to-office policy) sửa đổi của chính phủ, hoặc chọn từ chức. Vào thời điểm đó, những tin đồn lan truyền cho thấy DOGE đang tận dụng AI để xử lý dữ liệu của nhân viên chính phủ. Xác nhận kể từ đó đã xuất hiện, chứng minh việc sử dụng Llama 2 để sàng lọc các phản hồi của nhân viên và định lượng số lượng đơn từ chức.

Quá Khứ Gây Tranh Cãi của Llama 2: Ứng Dụng Quân Sự và Phản Ứng của Meta

Lịch sử của Llama 2 không phải là không có tranh cãi. Đáng chú ý, vào tháng 11, các nhà nghiên cứu Trung Quốc đã tận dụng Llama 2 làm nền tảng cho một mô hình AI được sử dụng bởi quân đội Trung Quốc. Tiết lộ này đã gây ra phản ứng dữ dội, khiến Meta ban đầu lên án việc các nhà nghiên cứu “sử dụng trái phép” một mô hình “đơn lẻ” và “lỗi thời”. Tuy nhiên, Meta sau đó đã đảo ngược các chính sách cấm các ứng dụng quân sự và mở rộng quyền truy cập vào các mô hình AI của mình cho các mục đích an ninh quốc gia của Hoa Kỳ.

Meta công khai tuyên bố cam kết cung cấp Llama cho các cơ quan chính phủ Hoa Kỳ, bao gồm cả những cơ quan tham gia vào các ứng dụng quốc phòng và an ninh quốc gia, cũng như các đối tác khu vực tư nhân hỗ trợ các nỗ lực của họ. Họ đã công bố quan hệ đối tác với các công ty như Accenture, Amazon Web Services, Anduril, Booz Allen, Databricks, Deloitte, IBM, Leidos, Lockheed Martin, Microsoft, Oracle, Palantir, Scale AI và Snowflake để tạo điều kiện triển khai Llama trên khắp các cơ quan chính phủ.

Wired cho thấy bản chất mã nguồn mở của các mô hình Meta cho phép chính phủ dễ dàng sử dụng chúng để hỗ trợ các mục tiêu của Musk, có thể không cần sự đồng ý rõ ràng của công ty. Xác định mức độ triển khai các mô hình của Meta trong chính phủ vẫn là một thách thức. Cơ sở cho việc DOGE sử dụng Llama 2, đặc biệt là khi Meta đã có những tiến bộ với Llama 3 và 4, là không rõ ràng.

Hạn Chế Kiến Thức về Việc DOGE Sử Dụng Llama 2

Chi tiết về ứng dụng cụ thể của DOGE đối với Llama 2 vẫn còn khan hiếm. Cuộc điều tra của Wired tiết lộ rằng DOGE đã triển khai mô hình cục bộ, cho thấy dữ liệu có khả năng không được truyền qua Internet, do đó giảm thiểu các mối lo ngại về quyền riêng tư do nhiều nhân viên chính phủ bày tỏ.

Quan Ngại Của Quốc Hội và Kêu Gọi Điều Tra

Trong một lá thư tháng Tư gửi cho Russell Vought, giám đốc Văn phòng Quản lý và Ngân sách (Office of Management and Budget), hơn 40 nhà lập pháp đã yêu cầu một cuộc điều tra kỹ lưỡng về việc DOGE sử dụng AI. Họ bày tỏ lo ngại rằng việc sử dụng như vậy, cùng với các rủi ro an ninh tiềm ẩn, có thể làm suy yếu việc áp dụng AI thành công và phù hợp trong chính phủ.

Lá thư đặc biệt đề cập đến một nhân viên của DOGE và cựu nhân viên SpaceX, người bị cáo buộc đã sử dụng mô hình xAI Grok-2 của Musk để phát triển một “trợ lý AI”. Nó cũng đề cập đến việc sử dụng một chatbot có tên “GSAi”, dựa trên các mô hình của Anthropic và Meta, để phân tích dữ liệu hợp đồng và mua sắm. Ngoài ra, DOGE đã được liên kết với phần mềm có tên AutoRIF, được cho là được thiết kế để đẩy nhanh việc sa thải hàng loạt trên khắp chính phủ.

Các nhà lập pháp nhấn mạnh “những lo ngại lớn về an ninh” xung quanh việc DOGE sử dụng “các hệ thống AI để phân tích email từ một phần lớn trong số hai triệu nhân viên liên bang mô tả những thành tựu của tuần trước của họ”, viện dẫn sự thiếu minh bạch.

Những email này theo sau các email “Ngã Ba Đường”, thúc đẩy người lao động vạch ra những thành tựu hàng tuần trong năm gạch đầu dòng. Nhân viên bày tỏ lo lắng về bản chất của các phản hồi, lo sợ rằng DOGE có thể đang thu thập thông tin nhạy cảm mà không có sự cho phép an ninh thích hợp.

Wired không thể xác nhận một cách dứt khoát liệu Llama 2 cũng được sử dụng để phân tích các phản hồi email này hay không. Tuy nhiên, các nhân viên liên bang đã nói với Wired rằng DOGE có khả năng “tái sử dụng mã của họ” từ thử nghiệm email “Ngã Ba Đường”, nếu đó là một quyết định sáng suốt.

Tại Sao Grok Không Được Sử Dụng

Câu hỏi đặt ra là: tại sao DOGE không sử dụng Grok?

Lời giải thích có khả năng là Grok, là một mô hình độc quyền vào thời điểm đó, không có sẵn cho nhiệm vụ của DOGE vào tháng Giêng. Theo Wired, DOGE có thể tăng cường dựa vào Grok trong tương lai, đặc biệt là khi Microsoft thông báo rằng họ sẽ bắt đầu lưu trữ các mô hình Grok 3 của xAI trong Azure AI Foundry của mình trong tuần này, do đó mở rộng các ứng dụng tiềm năng của mô hình.

Quan Ngại Của Các Nhà Lập Pháp: Xung Đột Lợi Ích và Rò Rỉ Dữ Liệu

Trong thư của họ, các nhà lập pháp kêu gọi Vought điều tra các xung đột lợi ích tiềm ẩn liên quan đến Musk, đồng thời cảnh báo về các vi phạm dữ liệu tiềm ẩn. Họ khẳng định rằng AI, như được DOGE sử dụng, vẫn chưa phù hợp cho các ứng dụng của chính phủ.

Họ lập luận rằng “nếu không có các biện pháp bảo vệ thích hợp, việc đưa dữ liệu nhạy cảm vào một hệ thống AI sẽ đưa nó vào quyền sở hữu của nhà điều hành của hệ thống—một sự vi phạm lớn đối với lòng tin của công chúng và nhân viên và làm tăng rủi ro an ninh mạng xung quanh dữ liệu đó.” “Các mô hình AI tổng quát cũng thường xuyên mắc lỗi và cho thấy những thành kiến ​​đáng kể—công nghệ này đơn giản là chưa sẵn sàng để sử dụng trong việc ra quyết định rủi ro cao mà không cần kiểm tra, minh bạch, giám sát và các biện pháp bảo vệ thích hợp.”

Mặc dù báo cáo của Wired cho thấy rằng DOGE đã không truyền dữ liệu nhạy cảm từ các email “Ngã Ba Đường” đến một nguồn bên ngoài, nhưng các nhà lập pháp đang ủng hộ việc kiểm tra kỹ lưỡng hơn các hệ thống AI để giảm thiểu “rủi ro chia sẻ thông tin nhận dạng cá nhân hoặc thông tin nhạy cảm khác với những người triển khai mô hình AI.”

Một mối quan tâm phổ biến là Musk có thể ngày càng tận dụng các mô hình của riêng mình, có khả năng hưởng lợi từ dữ liệu chính phủ mà các đối thủ cạnh tranh của ông không thể tiếp cận, đồng thời phơi bày dữ liệu đó trước các rủi ro vi phạm. Các nhà lập pháp hy vọng rằng DOGE sẽ buộc phải ngừng các hệ thống AI của mình. Tuy nhiên, Vought dường như phù hợp hơn với cách tiếp cận của DOGE, như được chứng minh bằng hướng dẫn AI của ông cho việc sử dụng liên bang, khuyến khích các cơ quan “xóa bỏ các rào cản đối với sự đổi mới và cung cấp giá trị tốt nhất cho người nộp thuế.”

Thư của các nhà lập pháp nhấn mạnh rằng “mặc dù chúng tôi ủng hộ chính phủ liên bang tích hợp các công nghệ AI mới, được phê duyệt có thể cải thiện hiệu quả hoặc hiệu suất, nhưng chúng tôi không thể hy sinh an ninh, quyền riêng tư và các tiêu chuẩn sử dụng phù hợp khi tương tác với dữ liệu liên bang.” “Chúng tôi cũng không thể dung thứ việc sử dụng các hệ thống AI, thường được biết đến với ảo giác và thành kiến, trong các quyết định liên quan đến việc chấm dứt việc làm liên bang hoặc tài trợ liên bang mà không có đủ sự minh bạch và giám sát đối với các mô hình đó—rủi ro mất đi tài năng và nghiên cứu quan trọng vì công nghệ bị lỗi hoặc sử dụng bị lỗi của công nghệ đó là quá cao.”

Đi Sâu Vào Các Hậu Quả của Việc Sử Dụng AI trong Các Sáng Kiến Hiệu Quả Chính Phủ

Câu chuyện đang diễn ra về việc Bộ Hiệu quả Chính phủ (DOGE) sử dụng trí tuệ nhân tạo trong các nỗ lực hợp lý hóa hoạt động của mình đã gây ra một cơn bão tranh luận và giám sát. Tiết lộ rằng cơ quan này dựa vào mô hình Llama 2 của Meta - một AI mã nguồn mở - thay vì AI Grok độc quyền của Elon Musk đã thêm một lớp phức tạp vào một câu chuyện vốn đã phức tạp. Tình huống này đảm bảo một cuộc đi sâu vào các tác động nhiều mặt của việc tích hợp AI vào các hoạt động của chính phủ, kiểm tra những lợi ích và rủi ro vốn có, các cân nhắc về đạo đức và khả năng xảy ra xung đột lợi ích.

Sự Hấp Dẫn và Cạm Bẫy của AI trong Chính Phủ

Việc tích hợp AI vào các chức năng của chính phủ hứa hẹn những tiến bộ mang tính chuyển đổi về hiệu quả, phân tích dữ liệu và ra quyết định. Từ việc tự động hóa các nhiệm vụ thường xuyên đến sàng lọc các tập dữ liệu khổng lồ, AI có tiềm năng mở ra mức năng suất chưa từng có và cải thiện việc cung cấp các dịch vụ công cộng. Hãy tưởng tượng các thuật toán có thể dự đoán sự cố cơ sở hạ tầng, cá nhân hóa giáo dục hoặc tối ưu hóa việc phân bổ nguồn lực trong các nỗ lực cứu trợ thảm họa. Khả năng dường như là vô tận.

Tuy nhiên, cuộc cách mạng công nghệ này không phải là không có những nguy hiểm của nó. Sự phụ thuộc vào các hệ thống AI giới thiệu một mạng lưới phức tạp gồm các tình huống khó xử về đạo đức, các lỗ hổng bảo mật và các thành kiến ​​tiềm ẩn. Các mô hình AI được đào tạo trên dữ liệu và nếu dữ liệu đó phản ánh các định kiến ​​của xã hội, AI sẽ duy trì và thậm chí khuếch đại những thành kiến ​​đó. Điều này gây ra một mối đe dọa đáng kể đến sự công bằng và bình đẳng trong các dịch vụ của chính phủ, có khả năng dẫn đến các kết quả phân biệt đối xử trong các lĩnh vực như thực thi pháp luật, phúc lợi xã hội và giáo dục.

Hơn nữa, việc sử dụng AI đặt ra những câu hỏi sâu sắc về tính minh bạch và trách nhiệm giải trình. Khi các quyết định được đưa ra bởi các thuật toán, sẽ trở nên khó khăn để hiểu lý do đằng sau những quyết định đó, gây khó khăn cho việc buộc các cơ quan chính phủ phải chịu trách nhiệm về hành động của họ.

Bài Toán Hóc Búa Llama 2 so với Grok

Việc lựa chọn Llama 2 so với Grok mang đến một loạt các cân nhắc riêng. Bản chất mã nguồn mở của Llama 2 giúp nó dễ dàng truy cập và tùy chỉnh, cho phép các cơ quan chính phủ điều chỉnh nó cho các nhu cầu cụ thể của họ mà không bị khóa vào một hệ sinh thái độc quyền. Tuy nhiên, điều này cũng có nghĩa là nó thiếu sự hỗ trợ và bảo trì chuyên dụng thường có với các giải pháp AI độc quyền.

Mặt khác, Grok, với tư cách là một AI độc quyền, mang đến lời hứa về hiệu suất tiên tiến và chuyên môn hóa. Tuy nhiên, nó cũng làm dấy lên những lo ngại về nguy cơ khóa nhà cung cấp tiềm ẩn, quyền riêng tư dữ liệu và thành kiến ​​xuất phát từ dữ liệu huấn luyện của AI. Nó làm nổi bật những lo ngại về khả năng bất kỳ thực thể tư nhân nào, đặc biệt là một thực thể liên kết với một nhân vật nổi tiếng có liên hệ chặt chẽ với các mục tiêu của chính phủ, gây ảnh hưởng không đáng có đến các quy trình ra quyết định.

Bóng Ma của Các Xung Đột Lợi Ích

Sự tham gia của các thực thể của Elon Musk (SpaceX và xAI) trong các sáng kiến ​​AI của chính phủ làm dấy lên bóng ma của các xung đột lợi ích. Là một nhân vật nổi bật có lợi ích trong nhiều lĩnh vực khác nhau, sự tham gia của Musk làm dấy lên câu hỏi về ảnh hưởng tiềm tàng mà ông có thể gây ra đối với chính sách của chính phủ và việc trao hợp đồng.

Liệu chính phủ có ưu đãi đối với các công ty của Musk? Có những biện pháp bảo vệ đầy đủ để đảm bảo rằng các quyết định được đưa ra một cách khách quan vàvì lợi ích tốt nhất của công chúng? Đây là những câu hỏi chính đáng đòi hỏi sự xem xét kỹ lưỡng.

Các Quan Ngại Về Bảo Mật và Quyền Riêng Tư Dữ Liệu

Việc sử dụng AI trong các hoạt động của chính phủ chắc chắn liên quan đến việc thu thập, lưu trữ và xử lý dữ liệu nhạy cảm của công dân. Điều này tạo ra một mục tiêu hấp dẫn cho các cuộc tấn công mạng và vi phạm dữ liệu. Chính phủ phải thực hiện các biện pháp bảo mật mạnh mẽ để bảo vệ dữ liệu này khỏi truy cập và lạm dụng trái phép. Điều này bao gồm không chỉ bảo vệ dữ liệu khỏi các mối đe dọa bên ngoài mà còn thiết lập các cơ chế kiểm soát truy cập và trách nhiệm giải trình nghiêm ngặt để ngăn chặn lạm dụng nội bộ.

Những lo ngại về quyền riêng tư dữ liệu được khuếch đại bởi bản chất không rõ ràng của các thuật toán AI. Công dân thường không biết dữ liệu của họ đang được xử lý hoặc sử dụng như thế nào để đưa ra các quyết định ảnh hưởng đến cuộc sống của họ. Sự thiếu minh bạch này làm xói mòn lòng tin vào chính phủ và có thể dẫn đến sự phản kháng chống lại các sáng kiến ​​do AI điều khiển.

Hậu Quả Đối Với Tương Lai Của Chính Phủ

Cuộc tranh luận về việc DOGE sử dụng AI không chỉ là về một trường hợp cụ thể, mà là về tương lai rộng lớn hơn của chính phủ trong kỷ nguyên trí tuệ nhân tạo. Làm thế nào chính phủ có thể khai thác sức mạnh của AI để cải thiện các dịch vụ công mà vẫn giảm thiểu rủi ro? Làm thế nào chúng ta có thể đảm bảo rằng AI được sử dụng một cách đạo đức, minh bạch và có trách nhiệm giải trình?

Câu trả lời cho những câu hỏi này đòi hỏi một cách tiếp cận đa hướng:

  • Thiết Lập Các Nguyên Tắc Đạo Đức Rõ Ràng: Mã hóa một tập hợp các nguyên tắc đạo đức rõ ràng điều chỉnh việc sử dụng AI trong chính phủ. Các nguyên tắc này nên ưu tiên sự công bằng, minh bạch, trách nhiệm giải trình và tôn trọng quyền riêng tư.

  • Thúc Đẩy Sự Minh Bạch và Cởi Mở: Làm cho các thuật toán AI và quy trình ra quyết định trở nên minh bạch hơn. Xuất bản các báo cáo mô tả cách AI đang được sử dụng trong chính phủ và cung cấp các phương tiện để công dân cung cấp phản hồi.

  • Bảo Vệ An Ninh Dữ Liệu: Thực hiện các biện pháp bảo mật mạnh mẽ để bảo vệ dữ liệu nhạy cảm của công dân khỏi các mối đe dọa trên mạng và lạm dụng nội bộ.

  • Đảm Bảo Trách Nhiệm Giải Trình: Thiết lập các dòng trách nhiệm giải trình rõ ràng cho các quyết định do AI điều khiển. Chỉ định các quan chức chính phủ chịu trách nhiệm giám sát việc sử dụng AI và giải quyết mọi vấn đề có thể phát sinh.

  • Nuôi Dưỡng Lòng Tin Của Công Chúng: Giáo dục công chúng về những lợi ích và rủi ro của AI trong chính phủ. Tương tác với công dân để giải quyết những lo ngại của họ và xây dựng lòng tin vào việc sử dụng có trách nhiệm công nghệ này.

Bằng cách áp dụng một cách tiếp cận chủ động và chu đáo, chính phủ có thể khai thác sức mạnh chuyển đổi của AI đồng thời bảo vệ lợi ích công cộng. Vụ bê bối DOGE là một lời nhắc nhở có giá trị về tầm quan trọng của việc lập kế hoạch cẩn thận, đối thoại cởi mở và cam kết các nguyên tắc đạo đức trong kỷ nguyên trí tuệ nhân tạo.

Câu Chuyện Đang Diễn Ra

Vở kịch xung quanh việc DOGE sử dụng AI còn lâu mới kết thúc. Khi các cuộc điều tra tiếp tục và nhiều chi tiết hơn xuất hiện, sự cố chắc chắn sẽ có những tác động đối với tương lai của việc triển khai AI trong chính phủ. Hy vọng rằng, tình huống này sẽ dẫn đến việc tích hợp công nghệ chu đáo hơn.