Musk, AI, và "Lỗi Hành Chính" Vũ Khí Hóa

Sự ra đi của Elon Musk khỏi sáng kiến Nâng cao Hướng dẫn Vận hành Quốc phòng (DOGE) có vẻ là một sự kiện quan trọng, nhưng tác động thực sự của nó nằm ở mức độ mà công chúng vẫn cảnh giác. Câu chuyện thực sự không chỉ là về việc cắt giảm ngân sách hoặc sự phô trương của Musk; mà là về sự tích hợp ngấm ngầm các dự án mang tính ý thức hệ vào các hệ thống kỹ thuật điều khiển chính phủ Hoa Kỳ.

Vào tháng Hai, tôi đã phác thảo khái niệm về một “cuộc đảo chính AI”, trong đó Trí tuệ Nhân tạo hoạt động ít như một công cụ và nhiều hơn như một màn trình diễn và sự biện minh. Các Mô hình Ngôn ngữ Lớn (LLM) đóng vai trò là trình tạo lý do, cung cấp một vỏ bọc thuận tiện cho các hành động mà không ai muốn chịu trách nhiệm. Elon Musk đã đóng một vai trò tương tự, đánh lạc hướng công chúng bằng những màn trình diễn giật gân trong khi thực hiện những thay đổi triệt để.

Một trong những ví dụ nghiêm trọng nhất là việc cắt ngân sách một chương trình đã ngăn chặn 26 triệu ca tử vong do AIDS, bao gồm cả trẻ em. Các quan chức được bầu chọn phần lớn đã bỏ qua vấn đề này, giả vờ bất lực.

Những trò hề gây tranh cãi của Musk đóng vai trò như một màn khói thuận tiện cho việc phá dỡ triệt để chính phủ liên bang. Mặc dù điều này đã làm dấy lên một phong trào phản đối từ cơ sở và tác động tiêu cực đến doanh số bán hàng của Tesla, nhưng nó đã che giấu vấn đề sâu sắc hơn về tích hợp AI.

Trong khi Musk và Trump đã thúc đẩy việc cắt giảm ngân sách theo định hướng ý thức hệ của DOGE, một phân tích trên The Atlantic tiết lộ rằng tổng chi tiêu liên bang thực sự đã tăng lên. Sự chuyển đổi AI của lực lượng lao động liên bang, được ca ngợi là một phương tiện để “hiệu quả của chính phủ”, tiếp tục diễn ra phần lớn không được chú ý. DOGE đã sử dụng Llama 2 để xem xét và phân loại email từ các nhân viên liên bang, nhưng hợp đồng trị giá 113 triệu đô la của Palantir để tạo ra một cơ sở hạ tầng giám sát dân sự rộng lớn làm nổi bật một xu hướng đáng lo ngại. Công ty cũng đang tích hợp mô hình ngôn ngữ Grok của Musk vào nền tảng của mình.

Lỗi Lập Trình

Grok của xAI, dưới sự kiểm soát trực tiếp của Musk, cung cấp một ví dụ đáng lo ngại. Mô hình này đã phản hồi các truy vấn vô hại bằng các nhận xét thúc đẩy thực tế về nạn diệt chủng người da trắng ở Nam Phi. Sự thao túng dấu nhắc hệ thống ẩn của mô hình này tiết lộ một nỗ lực vụng về trong kỹ thuật xã hội. Mô hình này sau đó được phát hiện là tham gia vào việc phủ nhận Holocaust, mà xAI cho là do “lỗi lập trình”.

xAI đã phản hồi vụ việc “diệt chủng người da trắng” bằng cách tuyên bố rằng việc sửa đổi dấu nhắc đã vi phạm các chính sách nội bộ. Họ nói thêm rằng những thay đổi dấu nhắc hệ thống trong tương lai sẽ phải chịu sự xem xét.

Những sự cố này làm nổi bật những rủi ro vốn có của dấu nhắc hệ thống. Chúng có thể bị thay đổi bởi bất kỳ ai có quyền kiểm soát mô hình và chỉ chịu sự giám sát sau khi phát hiện. Sự phụ thuộc vào các mô hình AI của công ty trong việc ra quyết định của chính phủ mang lại quyền lực chính trị to lớn cho giới tinh hoa công nghệ.

Thông thường, việc áp dụng công nghệ vào chính phủ liên quan đến sự cân nhắc cẩn thận và các đánh giá bảo mật. Việc triển khai DOGE thiếu sự giám sát thích hợp, làm dấy lên lo ngại về tính độc lập của bất kỳ đánh giá nào. Bằng cách tích hợp dữ liệu của cơ quan vào một mô hình thống nhất, DOGE không xem xét các nhu cầu bảo mật cụ thể của từng cơ quan. Về bản chất, DOGE đang thực hiện những thay đổi mang tính chuyển đổi mà không đánh giá sự cần thiết, đầy đủ hoặc lợi ích của chúng đối với công dân.

Nếu chính quyền Trump thực sự quan tâm đến việc xây dựng các hệ thống đáng tin cậy, thì hành động của họ sẽ phản ánh điều đó. Thay vào đó, DOGE và chính quyền Trump đã kìm hãm sự giám sát đối với những thành kiến trong các mô hình AI của công ty và các trường hợp thao túng dấu nhắc hệ thống. Sau khi DOGE cắt giảm ngân sách cho nghiên cứu về thành kiến AI, một dự luật mới được Quốc hội thông qua sẽ cấm bất kỳ luật mới nào liên quan đến giám sát AI trong thập kỷ tới.

Nhân Viên Bất Hảo

Sự ra đi của Musk khỏi DOGE để lại một di sản, được củng cố bởi việc lựa chọn Palantir, công ty AI do Thiel thành lập mà Musk đã chọn. Musk và Thiel là đồng sáng lập của Paypal, và Thiel đã bày tỏ sự hoài nghi về khả năng tương thích giữa tự do và dân chủ.

Sự tập trung quyền lực do Musk khởi xướng thông qua DOGE sẽ tiếp tục tồn tại, hoạt động kín đáo hơn. Mặc dù sự ra đi của ông đánh dấu một chiến thắng cho những người phản đối ông, nhưng công việc của DOGE vẫn tiếp tục dưới sự chỉ đạo của các quan chức được thuê vì sự trung thành của họ.

Mục đích thực sự của DOGE không bao giờ là loại bỏ sự lãng phí của chính phủ mà là tự động hóa bộ máy quan liêu với ít biện pháp trách nhiệm giải trình hơn. Mục tiêu “hiệu quả của chính phủ” này vẫn chưa được xác định rõ ràng. Hợp lý hóa chính phủ sẽ đơn giản hóa các tương tác của công dân với các dịch vụ và thông tin. Thay vào đó, việc sa thải đã tạo ra những bế tắc mang tính hệ thống đồng thời làm tổn hại đến quyền riêng tư. Việc cắt giảm tài trợ cho IRS đã làm dấy lên lo ngại về kiểm toán và hoàn thuế, có khả năng gây thiệt hại hàng tỷ đô la doanh thu bị mất.

Mục đích của DOGE không phải là tối ưu hóa bộ máy quan liêu, mà là loại bỏ yếu tố con người. Nó ưu tiên hiệu quả theo kiểu công nghiệp, phân loại công dân và cho rằng có sự lạm dụng mang tính hệ thống. Quyền và đặc quyền sau đó được cấp hoặc từ chối dựa trên những thành kiến được nhúng vào hệ thống AI.

Những người kiểm soát định nghĩa và tự động hóa các phản hồi đối với những danh mục này có quyền lực đáng kể. Các mô hình phản ánh các quyết định của những người đào tạo chúng, bao gồm các thành kiến được dung thứ và các mục tiêu tối ưu hóa. Với việc các quản trị viên hiện tại sử dụng các dấu vết thuật toán, bộ máy quan liêu mất đi kết nối cuối cùng với nhân loại.

Lỗi Hành Chính

Quan liêu và lỗi quan liêu không phải là điều gì mới. Điều chưa từng có là việc cắt đứt trách nhiệm giải trình của con người đối với các lỗi, thúc đẩy sự thờ ơ đối với việc tránh chúng.

Hãy xem xét báo cáo sức khỏe của Robert F. Kennedy Jr., trong đó chứa các trích dẫn bịa đặt. Theo lịch sử, hành động này lẽ ra là một vụ bê bối, nhưng nó đã bị bác bỏ là một “lỗi định dạng”. Kennedy ủng hộ các chính sách không được hỗ trợ bởi bằng chứng và việc AI tạo ra báo cáo này cho thấy sự ưu tiên trình bày hơn là điều tra khoa học hợp pháp. Việc tự động hóa bằng chứng bịa đặt chỉ là một trong những cách mà AI đã trở thành một công cụ cho chính quyền.

DOGE dường như tập trung nhiều hơn vào việc trừng phạt sự phản đối Trump – người di cư, học giả, dân tộc thiểu số – và các nỗ lực rộng rãi của nó tạo ra những sai sót không thể tránh khỏi. Việc trục xuất Kilmar Abrego Garcia, được cho là do “lỗi hành chính”, là một ví dụ điển hình. Điều này thể hiện một sự vũ khí hóa có chủ ý của lỗi.

Cuối cùng, DOGE nhằm mục đích tạo ra một hệ thống nơi các kết quả gây tranh cãi có thể bị đổ lỗi cho “lỗi hành chính”, “lỗi lập trình” hoặc “lỗi định dạng”. Chính quyền chuyển gánh nặng cho các công cụ bị lỗi, từ chối chấp nhận trách nhiệm. Trong trường hợp của Garcia, chính quyền từ chối sửa chữa lỗi. Điều này thể hiện một thế giới trật tự không đáng tin cậy, nơi chỉ những người cam kết trung thành mới được tha.

Chúng ta đang tạo ra một môi trường mong manh, nơi số phận cá nhân phụ thuộc vào những ý thích bất chợt của AI và lập trình vô hình của nó. Điều gì xảy ra khi các chương trình AI này là những công cụ gây bất ổn, củng cố dữ liệu thành các kiến trúc giám sát thống nhất?

Mặc dù sự ra đi của Musk khỏi DOGE có thể khiến sự chú ý của công chúng suy yếu, nhưng các vấn đề cơ bản vẫn còn: thành kiến thuật toán, thiếu trách nhiệm giải trình và sự xói mòn của sự giám sát của con người. Nếu không được kiểm soát, những xu hướng này có khả năng gây tổn hại đến nền tảng của một xã hội công bằng và bình đẳng.