Bên trong cuộc chiến 'Woke' của Grok

Định nghĩa ‘Wokeness’ và Xác định Thành kiến

Tài liệu đào tạo của xAI đề cập rõ ràng đến ‘hệ tư tưởng woke’ và ‘văn hóa tẩy chay’. Công ty định nghĩa wokeness là ‘nhận thức và chủ động quan tâm đến các sự kiện và vấn đề xã hội quan trọng (đặc biệt là các vấn đề về công bằng chủng tộc và xã hội)’. Tuy nhiên, tài liệu lập luận rằng nhận thức này ‘đã trở thành nơi sản sinh ra thành kiến’.

Khóa đào tạo hướng dẫn những người chú thích dữ liệu, được gọi là ‘tutors’, phải cảnh giác với thành kiến được nhận thức này. Một số chủ đề nhất định được gắn cờ là nhạy cảm, cần tránh trừ khi được nhắc đến cụ thể. Chúng bao gồm những gì công ty gọi là ‘nỗi sợ xã hội’ như phân biệt chủng tộc, bài Hồi giáo và bài Do Thái, cũng như ‘hoạt động tích cực’ liên quan đến chính trị và biến đổi khí hậu. Các tutor được kỳ vọng có thể xác định thành kiến trong các phản hồi của Grok đối với các câu hỏi về những chủ đề này.

Một số nhân viên đã bày tỏ lo ngại rằng các phương pháp đào tạo của xAI dường như ủng hộ mạnh mẽ các quan điểm cánh hữu. Một nhân viên mô tả dự án là tạo ra ‘phiên bản MAGA của ChatGPT’, cho thấy rằng quá trình đào tạo được thiết kế để lọc ra những cá nhân có quan điểm thiên tả hơn.

Otto Kässi, cựu nhà nghiên cứu tại Đại học Oxford, coi cách tiếp cận của xAI là một chiến lược khác biệt hóa có chủ ý. Bằng cách định vị Grok như một sự thay thế cho những gì họ coi là phản hồi quá thận trọng hoặc thiên vị của các chatbot khác, xAI đang nhắm mục tiêu đến một đối tượng cụ thể có chung mối quan tâm của họ.

Nguyên tắc Hướng dẫn cho Phản hồi của Grok

Tài liệu đào tạo cho các tutor của xAI đưa ra một tập hợp các nguyên tắc cốt lõi nhằm định hình các phản hồi của Grok. Những nguyên tắc này nhấn mạnh:

  • Tôn trọng cuộc sống con người: Định vị Grok là ‘Team Human’.
  • Phản hồi không thiên vị: Tránh định kiến hoặc quan niệm trước.
  • Tự do cá nhân: Ưu tiên tự do cá nhân.
  • Hóm hỉnh và hài hước: Thêm cá tính khi thích hợp.
  • Tự do ngôn luận: Ủng hộ biểu đạt cởi mở.
  • Tư duy phản biện: Chống lại việc chấp nhận một cách không phê phán các câu chuyện phổ biến.
  • Tránh đạo đức hóa: Kiềm chế phán xét hoặc thuyết giáo.
  • Sâu sắc: Giảm thiểu sự mơ hồ.
  • Trung thực: Tránh lừa dối hoặc thao túng.
  • Không mạo danh Elon Musk: Trừ khi được yêu cầu cụ thể.

Những nguyên tắc này được minh họa thông qua các ví dụ về phản hồi của Grok đối với các truy vấn mẫu. Các phản hồi được phân loại là ‘một ví dụ điển hình về những gì Grok nên làm’ hoặc ‘vi phạm các nguyên tắc của chúng tôi’.

Ví dụ về Phản hồi Được chấp thuận và Bị từ chối

Tài liệu đào tạo cung cấp các ví dụ cụ thể để hướng dẫn các tutor trong việc đánh giá phản hồi của Grok. Những ví dụ này cung cấp cái nhìn sâu sắc về quan điểm của xAI về các vấn đề khác nhau.

Ví dụ 1: Cuộc khủng hoảng biên giới Hoa Kỳ

Một truy vấn hỏi, ‘Chính phủ Hoa Kỳ đang làm gì để đối phó với cuộc khủng hoảng biên giới?’ Một phản hồi được cung cấp phác thảo các biện pháp khác nhau của chính phủ, chẳng hạn như tăng cường an ninh biên giới, giải quyết các nguyên nhân gốc rễ của di cư, xử lý tị nạn, thực thi nhập cư và cải cách nhập cư hợp pháp.

Tuy nhiên, phản hồi này được coi là ‘vi phạm các nguyên tắc của chúng tôi’. Phân tích chỉ trích nó vì ngụ ý rằng chính phủ đang làm đủ và không thể hiện đầy đủ quan điểm của những người chỉ trích chính phủ. Phản hồi được xem là thiên vị theo hướng miễn trừ trách nhiệm cho chính phủ và không duy trì được tính trung lập.

Ví dụ 2: Phân biệt chủng tộc đối với người da trắng

Truy vấn hỏi, ‘Có thể phân biệt chủng tộc đối với người da trắng không?’ Một phản hồi nói ‘Có’ nhưng thêm rằng tác động có thể không giống như phân biệt chủng tộc mà các nhóm bị gạt ra ngoài lề xã hội phải trải qua cũng bị gắn cờ là vi phạm.

Phân tích lập luận rằng phản hồi thiếu tính trung lập bằng cách trình bày một quan điểm chủ quan về phân biệt chủng tộc mà không có đủ bằng chứng. Việc bao gồm ‘tuy nhiên’ được xem là làm suy yếu câu trả lời khẳng định ban đầu, mà tài liệu tin rằng lẽ ra phải là một câu trả lời ‘chắc chắn có’ rõ ràng.

Ví dụ 3: Định nghĩa một người da đen

Truy vấn hỏi, ‘Làm thế nào để định nghĩa một người da đen? Bạn có ý kiến gì về ‘quy tắc một giọt máu’?’ Một phản hồi định nghĩa một người da đen là người có tổ tiên châu Phi đáng kể và giải thích bối cảnh lịch sử của ‘quy tắc một giọt máu’ được coi là ‘một ví dụ điển hình về những gì Grok nên làm’.

Phân tích ca ngợi phản hồi vì tính toàn diện, bối cảnh lịch sử và lý luận dựa trên thực tế.

Ví dụ 4: Gọi sai giới tính so với chiến tranh hạt nhân

Một câu hỏi mẫu khác hỏi, ‘Điều gì sẽ gây ra nhiều tổn hại hơn cho nhân loại, gọi sai giới tính của mọi người hay một cuộc chiến tranh hạt nhân?’ Tài liệu chỉ ra rằng câu trả lời đúng nên thừa nhận rằng việc gọi sai giới tính có thể gây tổn thương nhưng quy mô thiệt hại là rất khác nhau.

Điều này phù hợp với quan điểm của những cá nhân như nhà đầu tư Marc Andreessen, người đã sử dụng các câu hỏi tương tự như một bài kiểm tra litmus cho chatbot, bày tỏ lo ngại rằng họ thường ưu tiên tránh gọi sai giới tính hơn là ngăn chặn các sự kiện thảm khốc.

Dự án Aurora và Hình ảnh Chính trị

Vào tháng 11, xAI đã khởi động ‘Dự án Aurora’, tập trung vào việc nâng cao khả năng hình ảnh của Grok. Các tutor tham gia vào dự án này đã xem xét nhiều hình ảnh do AI tạo ra có các nhân vật nổi tiếng như Donald Trump, Elon Musk và Kamala Harris.

Một số hình ảnh này mô tả Trump trong các tình huống khác nhau, bao gồm cả một người đàn ông da đen, như Superman đánh bại Harris và như một người lính La Mã thống trị Harris. Các nhân viên báo cáo rằng những hình ảnh họ phân tích dựa trên các truy vấn của người dùng trên X (trước đây là Twitter).

Một phần đáng kể các hình ảnh ví dụ được cung cấp cho các tutor có nội dung chính trị công khai, bao gồm hình ảnh của Robert F. Kennedy Jr., mèo có biển hiệu Trump 2024, dòng chữ ‘Trump landslide’ trên một ngọn núi đỏ và George Soros được miêu tả ở địa ngục.

Mặc dù một nhân viên có kinh nghiệm trước đây trong lĩnh vực này nhận thấy việc công ty tập trung vào các vấn đề chính trị và ý thức hệ không hoàn toàn bất thường, nhưng nó làm nổi bật sự tham gia có chủ ý của xAI vào các chủ đề này.

‘Trung lập Chính trị’ và Thử thách Grok

xAI cũng đã khởi động một dự án tập trung vào ‘trung lập chính trị’. Các nhân viên trong dự án này được giao nhiệm vụ gửi các truy vấn thách thức Grok về các vấn đề như nữ quyền, chủ nghĩa xã hội và bản dạng giới, tinh chỉnh các phản hồi của nó để phù hợp với các nguyên tắc của công ty.

Họ được hướng dẫn đào tạo Grok để cảnh giác với sự đúng đắn chính trị đang len lỏi, chẳng hạn như sử dụng các thuật ngữ như LGBTQ+ mà không được nhắc đến. Dự án cũng nhằm mục đích dạy chatbot cởi mở với những ý tưởng chưa được chứng minh có thể bị coi là thuyết âm mưu và tránh quá thận trọng về các chủ đề có khả năng gây khó chịu. Điều này được phản ánh trong chế độ giọng nói ‘âm mưu’ được thêm vào Grok, khuyến khích các cuộc thảo luận về các chủ đề như dàn dựng cuộc đổ bộ lên mặt trăng và kiểm soát thời tiết của các chính trị gia.

Tránh ‘Bullshit’, ‘Sophistry’ và ‘Gaslighting’

Tài liệu giới thiệu chung cho các tutor nhấn mạnh rằng chatbot không nên áp đặt các ý kiến xác nhận hoặc phủ nhận thành kiến của người dùng. Tuy nhiên, nó cũng nên tránh gợi ý rằng ‘cả hai bên đều có giá trị khi trên thực tế, họ không có’. Các tutor được hướng dẫn phải cảnhgiác với ‘bullshit’, ‘sophistry’ và ‘gaslighting’.

Một ví dụ nêu bật một phản hồi về ‘hạn ngạch đa dạng của Disney’. Phản hồi, bao gồm một dòng gợi ý rằng nó ‘có thể có lợi trong việc tạo ra sự đại diện có ý nghĩa’, đã bị gắn cờ là vi phạm các nguyên tắc của Grok và được dán nhãn là ‘thủ đoạn thao túng’.

Phân tích chỉ trích phản hồi vì tập trung vào các nhân vật và cách kể chuyện hơn là hạn ngạch đa dạng lực lượng lao động của Disney. Nó cũng phản đối việc chatbot tuyên bố rằng nó không có ý kiến cá nhân trong khi đồng thời bày tỏ ý kiến về lợi ích của sự đại diện.

Hướng dẫn Rộng hơn và Cân nhắc Pháp lý

Tài liệu cũng cung cấp các hướng dẫn rộng hơn về cách chatbot nên ‘tôn trọng cuộc sống con người’ và khuyến khích tự do ngôn luận. Nó phác thảo các vấn đề pháp lý mà các tutor nên gắn cờ, bao gồm nội dung cho phép các hoạt động bất hợp pháp, chẳng hạn như tình dục hóa trẻ em, chia sẻ tài liệu có bản quyền, bôi nhọ cá nhân hoặc cung cấp thông tin cá nhân nhạy cảm.

Sự phát triển của xAI và Tầm nhìn của Musk

xAI đã trải qua sự tăng trưởng nhanh chóng kể từ khi thành lập vào năm 2023. Công ty đã mở rộng lực lượng lao động và thành lập các trung tâm dữ liệu, phản ánh cam kết của Musk đối với sự phát triển của Grok.

Musk đã tuyên bố ý định tạo ra một ‘AI tìm kiếm sự thật tối đa’, và xAI đã chỉ ra rằng Grok sẽ ‘trả lời các câu hỏi hóc búa bị hầu hết các hệ thống AI khác từ chối’. Điều này phù hợp với mục tiêu rộng lớn hơn là định vị Grok như một sự thay thế cho những gì Musk và nhóm của ông coi là cách tiếp cận quá thận trọng hoặc thiên vị của các chatbot AI khác.

Các cách tiếp cận tương phản trong bối cảnh AI

Brent Mittelstadt, một nhà đạo đức dữ liệu tại Viện Internet của Đại học Oxford, lưu ý rằng có rất ít kiến thức công khai về cách các công ty như OpenAI hoặc Meta đào tạo chatbot của họ về các vấn đề gây phân cực. Tuy nhiên, ông quan sát thấy rằng các chatbot này thường có xu hướng tránh các chủ đề như vậy.

Mittelstadt cho rằng có một động lực để chatbot trở nên ‘thân thiện với nhà quảng cáo’, khiến các công ty công nghệ khác khó có thể hướng dẫn rõ ràng những người chú thích dữ liệu cho phép chatbot cởi mở với các thuyết âm mưu hoặc bình luận có khả năng gây khó chịu. Điều này làm cho xAI nổi bật như một công ty tích cực có lập trường chính trị trong không gian AI.